Meta expone medidas que emplea para abordar problemas de depredadores en sus plataformas

La firma tecnológica ha reconocido que prevenir la explotación infantil "es uno de los desafíos más importantes" a los que se enfrenta la industria y que ella, ahora, "más que nunca", trabaja para mantenerse a la vanguardia.

Meta ha insistido en que cuenta con una serie de medidas y sistemas sofisticados, así como especialistas en lo relacionado con los depredadores sexuales para abordar esta problemática en sus redes sociales, explicando cómo trabaja en este ámbito para limpiar sus plataformas de este tipo de usuarios.

La firma tecnológica ha reconocido que prevenir la explotación infantil «es uno de los desafíos más importantes» a los que se enfrenta la industria y que ella, ahora, «más que nunca», trabaja para mantenerse a la vanguardia.

Para ello, no solo se ha encargado de desarrollar tecnología que acabe con los depredadores sexuales, sino que también ha contratado especialistas dedicados a la seguridad infantil ‘online’. Una vez recopilada la información, la comparte también tanto con firmas competidores como con las fuerzas del orden.

En cualquier caso, Meta ha explicado cómo trabaja para evitar este tipo de usuarios en sus redes sociales, después de una investigación llevada a cabo por The Wall Street Journal e investigadores de la Universidad de Stanford y la Universodad de Massachusetts Amherst (ambas de Estados Unidos).

Este trabajo, publicado en junio, reveló que Instagram favorece la pedofilia entre sus contenidos al conectar usuarios que venden imágenes y vídeos de carácter sexual de menores con personas que los compran.

En relación a estas acusaciones, Meta ha reconocido haber creado un grupo de trabajo para revisar las políticas existentes y la tecnología que emplea para prevenir estos casos, así como llevar a cabo los cambios necesarios para fortalecer la protección que ofrece a los menores.

En primer lugar, ha mencionado que el grupo de trabajo encargado del apartado de seguridad infantil de Meta se centró en tres áreas. La primera de ellas se encarga de su sistema recomendaciones -en Reels e Instagram Explore, así como funciones de Búsqueda y ‘hashtags’-, tanto de personas como de contenidos de interés.

En este sentido, la compañía ha reconocido que cuenta con protecciones que garantizan que no sugiere «algo que pueda resultar molesto» o que pueda ir en contra de sus reglas. Así, estos sistemas buscan, eliminan o se abstienen de «sugerir proactivamente personas o contenidos inapropiados».

Meta continúa trabajando para ampliar las capacidades de este sistema de seguridad, aumentando la lista ya existente de términos, frases o emojis nocivos para los menores. Asimismo, ha comenzado a utilizar «técnicas novedosas» para encontrar nuevos términos con aprendizaje automático que podrían ser perjudiciales o que infringen su normativa.

La última de las medidas de este apartado guarda relación con la unificación de Facebook e Instagram, que cuentan con una lista central de estos términos para que se apliquen las limitaciones correspondientes de manera simultánea en ambas redes sociales.

La segunda de estas áreas se centra en restringir a los depredadores sexuales potenciales y eliminar sus perfiles en estas redes sociales. En este sentido, la firma ha indicado que ha desarrollado una tecnología que identifica adultos potencialmente sospechosos, que analiza en base a más de 60 parámetros diferentes para determinar si se trata de personas peligrosas.

Entre algunos de estos se encuentra el hecho de que esa persona busque «repetidamente» términos que puedan sugerir un comportamiento sospechoso o si un adolescente la bloquea o la denuncia en algún momento.

Meta ha reconocido que ya utiliza esta tecnología para impedir que adultos potencialmente sospechosos «encuentren, sigan o interactúen con adolescentes» y que ha ampliado sus capacidades para evitar que estos usuarios encuentren -a través de Explore o Reels-, sigan o interactúen entre sí con otros usuarios con las mismas intenciones.

Por otra parte, ha explicado que los grupos de Facebook con un cierto porcentaje de miembros que exhiben comportamientos potencialmente sospechosos no se sugerirán a otras personas en lugares como Grupos y aquellos cuya membresía se superponga con otros que fueron eliminados por violar sus políticas de seguridad infantil tampoco se mostrarán en la búsqueda.

Gracias a estas decisiones y como resultado de este trabajo, desde el 1 de julio de 2023 Meta eliminó más de 190.000 grupos de la Búsqueda, según ha concluido en esta actualización.

En último lugar de este apartado, la compañía liderada por Mark Zuckerberg ha explicado que también ha contado con expertos en la aplicación de la ley y seguridad infantil para encontrar redes de de abuso que utilicen un lenguaje codificado para evadir las restricciones habituales de la red social y eliminarlas.

De este modo, entre 2020 y 2023 los equipos de trabajo de Meta interrumpieron 32 redes de depredadores y eliminaron más de 160.000 cuentas asociadas con estas redes, según los datos de la empresa.

UNA APLICACIÓN FORTALECIDA

Por otro lado, Meta ha comentado que este grupo de trabajo también se ha actualizado para fortalecer sus sistemas de presentación de informes y aplicación de la ley, momento en que ha encontrado «nuevas formas de erradicar u prohibir cuentas de depredadores potenciales».

Como consecuencia de estas nuevas medidas implementadas, la firma tecnológica ha reconocido que solo en agosto de 2023 inhabilitó más de 500.000 cuentas por violar sus políticas de explotación sexual infantil.

En este tiempo, segú ha asegurado, ha logrado mejorar los sistemas que emplea para priorizar los informes para los revisores de contenido, utilizando tecnología diseñada para encontrar imágenes relacionadas con la explotación infantil.

También ha proporcionado nuevas herramientas para ayudar a los revisores de contenido a comprender los comportamientos y palabras utilizadas por los depredadores sexuales en diferentes idiomas.

Asimismo, tras implementar medidas de este tipo, ha logrado multiplicar por cinco las eliminaciones automáticas de directos de Instagram que contenían desnudez de adultos y actividad sexual.

Otros de los datos que cierran este informe son que desde el 1 de julio de este año se eliminaron 16.000 grupos por infringir políticas de seguridad infantil y que desde principios de agosto la compañía bloqueó automáticamente más de 250.000 dispositivos en Instagram por infracciones de nuestras políticas de seguridad infantil.

Por último, Meta ha recordado que recientemente anunció su colaboración con socios de la Tech Coalition para crear Lantern, un programa mundial que permite a las empresas tecnológicas compartir señales e indicios entre sí sobre cuentas que violan sus políticas de seguridad infantil. (Europa Press)

Deja una respuesta

Su dirección de correo electrónico no será publicada.

A %d blogueros les gusta esto: