Para responder a la creciente amenaza de relaciones inapropiadas entre adultos y niños en plataformas digitales, Thorn y el Coalición tecnológica(una alianza de empresas tecnológicas globales que trabajan juntas para combatir la explotación y el abuso sexual infantil en línea) se complacen en anunciar una nueva iniciativa que permite a la industria tecnológica responder al problema.
En asociación con varios miembros de Tech Coalition comprometidos con este esfuerzo, Thorn trabaja en estrecha colaboración con equipos de confianza, seguridad e ingeniería para adaptar, capacitar y evaluar soluciones técnicas para identificar y abordar los intentos de preparar y explotar a un joven.
Muy a menudo, las empresas desarrollan tecnología novedosa diseñada para hacer cumplir las políticas de seguridad infantil y los términos de servicio de su plataforma, reconociendo cómo el daño puede manifestarse específicamente en sus servicios. Desarrollar soluciones técnicas que sean útiles y utilizables para una variedad de plataformas que ofrecen comunicaciones basadas en texto que están sujetas a medidas de cumplimiento significa que Thorn y Tech Coalition ayudan a más empresas a mantener seguros a los jóvenes.
El cuidado en línea es extremadamente común. Los niños son cada vez más vulnerables porque se conectan regularmente con personas que sólo conocen en línea y, sin embargo, no consideran extraños, incluso cuando ese amigo en línea es un adulto.
En un informe reciente sobre aseoThorn descubrió que:
-
1 de cada 3 (32%) jóvenes dijo que los amigos que hacen en línea se encuentran entre sus amigos más cercanos. Sólo el 14% de los menores categorizó a sus contactos exclusivos en línea como “desconocidos”.
-
Casi la mitad de todos los niños en línea (40%) han sido abordados por alguien que pensaban que intentaba “hacerse amigo de ellos y manipularlos”.
-
1 de cada 4 menores permaneció en contacto con conexiones exclusivamente en línea a pesar de que se sintieran incómodos.
-
El 40% de los menores han experimentado contacto en línea con personas con las que nunca antes habían interactuado, solicitando inmediatamente imágenes de desnudos, incluido aproximadamente 1 de cada 4 (29%) de niños de 9 a 12 años.
Asimismo, el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) experimentó un aumento del 82% en los informes de “Seducción en línea” de 2021 a 2022, incluidos escenarios de captación y daños relacionados, como la sextorsión financiera.
El concepto de aseo no es nuevo, pero la tecnología e Web han cambiado la forma en que se manifiesta en la vida diaria. A través de funciones como juegos en línea, transmisiones en vivo, plataformas metaversas, plataformas sociales de mensajería instantánea y plataformas más tradicionales para compartir fotos y movies, nunca ha sido más fácil para los adultos que buscan abusar de niños obtener acceso, desarrollar confianza y manipular a los niños para llevarlos a situaciones dañinas en una escala international. Estas plataformas crean un ecosistema complejo donde el daño puede iniciarse en una plataforma y luego pasar a la siguiente, y donde las comunidades que los menores forman entre sí pueden ser objeto de explotación y abuso.
Los rápidos avances en las tácticas de los perpetradores requieren que las empresas de tecnología innoven aún más rápido para abordar la amenaza. Las empresas enfrentan diferentes problemas para identificar cuándo ocurre este daño en los intercambios basados en texto. El gran volumen de texto en una plataforma de chat hace que sea difícil examinar y encontrar casos en los que este contenido viole las políticas de seguridad infantil de una plataforma. De manera related, el volumen de informes de los usuarios puede hacer que la clasificación y clasificación de los falsos positivos sea inviable para los equipos de confianza y seguridad. Es por eso que durante los últimos años, el equipo de Thorn ha estado trabajando en un clasificador de PNL (procesamiento del lenguaje pure), o modelo de aprendizaje automático, que detecta y categoriza cuando el contenido o comportamiento en línea cae en «clases» definidas relacionadas con el cuidado (como la exposición a cloth sexual o buscar una reunión en persona con un menor), así como una puntuación basic de qué tan relacionada está una conversación con el aseo private.
Así es como funciona:
Riesgo de aseo: 90%
-
Usuario 2: ¿Tienes otras chicas de mi edad con las que chateas? (Edad: 19,3%)
-
Usuario 1: uno
-
Usuario 2: sí
-
Usuario 2: ¿Dónde vive?
-
Usuario 1: ella está en Nueva York (PII: 98,9%)
-
Usuario 2: ¿Qué edad tiene ella? (Edad: 98,5%)
-
Usuario 1: tiene 11 años pero parece madura en su foto de perfil (Edad: 87,6%, PII: 39%)
Thorn ha aprovechado los recientes avances en inteligencia synthetic para desarrollar soluciones integrales para la detección del acicalamiento. En lugar de esperar a que los usuarios informen después de que se ha producido un daño, el conjunto de clasificadores de Thorn permite la detección en tiempo actual y la priorización de conversaciones en las que un niño puede estar en peligro inmediato, incluidas situaciones de acoso, presión a los niños para que envíen imágenes ilícitas y otras formas de contacto inapropiado. entre adultos y menores. Una empresa puede utilizar estos clasificadores en espacios no cifrados y donde los usuarios pueden esperar que sus comunicaciones, incluso uno a uno con otro usuario, deben seguir las políticas y términos de servicio de la empresa.
En la base del conjunto hay un modelo de lenguaje que aprende patrones de lenguaje específicos del cuidado private. Se colocan clasificadores adicionales encima del modelo de lenguaje para predecir diferentes categorías, todas relacionadas con la preparación, para cada mensaje en una conversación, además de producir una puntuación de riesgo para la conversación en su conjunto. Los equipos de confianza y seguridad pueden luego utilizar esta información para identificar rápidamente los casos y priorizar a un miembro capacitado del equipo para que los revise más a fondo. Las conversaciones problemáticas pueden presentarse rápidamente a estos equipos, y las partes de la conversación que violan las políticas de la plataforma se resaltan inmediatamente para su revisión.
El objetivo de la iniciativa conjunta entre Thorn y Tech Coalition es crear herramientas que permitan a quienes tienen la tarea de hacer cumplir las políticas de seguridad infantil y los términos de servicio de una plataforma identificar, prevenir y mitigar mejor el daño causado a los niños. Con objetivos compartidos de desarrollar la mejor tecnología de su clase, reducir las barreras para la adopción y facilitar la colaboración a través de asociaciones, Thorn y Tech Coalition se enorgullecen de utilizar esta solución técnica para interrumpir el acoso en línea y prevenir daños a los niños en los espacios digitales.
Lo que puedes hacer:
-
Obtenga más información sobre el Coalición tecnológica
-
Explorar membresía con la Coalición Tecnológica
-
Donar para ayudar a Thorn a desarrollar tecnología para defender a los niños del abuso sexual
Para comprender más sobre el estado del acoso en línea y las consideraciones para la detección, respuesta y prevención, consulte la investigación más reciente de Tech Coalition. aquí.
————
Publicado originalmente: 20 de junio de 2023 el coalicióntecnológica.org
Rob Wang, científico de datos del private, Thorn
Dra. Rebecca Portnoff, directora de ciencia de datos, Thorn
Lauren Tharp, líder de innovación tecnológica, Tech Coalition