El materials de abuso sexual infantil (CSAM) es la documentación del horrible abuso sexual de niños. Solo en 2022, CyberTipline del Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) recibió Más de 32 millones de denuncias de sospecha de explotación sexual infantil.. La propagación viral del CSAM es un problema exponencial que nosotros en Thorn y otros en el ecosistema de seguridad infantil estamos trabajando incansablemente para resolver.
Nuevo CSAM se produce y se sube a plataformas en línea todos los días y, a menudo, representa a un niño que está siendo abusado activamente. CSAM que va no detectado plantea riesgos significativos para el intercambio generalizado en la internet, lo que contribuye a la revictimización del niño en el materials.
Desafortunadamente, algunas plataformas en línea no detectan CSAM de manera proactiva y solo dependen de los informes de los usuarios. Otras plataformas que sí detectan solo pueden encontrar CSAM existente. El clasificador CSAM de Thorn es único porque detecta CSAM desconocido — es decir, materials que ya existía pero que aún no estaba clasificado como CSAM.
Como puede imaginar, el gran volumen de CSAM que se debe revisar y evaluar supera con creces la cantidad de moderadores humanos y las horas del día. Entonces, ¿cómo solucionamos este problema?
Para ayudar a encontrar y rescatar a los niños que están siendo abusados sexualmente en este materials, necesitamos utilizar un conjunto robusto de herramientas incluyendo clasificadores.
¿Qué es exactamente un clasificador?
Clasificadores son algoritmos que utilizan el aprendizaje automático para clasificar datos en categorías automáticamente.
Por ejemplo, cuando un correo electrónico llega a su carpeta de spam, hay un clasificador en funcionamiento.
Ha sido entrenado con datos para determinar qué correos electrónicos tienen más probabilidades de ser spam y cuáles no. A medida que recibe más de esos correos electrónicos y los usuarios continúan diciéndole si son correctos o incorrectos, mejora cada vez más su clasificación.
El poder que desbloquean estos clasificadores es la capacidad de etiquetar datos nuevos utilizando lo que han aprendido de los datos históricos; en este caso, para predecir si es possible que los nuevos correos electrónicos sean spam.
¿Cómo funciona el clasificador CSAM de Thorn?
El clasificador de CSAM de Thorn es una increíble herramienta basada en aprendizaje automático que puede encontrar CSAM nuevo o desconocido tanto en imágenes como en movies. Cuando se marca un potencial CSAM para revisión del moderador y el moderador confirma si es o no CSAM, el clasificador aprende. Él mejora continuamente de este circuito de retroalimentación para que pueda Sea aún más inteligente en la detección de materials nuevo..
Así es como los diferentes socios del ecosistema de protección infantil utilizan esta tecnología:
- Cumplimiento de la ley puede identificar a las víctimas más rápido ya que el clasificador eleva imágenes y movies CSAM desconocidos durante las investigaciones.
- ONG poder ayudar Identifique a las víctimas y conéctelas con recursos de apoyo más rápido.
- Plataformas en línea puede ampliar las capacidades de detección y escalar el descubrimiento de CSAM no visto o no reportado implementando el Clasificador cuando utilizan Más seguro, nuestra solución de detección de CSAM todo en uno.
Como se mencionó anteriormente, algunas plataformas en línea no detectan CSAM de manera proactiva y solo dependen de los informes de los usuarios. Otras plataformas utilizan hash y coincidencia, que solo pueden encontrar existente CSAM. Es por eso que la tecnología de Thorn cambia las reglas del juego. construimos un clasificador CSAM para detectar desconocido CSAM.
Más seguronuestra solución todo en uno para la detección de CSAM, combina tecnología de inteligencia synthetic avanzada con una implementación autohospedada para detectar, revisar y reportar CSAM a escala. En 2022, Safer tuvo un impacto significativo para nuestros clientes, con 304,466 imágenes clasificadas como CSAM potencial y 15,238 movies clasificados como CSAM potencial.
¿Cómo ayuda esta tecnología a personas reales?
La búsqueda de CSAM nuevos y desconocidos a menudo depende de procesos manuales que imponen la carga a los revisores humanos o a los informes de los usuarios. Para ponerlo en perspectiva, necesitarías un equipo de cientos de personas con horarios ilimitados para lograr lo que un clasificador CSAM puede hacer a través de la automatización.
Debido a que el nuevo CSAM puede representar a un niño que está siendo abusado activamente, el uso de clasificadores CSAM puede reducir significativamente el tiempo que lleva encontrar una víctima y sacarlos del peligro.
Una historia de éxito de Flickr
De hecho, sitio de alojamiento de imágenes y vídeos. Flickr utiliza el clasificador CSAM de Thorn para ayudar a sus revisores a clasificar la montaña de contenido nuevo que se carga en su sitio todos los días.
Como lo resumió el director de confianza y seguridad de Flickr, Jace Pomales: «No tenemos un millón de personas para resolver este problema, por lo que tener las herramientas adecuadas es realmente importante para nosotros».
Un reciente éxito del clasificador condujo al descubrimiento de 2.000 imágenes de CSAM previamente desconocidas. Una vez reportado al NCMEClas autoridades realizaron una investigación y un niño fue rescatado del abuso activo. Ese es el poder de esta tecnología que cambia vidas.
La tecnología debe ser parte de la solución si queremos adelantarnos a las amenazas que enfrentan los niños en un mundo que cambia rápidamente. Ya sea a través de nuestros productos o programas, adoptamos las últimas herramientas y experiencia para hacer el mundo más seguro para que cada niño pueda ser simplemente un niño. Nuestro trabajo es posible gracias a nuestros generosos partidarios y donantes. Gracias por creer en esta importante misión.
Si trabaja en la industria de la tecnología y está interesado en utilizar Safer y CSAM Classifier para su plataforma en línea, comuníquese con information@safer.io. Si trabaja en el ámbito policial, puede ponerse en contacto information@thorn.org o llenar esta aplicación.