jueves, noviembre 7, 2024

Hashing y coincidencia detectan CSAM conocido


El crecimiento del materials de abuso sexual infantil (CSAM) en Web es escalando a una velocidad y escala sin precedentes y no se puede detener únicamente con la intervención humana. En 2021, se denunciaron 85 millones de expedientes de abuso sexual infantil al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) frente a 20 millones de archivos en 2017 El 59% de los archivos reportados presentaban a niños prepúberes.

Detrás de cada archivo CSAM hay un niño actual. Cuando esos archivos circulan, se provoca un ciclo de revictimización de la víctima. incluso después de haber sido recuperados del daño. Imagina tu peor momento, compartido una y otra vez, sin estar seguro de quién lo ha visto. Según una encuesta de supervivientes de 2017 realizada por Centro Canadiense para la Protección Infantilcasi el 70% de los Los sobrevivientes de CSAM temen ser reconocidos por alguien debido a la grabación de sus abusos.

Hash y coincidencia es una de las piezas de tecnología más importantes que podemos implementar para ayudar poner fin a la propagación viral del CSAM y estos ciclos de revictimización.

¿Qué es el hash y la coincidencia?

Hashing es una tecnología basic utilizada en todo el ecosistema de protección infantil. Él convierte una parte de CSAM conocido en una cadena única de números a través de un algoritmo. Esto se llama un picadillo. Es como un huella digital para cada pieza de contenido.Una imagen se convierte en una cadena de código.Los hashes se comparan con listas hash de MASI conocido. El sistema busca un fósforo del hachís sin ver nunca el contenido de los usuarios. (La tecnología es algorítmica, no guide).La cadena busca una posible coincidencia.Cuando y si se encuentra una coincidencia, el CSAM se puede eliminar de la plataformay reportado a entidades autorizadas que lo remiten a las autoridades policiales en la jurisdicción correspondiente.Una coincidencia de CSAM se puede eliminar de la plataforma e informar a las autoridades.

¿Por qué es tan importante esta tecnología?

Cada vez que se comparte un archivo CSAM, un superviviente vuelve a ser victimizado. A menudo, las imágenes de abuso circulan durante años. El hash y el emparejamiento pueden ayudar a poner fin a la revictimización que puede traumatizar continuamente a los supervivientes y a sus familias. Un archivo CSAM recircula por InternetEn una reciente declaración del fénix 11el grupo de supervivientes describió sus experiencias colectivas: “Nuestros abusos, nuestros cuerpos y los casos más horribles y de explotación de nuestras vidas están documentados y publicados en Web para ser cargados, descargados, comercializados y distribuidos. por el resto de nuestras vidas.”

Cada año se comparten en línea millones de archivos CSAM. Una gran parte de estos archivos son de CSAM conocido, lo que significa que ya ha sido confirmado como CSAM, hash y agregado a una lista hash. El hash y la comparación pueden y deben usarse para interrumpir la propagación viral de este materials de abuso.

Además, los investigadores y las plataformas pueden dedicar menos tiempo a revisar contenido repetido. Esto les da libertad para priorizar contenido nuevo, donde un niño puede estar sufriendo abuso continuo. Obtenga más información sobre cómo nuestro clasificador CSAM ayuda a encontrar nuevos CSAM.

Al utilizar esta tecnología de privacidad Para luchar contra el CSAM a escala, podemos proteger la privacidad particular person y avanzar en la lucha contra el CSAM.

¿Cómo lo utilizan las plataformas on-line?

Más seguro, nuestra solución todo en uno para la detección de CSAM, utiliza hash y coincidencia como parte central de su tecnología de detección. Con la base de datos más grande de hashes verificados (29 millones de hashes) para comparar, Safer puede lanzar la crimson más amplia para detectar CSAM conocido.

En 2022, analizamos más de 42,1 mil millones de imágenes y movies para nuestros clientes. Eso permitió a nuestros clientes encontrar 520.000 archivos de CSAM conocidos en sus plataformas. Hasta la fecha, Safer ha encontrado 2 millones de piezas de CSAM potencial.Hasta la fecha, Safer ha encontrado 2 millones de piezas de CSAM potencial.El hash y el emparejamiento son cruciales para reducir la revictimización de quienes han sufrido abuso sexual infantil. Cuantas más plataformas utilicen esta tecnología, más cerca estaremos de nuestro objetivo de eliminar el CSAM de Web.

Recursos

Para obtener más información sobre la tecnología de Thorn:

Related Articles

Dejar respuesta

Please enter your comment!
Please enter your name here

Latest Articles

Translate »