La inteligencia artificial está exacerbando el problema del material de abuso sexual infantil (CSAM), como informan los organismos de control proliferación de contenido deepfake Incluye representaciones de víctimas reales.
Publicado por Gran Bretaña Fundación Internet Watch (IWF), el informe muestra un aumento significativo de imágenes de niños alteradas digitalmente o completamente sintéticas en escenarios explícitos: un foro compartió 3.512 imágenes y vídeos en 30 días. La mayoría de ellas eran niñas. También se ha documentado que los delincuentes comparten consejos e incluso modelos de inteligencia artificial que se alimentan de imágenes reales entre sí.
“Sin una supervisión adecuada, las herramientas impulsadas por IA crean un campo de juego para que los depredadores en línea representen sus peores y más aterradoras imaginaciones”, escribió la directora de la IWF, Susie Hargreaves OBE. “Incluso ahora, la IWF sigue viendo que se distribuye y vende más material de este tipo en línea en sitios web comerciales de acoso sexual”.
X está desarrollando una herramienta para bloquear enlaces en las respuestas para reducir el spam
Según un estudio reciente, habrá un aumento del 17 por ciento en CSAM en línea modificado por IA a partir del otoño de 2023, así como un aumento impactante en el material que muestra actos sexuales extremos y explícitos. El material incluye pornografía para adultos que ha sido alterada para mostrar el rostro de un niño, así como contenido existente de abuso sexual infantil que ha sido editado digitalmente para parecerse a otro niño.
“El informe también destaca hasta qué punto la tecnología está mejorando la velocidad de la capacidad de CSAM para generar vídeos de IA totalmente sintéticos”, escribe la IWF. “Aunque este tipo de videos aún no son lo suficientemente sofisticados como para pasar a videos de abuso sexual infantil en la vida real, los analistas dicen que este será el ‘peor’ video sintético jamás creado. Los avances en inteligencia artificial pronto darán vida a más videos realistas”. las imágenes se han vuelto no fotorrealistas.
Al revisar 12.000 nuevas IA generadas imágenes Según los analistas de la IWF, publicados durante más de un mes en un foro de la web oscura, el 90% eran lo suficientemente reales como para ser considerados reales según las leyes existentes sobre CSAM.
La velocidad de la luz triturable
Otro informe de los observadores británicos publicado en Guardia hoy, afirma que Apple raramente reportado la cantidad de material de abuso sexual infantil compartido a través de sus productos, lo que genera preocupación sobre cómo la empresa maneja el contenido generado por IA. En su investigación, la Sociedad Nacional para la Prevención de la Crueldad contra los Niños (NSPCC) comparó las cifras oficiales publicadas por Apple con las cifras recopiladas a través de solicitudes de libertad de información.
Si bien Apple presentó 267 informes de CSAM al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) en 2023 en todo el mundo, el NSPCC afirma que la compañía estuvo involucrada en 337 delitos de abuso sexual infantil solo en Inglaterra y Gales, y estas cifras son solo para el periodo de abril de 2022 a marzo de 2023.
Apple se negó Testador solicitud de aclaración, que remite la publicación a la decisión anterior de la empresa de no escanear las bibliotecas de fotos de iCloud en busca de CSAM para priorizar la seguridad y privacidad del usuario. Mashable también se comunicó con Apple y actualizará este artículo si responden.
Según la ley estadounidense, las empresas de tecnología en ese país deben informar los casos de CSAM al NCMEC. Google informó más de 1,47 millones de casos al NCMEC en 2023. Facebook, en otro ejemplo, fue eliminado 14,4 millones de contenidos por explotación sexual infantil de enero a marzo de este año. En los últimos cinco años, la empresa también ha informado de una disminución significativa en el número de mensajes sobre desnudez y abuso infantil, pero los observadores ten cuidado.
La explotación infantil en línea es muy difícil de combatir porque los depredadores infantiles a menudo utilizan las plataformas de redes sociales y sus defectos de comportamiento para continuar comunicándose con menores en línea. Ahora, con el poder añadido de generar IA en manos de malos actores, la lucha sólo se intensificará.
Lea más del informe de Mashable sobre los efectos de las imágenes sintéticas indirectas:
Si ha compartido imágenes íntimas sin su consentimiento, llame a la línea directa 24 horas al día, 7 días a la semana de Cyber Civil Rights Initiative al 844-878-2274 para obtener asistencia gratuita y confidencial. El sitio web del CCRI también incluye información útil así como la lista recursos internacionales.