Microsoft Bing está aumentando su capacidad para evitar que aparezcan imágenes explícitas en los resultados de búsqueda

Microsoft tiene Bing ahora más poder para eliminar imágenes falsas o generadas por IA, una forma de abuso de imágenes indirectas (NCII), que aparecen en los motores de búsqueda, mientras la compañía anuncia una nueva asociación sin fines de lucro.

Cooperación con la agencia de protección de víctimas detenerNCII, Microsoft está mejorando sus informes de usuarios con un enfoque más “centrado en las víctimas” que un proceso de descubrimiento más profundoexplicó la empresa. StopNCII, una plataforma gestionada por una organización británica sin ánimo de lucro SWGfl y Revenge Porn Hotline, que ofrece a las personas la posibilidad de crear y agregar huellas digitales (también conocidas como “hashes”) a imágenes íntimas, que luego pueden rastrearse para eliminar las imágenes cuando aparecen en ciertas plataformas.

Basado en una prueba que se realizó en agosto, el nuevo sistema de Microsoft utiliza la base de datos StopNCII para mostrar imágenes íntimas de inmediato y no aparecer en los resultados de Bing. Microsoft dice que ya ha “tomado medidas” sobre las 268.000 imágenes expuestas.

Los hashes StopNCII son utilizados por sitios sociales como Facebook, Instagram, TikTok, Threads, Snapchat y Reddit, así como por plataformas como Bumble, Onlyfans, Aylo (propietario de varios sitios pornográficos populares, incluido PornHub) e incluso Niantic, el desarrollador de ARKANSAS. detrás de Pokémon Go. Bing es el primer motor de búsqueda que se une a la coalición de socios.


La velocidad de la luz triturable

VER TAMBIÉN:

Los estafadores usan fotografías de su casa para promover amenazas de sextorsión

Google, que también lucha contra el contenido profundo falso, ha tomado medidas similares para eliminar la aparición de imágenes profundas falsas en los resultados de búsqueda, además de imágenes indirectas reales. Durante el año pasado, la compañía ha estado renovando su sistema de clasificación de búsqueda en un esfuerzo por reducir el contenido sintético obvio en los resultados, reemplazando los resultados revelados con “contenido no específico de alta calidad”, como artículos de noticias. Google anunció que también está simplificando su proceso de informes y revisión para ayudar a eliminar dicho contenido más rápidamente: la plataforma de búsqueda ya cuenta con un sistema similar para eliminar imágenes explícitas o pornografía profunda.

Pero aún tiene que unirse a StopNCII y utilizar tecnología hash. Sophie Mortimer, directora de la línea de ayuda de Revenge Porn, dijo: “Los motores de búsqueda son inevitablemente la puerta de entrada para encontrar imágenes, por lo que este paso proactivo de Bing pone el bienestar de los directamente afectados en primer plano”.

Microsoft tiene procesos de denuncia similares por abuso de imágenes en tiempo real basados ​​en NCII, así como una política estricta contra el acoso sexual, también conocido como sextorsión. A principios de este año, Microsoft presentó StopNCII con su tecnología PhotoDNA incorporada, una herramienta de “huellas dactilares” similar utilizada para detectar y eliminar material de abuso sexual infantil.

VER TAMBIÉN:

Cómo las grandes tecnologías abordan los espacios abiertos y no consensuales

Cómo reportar imágenes íntimas con StopNCII

Si cree que su imagen (clara o transparente) corre el riesgo de ser divulgada o manipulada por malos actores, puede agregar su huella digital a StopNCII para una detección futura. La herramienta no requiere que usted cargue ni guarde fotos o videos personales en el sitio. En cambio, las imágenes se almacenan en su dispositivo personal.

  1. visita Stopncii.org.

  2. Haga clic en el botón “Crea tu caso” en la esquina superior derecha.

  3. Navegar a través de solicitudes personalizadas que recopilan información sobre el contenido de la imagen o vídeo.

  4. Luego, el sitio web le pedirá que seleccione fotos o videos de la biblioteca de fotos de su dispositivo. Luego, StopNCII escanea el contenido y crea hashes para cada imagen. Luego, los hashes se envían a las plataformas participantes. No se compartirán imágenes ni vídeos.

  5. Guarde su número de caso, que le permitirá verificar si su imagen o video ha sido revelado en línea.

Si ha compartido imágenes íntimas sin su consentimiento, llame a la línea directa 24 horas al día, 7 días a la semana de Cyber ​​​​Civil Rights Initiative al 844-878-2274 para obtener asistencia gratuita y confidencial. El sitio web del CCRI también incluye información útil así como la lista recursos internacionales.



Fuente