Cómo identificar videos generados por IA

Lamento decepcionarte, pero si estás buscando una lista rápida de formas infalibles y fáciles de encontrar para detectar videos generados por IA, no la encontrarás aquí. Atrás quedaron los días de la IA de Will Smith Los espaguetis se comen de una forma inusual.. Ahora contamos con herramientas que pueden crear videos convincentes y fotorrealistas con solo unos pocos clics.

Actualmente, los videos generados por IA siguen siendo una técnica relativamente nueva en comparación con el texto, las imágenes y el audio generados por IA, ya que obtener todos los detalles correctamente es un desafío que requiere una gran cantidad de datos de alta calidad. “Pero no existen barreras fundamentales para obtener datos de alta calidad”, afirmó Siwei Liu, profesor de ciencias informáticas e ingeniería en la Universidad de Buffalo en SUNY.

Esto significa que puede esperar que los videos generados por IA mejoren muy rápidamente y eliminen los artefactos reveladores (imperfecciones o imprecisiones), como rostros cambiantes y objetos que cambian de forma que caracterizan las creaciones actuales de IA. La clave para identificar videos generados por IA (o cualquier método de IA), entonces, es la alfabetización en IA. “Entiéndelo [AI technologies] está creciendo, y es más importante tener esa idea original de ‘lo que veo puede ser generado por IA’, como los gestos individuales”, dijo Liu, director del laboratorio forense de la UB.

Navegar por una web contaminada artificialmente requiere un uso inteligente en línea y buen juicio para saber cuándo algo anda mal. Esta es su mejor protección contra estafas de IA, información falsa o basura de baja calidad. Esta es una habilidad difícil de desarrollar porque todos los aspectos del mundo en línea luchan por llamar su atención. Pero la buena noticia es que puedes afinar los instintos de detección de tu IA.

“Al leer [AI-generated images]Creemos que las personas pueden mejorar su alfabetización en IA”, dijo Negar Kamali, científico de IA de la Escuela de Administración Kellogg de la Universidad Northwestern, coautor de un guía para identificar imágenes generadas por IA. “Incluso si no veo ningún rastro [indicating AI-generation]”Mi cerebro inmediatamente piensa: ‘Oh, algo anda mal'”, agregó Kamali, quien ha estudiado miles de imágenes generadas por IA. “Incluso si no encuentro ese artefacto, no puedo decir con seguridad que sea real, y eso es él. ¿Qué queremos?”.

A qué prestar atención: vídeos fraudulentos y vídeos de texto a imagen

Antes de comenzar a identificar videos generados por IA, debemos distinguir entre diferentes tipos. Los vídeos generados por IA suelen dividirse en dos categorías diferentes: vídeos impostores y vídeos generados con un modelo de propagación de texto a imagen.

Vídeos de fraude

Estos son videos editados por IA que incluyen intercambio de rostros, donde todo el rostro de la persona se reemplaza con el de otra persona (generalmente una celebridad o un político) y dichos falsos, y sincronización de labios, donde la boca de la persona se manipula y reemplaza delicadamente. con audio diferente.

Los videos falsos generalmente son muy creíbles porque la tecnología existe desde hace mucho tiempo y se crean a partir de imágenes existentes en lugar de generar algo desde cero. ¿Recuerdas esos videos totalmente falsos de Tom Cruise que se volvieron virales de manera tan convincente hace unos años? Trabajaron porque el creador Chris Ume se parecía mucho a Tom Cruise, trabajó con un imitador profesional de Tom Cruise y, según los expertos, realizó muchas ediciones minuciosas. entrevista con Ume de The Verge. Hoy en día, existen toneladas de aplicaciones que hacen lo mismo e incluso pueden… aterrador — inserte audio de un fragmento breve que el creador encuentre en línea.

Dicho esto, hay algunas cosas que debes buscar si sospechas de un video de Deepfake AI. En primer lugar, fíjate en el formato del vídeo. Las plataformas de video con IA generalmente se “filman” en formato conversacional, donde solo se puede ver la cabeza y los hombros del hablante con las manos (más sobre esto en un minuto).

Para detectar el reemplazo de caras, busque defectos o artefactos alrededor de los límites de la cara. “Por lo general, se ven artefactos cuando la cabeza se mueve hacia la cámara”, dijo Hani Farid, experto en forense digital y profesor de informática de la Universidad de California en Berkeley. En cuanto a manos y brazos: “Si la mano se mueve o algo bloquea la cara, [the image] saldrá un poco mal”, continuó Farid. Y observe las manos y el cuerpo para detectar movimientos naturales. “Si todo lo que ve es esto”, en nuestra llamada de Zoom, Farid sostiene sus manos con fuerza y ​​a los costados, “y la persona no No te mueves en absoluto, es falso.”

La velocidad de la luz triturable

Si sospecha de sincronización labial, concéntrese en la boca del sujeto, especialmente en los dientes. Con las falsificaciones, “vimos personas con dientes irregulares” o el número de dientes cambiando a lo largo del vídeo, dijo Liu. Otro síntoma extraño a tener en cuenta son los “espasmos de la mitad inferior” de la cara, dijo Liu. “Hay un proceso técnico en el que hay que coincidir con el rostro de esa persona”, dijo. “Cuando hablo, muevo mucho la cara y esa alineación, si hay un poco de desalineación allí, los ojos humanos pueden notarlo”. Esto le da un efecto líquido y gomoso a la mitad inferior del rostro.

Cuando se trata de profundidad artificial, Aruna Sankaranarayanan, científico investigador asistente en el Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT, dice que su mayor preocupación no son las falsificaciones de profundidad de políticos mundialmente famosos como Donald Trump o Joe Biden, sino figuras importantes que quizás no ser tan profundo. “Fingirlos, tergiversar algunos hechos, cuando no sabes cómo se ven o cómo suenan, es realmente difícil de negar”, dijo Sankaranarayanan, quien orientado al trabajo sobre la profundidad política. Una vez más, aquí es cuando entra en juego la alfabetización en IA; Estos vídeos requieren cierta investigación para confirmarlos o desacreditarlos.

Vídeos de texto a imagen.

Luego están los nuevos y atractivos: modelos de distribución de texto a imagen que generan videos a partir de solicitudes de texto o imágenes. OpenAI causó un gran revuelo cuando anunció Sora, su generador de vídeo de IA. Aunque aún no está disponible, los videos de demostración fueron suficientes para impresionar a la gente con los detalles nítidos, el fotorrealismo nítido y el seguimiento fluido como si se tratara de simples instrucciones de texto.

Desde entonces, han aparecido otros programas que pueden convertir tus recuerdos favoritos en GIF y escenas de fantasía que parecen tomadas por un equipo CGI con un presupuesto de Disney. creadores de hollywood Tenemos derecho a sentirnos indignados por la aparición de modelos de conversión de texto a imagen. probablemente entrenado en su trabajo y ahora amenazan con cambiarlo.

Pero la tecnología aún no ha llegado a ese punto, porque incluso esos vídeos de Sora probablemente requirieron una edición cuidadosa y que llevó mucho tiempo. Los vídeos de demostración de Sora consisten en una serie de ediciones rápidas porque la tecnología aún no es lo suficientemente buena para crear vídeos más largos e impecables. Por lo tanto, se puede tener especial cuidado con los clips cortos: “Si el vídeo dura 10 segundos, desconfíe. Es corto por una razón”, dijo Farid. “Básicamente, la conversión de texto a vídeo simplemente no puede hacer un corte de un minuto”, dijo, añadiendo que esto probablemente mejorará en los próximos seis meses.

Farid también afirmó que existen “inconsistencias temporales” como “un edificio ha añadido una planta o un coche ha cambiado de color, cosas que son físicamente imposibles”, afirmó. “Y a menudo no se enfoca dónde sucede eso”. Entonces, vayamos a los detalles de fondo. Es posible que veas objetos que son anormalmente planos o curvos, o que el tamaño de una persona cambia mientras camina por el edificio, dijo Liu.

Kamali dice que hay que buscar “malentendidos socioculturales” o evidencia contextual de que la realidad de la situación es inaceptable. “No ves estas historias de inmediato, pero sientes que falta algo, como la imagen de Biden y Obama vistiendo trajes rosas”, o Pop con una chaqueta acolchada de Balenciaga.

Dejando a un lado las pistas del contexto, es probable que la disponibilidad de artefactos disminuya rápidamente. Y Wall Street está dispuesto a apostar miles de millones de dólares en eso (Es decir, el capitalismo de riesgo no se sabe realmente (para evaluar racionalmente las nuevas empresas tecnológicas basándose en sólidos argumentos de rentabilidad).

Los artefactos pueden cambiar, pero el buen juicio permanece.

Como Farid le dijo a Mashable, “ven a hablar conmigo dentro de seis meses y las cosas serán diferentes”. Por lo tanto, confiar en ciertos indicadores para verificar que un video es generado por IA puede causarle problemas.

El artículo de Liu de 2018 sobre la detección de vídeos generados por IA porque los sujetos no parpadean correctamente fue ampliamente publicitado en la comunidad de IA. Como resultado, la gente empezó a buscar defectos de entrecerrar los ojos, pero con el avance de la tecnología, el entrecerrar los ojos de forma natural se volvió más común. “La gente pensaba que si un ojo bueno es enano, debe ser falso, y eso es un riesgo”, dijo Liu. “Realmente queremos crear conciencia, pero no obsesionarnos con artefactos específicos porque serán reparados”.

Crear conciencia de que algo poder La IA generada “crea toda una secuencia de acciones”, dijo Liu. “¿Comprueba quién comparte esta información? ¿Es esta persona confiable? ¿Hay otra fuente relacionada con la historia y está confirmada por algún otro medio? Creo que estas son las medidas más efectivas para lidiar con los deepfakes”.

Para Farid, identificar vídeos generados por IA y defecadores engañosos comienza con el origen de los datos. tomar el Imágenes generadas por IA que se volvió viral en las redes sociales a raíz del huracán Helen y el huracán Milton. La mayoría de ellos eran obviamente falsos, pero aun así tenían un efecto emocional en las personas. “Incluso cuando estas cosas no son muy buenas, eso no significa que no aparezcan, eso no significa que no afecten la forma en que las personas absorben la información”, dijo.

Tenga cuidado al recibir noticias de las redes sociales. “Si una imagen parece un clic, es un clic”, dijo Farid, antes de añadir que se trata de alfabetización mediática. Piensa en quién hizo el vídeo y por qué se hizo. “No puedes simplemente mirar algo en Twitter y decir: ‘Oh, es cierto, déjame compartirlo'”.

Si no está seguro acerca del contenido generado por IA, consulte otras fuentes para ver si también lo comparten y si es todo igual. Como dice Liu, “el defecto sólo parece real desde un ángulo”. Busque otros rincones del caso en cuestión. Farid recomienda sitios como Snopes y Politifact que desacreditan información falsa y engañosa. A medida que todos continuamos navegando por el panorama de la IA que cambia rápidamente, será importante hacer el trabajo y confiar en su instinto.

Materias
Inteligencia artificial



Fuente