Cómo detectar imágenes generadas con programas de inteligencia artificial: lo que dicen los expertos
Aplicaciones de al chatbot de WhatsApp de ElDetector. Sin embargo, esta tecnología, a pesar de que avanza a pasos agigantados, no es perfecta y todavía se pueden detectar los pequeños errores que revelan que las imágenes fueron creadas por programas de IA.
Envíanos al chat algo que quieres que verifiquemos. Pincha aquí:
En elDetector, nos pusimos en o con expertos que nos dieron cinco pautas para, de momento, poder identificar si una imagen fue creada con una herramienta de IA y que aquí resumimos:
- Buscar la foto en medios de prestigio para verificar que el suceso que se ilustra es cierto.
- Comparar las imágenes que forman parte de una serie.
- Revisar las manos. Los programas de IA tienen problemas para generarlas de forma correcta.
- Observar los detalles de la ropa, el pelo o los lentes y sus acabados. Las herramientas de IA todavía fallan al crear los contornos detallados.
- Analizar la coherencia para ver si el fondo guarda relación con la imagen.
A continuación, detallamos cada una de estas claves.
La difusión de la foto en medios reconocidos
Los eventos con repercusión o referidos a personalidades son recogidos por los medios de comunicación reconocidos, por lo que revisar si han sido difundidos es uno de los consejos que Ricardo Baeza-Yates, director de investigación en el Instituto para la IA Experiencial de la Universidad Northeastern, da a la hora de verificar si una imagen es real o no.
“Algunas formas de detectar si una imagen no es verdadera es primero ver si esa imagen puede existir”, es decir, si algún medio de prestigio la recoge entre su publicaciones, apunta Baeza-Yates en una videollamada con elDetector. La búsqueda inversa de imágenes en Google, Yandex, Bing o TinEye puede ayudarnos a hallarla.
En conversación telefónica, Álvaro Barbero, director de Inteligencia Artificial en el Instituto de Ingeniería del Conocimiento (IIC) en Madrid (España), sugiere, además, buscar fotos del supuesto suceso, pero tomadas por otras personas y con otros ángulos. “Hoy en día todo el mundo tiene un celular”, comenta.
Revisar la consistencia en las imágenes de una serie
Barbero indica que otra forma de identificar posibles imágenes generadas por IA es gracias al “problema” que estas herramientas tienen para “generar una serie de fotos sobre un evento sobre el que te ‘interesa’ informar”, añade.
Explica que en una “serie completa” sobre un supuesto evento pueden detectarse “muchas cosas que no son consistentes”. Estas inconsistencias se pueden observar, por ejemplo, “en que cambia un poco el color de la corbata o el estilo de pelo”.
Este punto lo podemos ver en las imágenes sobre la falsa detención violenta del expresidente Donald Trump que circularon a finales de marzo de 2023.
El problema de las manos
Sí, ¿pero si la imagen que nos ha llegado no es de un evento noticioso? Entonces, hay que acudir a los detalles, indican los expertos. Las herramientas de IA se alimentan de las fotografías que circulan en internet para generar la realidad solicitada. Sus bases de datos procesan millones de estas fotos. Y ese volumen de datos también tiene sus puntos débiles, como las manos.
Baeza-Yates aclara que no es por las manos en sí, sino porque esta parte de nuestro cuerpo “tiene muchos cambios” que se ejemplifican en los nudillos, “que tienen muchas líneas y distintas en cada persona”.
“Si encuentras errores ahí, el programa no generó completamente bien la imagen porque, aunque tiene mucho aprendizaje de muchas fotos, en los nudillos es más fino. Necesitas muchas manos para saber cómo exactamente debería ser una”, explica.
Barbero apunta a problemas en las manos, como que no tengan cinco dedos o, incluso, que no aparezcan en la imagen. Señala que la gente que genera estas imágenes “ya se ha dado cuenta de que el punto de fallo es ese e intentan tapar ese tipo de elementos”.
Cristina Tardáguila ya escribió en elDetector que solo el análisis de las manos será insuficiente para detectar una imagen generada por IA pues las empresas están trabajando para perfeccionar sus programas de inteligencia artificial y evitar estos errores. Cada vez más, la diferenciación entre una imagen real y una creada a partir de IA será más compleja.
Detalles, fondo y coherencia
De la misma forma que con las manos, la IA encuentra dificultades para armonizar los contornos en sus creaciones y es, según Baeza-Yates, “donde más problemas va a tener”.
Buscar, dice, si “en todos los bordes de la imagen los cambios son correctos. Además de en las manos, los bordes del pelo, de las gafas. Es decir, ver dónde hay cambios bruscos en la imagen”, explica.
Barbero, quien además es investigador en el Grupo de Aprendizaje Automático de la Universidad Autónoma de Madrid (UAM), apunta también al contraste en diferentes áreas del cuerpo, como puede ser el cabello, y su fondo pues “puede haber discontinuidades” y parecer “que se mezclan”.
Otra forma de detectar imágenes generadas por IA es mirar detalladamente la ropa y adornos de las personas que aparecen en la composición en busca de incongruencias, añade el experto.
Finalmente, Baeza-Yates da otro consejo: revisar la coherencia del contexto, si “el fondo tiene sentido con la imagen. Muchas veces, si no es un tipo de foto muy común, seguramente va a cometer errores para rellenar el fondo y eso puede verse en las formas y en los colores”, comenta.
El reto del futuro
La pregunta final que se plantea es si en un futuro seremos capaces de diferenciar una imagen real de una creada por una herramienta de IA. Los programas mejoran día a día, como reconoce Barbero, quien a priori no ve por qué no se puede llegar a ese punto.
“Yo sí creo que durante los próximos 6-12 meses estas IA van a seguir mejorando. O sea, sí, veo bastante posible que en un futuro estas imágenes sean muy difíciles de distinguir de fotos reales”, comenta.
En un futuro, señala, hay que “cambiar” la manera en la que validamos si algo es cierto. “Simplemente porque veamos un documento fotográfico no significa que sea real. Ese es el paradigma que creo que hay que cambiar”, defiende.
En la misma dirección apunta Amparo Alonso, catedrática de Ciencias de la Computación e Inteligencia Artificial de la Universidad de La Coruña, en conversación telefónica con elDetector.
“El mundo de mañana necesita de mucha revisión ética de las herramientas y también necesita del espíritu crítico cada vez más formado y que cada vez tiene que tener una cultura más amplia en este tipo de herramientas, sobre qué es lo que pueden o no pueden hacer”, sostiene.
Baeza-Yates, sin embargo, se niega a que todo sea “catastrofista” en torno a la IA, por la notoriedad que ha tenido debido a su uso para desinformar, y recuerda que “hay gente trabajando para que esto sea útil”.
“Estas tecnologías nos van a dar mucho potencial de creatividad a la gente y lo bueno que también creo es que no es una tecnología que está en manos de un par de manos privadas, sino que es una tecnología que se está volviendo muy abierta y que va a permitir que mucha gente tenga capacidad de aprovechar este potencial”, concluye.
Fuentes
Entrevista por videollamada con Ricardo Baeza-Yates, director de investigación en el Instituto para la IA Experiencial de la Universidad Northeastern. 14 de abril de 2023.
Entrevista telefónica con Álvaro Barbero, director de Inteligencia Artificial en el Instituto de Ingeniería del Conocimiento (IIC) en Madrid (España). 21 de abril de 2023.
Entrevista telefónica con Amparo Alonso, catedrática de Ciencias de la Computación e Inteligencia Artificial de la Universidad de La Coruña. 20 de abril de 2023.
elDetector. Buscar manos y dedos raros no bastará para detectar imágenes generadas por inteligencia artificial. 9 de abril de 2023.
elDetector. Esta foto del papa estrechando la mano de un hombre vestido como diablo es falsa. 13 de abril de 2023.
elDetector. Estas fotos del papa Francisco como “icono de la moda” con un abrigo blanco fueron generadas por un programa de inteligencia artificial. 27 de marzo de 2023.
elDetector. Trump NO fue esposado ni quedó detenido tras su audiencia en Nueva York. 6 de abril de 2023.
elDetector. Estas tres imágenes de Trump siendo perseguido por la policía para ser detenido son falsas: fueron generadas por inteligencia artificial. 22 de marzo de 2023.
elDetector. Es falso que esa foto muestra supuesta detención de Trump en su mansión Mar-a-Lago el 18 de marzo. 20 de marzo de 2023.
elDetector. Cómo verificar tú mismo fotos, videos y otros contenidos en estas elecciones de medio término. 8 de noviembre de 2022.
elDetector. Son falsas las imágenes de un “gran tiburón blanco gigante” varado en una playa de Carolina del Norte. 31 de marzo de 2023.
Parlamento Europeo. ¿Qué es la inteligencia artificial y cómo se usa? 8 de septiembre de 2020 y actualizado el 26 de marzo de 2021.
elDetector opera de forma independiente con el financiamiento de instituciones que puedes ver aquí y que no tienen ningún poder de decisión sobre nuestro contenido. Nuestra línea editorial es autónoma.
¿Viste algún error o imprecisión? Escríbenos a [email protected] o a través de nuestro Twitter @eldetectoruni. Tras verificar tu solicitud, haremos la corrección que corresponda en un plazo no mayor de 48 horas.
Lee aquí nuestra aquí traducido al español. Escribe a la IFCN llenando este formulario si consideras que no estamos cumpliendo ese código.
Envíanos al chat algo que quieres que verifiquemos: