null: nullpx
elDetector

Buscar manos y dedos raros no bastará para detectar imágenes generadas por inteligencia artificial

Las supuestas fotos de Biden y Harris celebrando la imputación de Trump o las del papa Francisco usando ropa ultramoderna fueron creadas por IA. Para identificar estas falsedades, miramos las manos y contamos los dedos de esas personalidades. En esta edición de la columna “Crónicas de la desinformación” te decimos por qué verificarlas será cada vez más difícil.
Publicado 9 Abr 2023 – 12:30 PM EDT | Actualizado 9 Abr 2023 – 12:30 PM EDT
Comparte
Default image alt
"Las empresas que desarrollan sistemas basados en IA ya saben que la creación de manos a partir de instrucciones dadas en forma de texto tiene problemas". Crédito: Arte: Arlene Fioravanti.

Dos fotos generadas por programas de inteligencia artificial (IA) se viralizaron esta semana en Estados Unidos. Muestran (algo único en la historia del país).

Para los miles de personas que vieron las dos imágenes en la pantalla del celular, no había cómo dudar de que aquellos momentos –políticamente incorrectos– habían sido reales. Las fotos tenían gran calidad. En una, Biden y Harris sonreían y se abrazaban en un ambiente semejante a un salón de la Casa Blanca. En la otra, Biden alzaba los brazos, como si fuera un campeón de boxeo celebrando el título. Las dos imágenes, sin embargo, eran 100% falsas. Habían sido totalmente generadas por IA en unos pocos segundos.

Pero para descubrir esto, un ciudadano común tendría que por lo menos hacer dos cosas: una muy periodística –y, por lo tanto, muy improbable– y otra bastante inusitada.

Sería necesario, primero, que el ciudadano supiera dónde y cómo confirmar las agendas de Biden y Harris el 30 de marzo, día en que se anunció que Trump sería imputado por el caso del supuesto soborno a la actriz Stormy Daniels. Si tuviera éxito, descubriría que no estaban en el mismo país. La vicepresidenta hacía un viaje oficial a Tanzania y había publicado una fotografía aterrizando en la capital, Dar es-Salaam, aquel mismo día.

El segundo paso –igualmente improbable– exigiría que el ciudadano ampliara la foto para, así, ver las manos de los dos políticos en detalle. Si lo hiciera, descubriría, por ejemplo, que Harris aparecía en la imagen con seis dedos en la mano derecha.

La desinformación sobre la supuesta celebración de Biden y Harris por la imputación de Trump es uno de los casos más recientes en la lista de falsas imágenes generadas por IA que circularon en el mundo, engañando a la gente aquí y allá.

En la última semana de marzo, fotos que enseñaban supuestamente al papa Francisco usando ropas y zapatos blancos ultramodernos recorrieron las redes sociales y apps de mensajería, insinuando que el pontífice se preocupaba por un tema mundano como la moda. En aquellas imágenes también había un problema en las manos. El papa tenía solamente cuatro dedos.


Y, a partir de estos casos, uno puede pensar que para detectar imágenes creadas por IA bastaría contar dedos. Pues no. Las empresas que desarrollan sistemas basados en inteligencia artificial ya saben que la creación de manos a partir de instrucciones dadas en forma de texto tiene problemas, ofrece malos resultados. Y, por lo tanto, ya están trabajando para perfeccionar los programas.

En marzo, por ejemplo, la empresa Midjourney lanzó una actualización de su software, subrayando que había corregido las manos producidas por su IA. En las redes sociales, hubo quienes lo celebraron y quienes se asustaron. Hubo también artistas y fotógrafos que decidieron ir a la justicia, basándose en el hecho de que los sistemas de IA se alimentan de sus trabajos para existir –lo que es verdad-.

Entre los verificadores de datos, hay sobre todo la sensación de que lo que se hacía antes para identificar manipulaciones audiovisuales quedó viejo. Será necesario ser más rápidos en la identificación de imágenes que circulan por internet y también tener nuevas herramientas capaces de determinar si estas han sido alteradas o totalmente creadas de cero.

Hay quienes dirán que es hora de que los verificadores de datos usen sistemas basados en IA para encontrar contenidos generados por… IA.

Pero si hay un punto claro es la necesidad de amplificar –yo diría de forma urgente– el movimiento de alfabetización mediática.

Hace falta que nuestra generación y las próximas sean capaces de identificar no solo las fotos manipuladas con el ya superconocido Photoshop, sino también las que vienen a la luz a partir de IA.

Si en la década de 1990 las escuelas ofrecían clases de mecanografía pensando que facilitarían nuestro futuro (y tenían razón), ahora deberían enseñar sobre inteligencia artificial, sin dejar de lado un gran debate sobre su impacto en la desinformación. Porque esto es algo imparable.

Cristina Tardáguila es directora da ICFJ y fundadora de Lupa.

Envíanos al chat de elDetector algo que quieres que verifiquemos:


Loading
Cargando galería
Comparte
RELACIONADOS:Kamala Harris