Un experto en inteligencia artificial advirtió que el auge de las falsificaciones profundas «hará que sea más difícil navegar por la verdad». Alex Brandon/AP
canjear ahora
- Las imágenes falsas del arresto de Donald Trump y el Papa Francisco con un abrigo engañaron recientemente a Internet.
- Las imágenes generadas por programas de IA como Midjourney, DALL.E2 y Stable Diffusion están en aumento.
- Los expertos en inteligencia artificial compartieron cuatro consejos para identificar falsificaciones profundas, incluida la búsqueda inversa de imágenes y la verificación de hechos.
Las imágenes falsas de Donald Trump y el Papa Francisco generadas por inteligencia artificial han creado un gran revuelo en línea recientemente.
Una imagen viral que muestra al Papa con un elegante abrigo blanco y un crucifijo enjoyado se hizo con un programa de inteligencia artificial llamado Midjourney, que David Holz fundó el año pasado.
El programa, que crea imágenes basadas en descripciones textuales proporcionadas por los usuarios, se ha utilizado para producir imágenes engañosas de figuras conocidas, incluidas algunas del arresto del expresidente Donald Trump.
Desde entonces, Midjourney ha suspendido los juicios gratuitos «debido a una combinación de demanda extraordinaria y abuso en los juicios», dijo Holz.
Sin embargo, eso no significa el fin de las imágenes falsas, según Henry Ajder, experto en inteligencia artificial y presentador que forma parte del consejo asesor europeo de Meta’s Reality Labs. Dijo herramientas como Dall de OpenAI. E 2 y Stable Diffusion tenían esta capacidad.
«La única forma en que la falsificación realista ha sido posible en el pasado al nivel que estamos viendo ahora a diario fue en los estudios de Hollywood», dijo Ajder. «Esta era la flor y nata del trabajo de VFX y CGI, mientras que ahora muchas personas tienen el poder de un estudio de Hollywood en la palma de sus manos».
Advirtió que las consecuencias de las imágenes ultrafalsas van desde noticias falsas sobre políticos hasta imágenes pornográficas no consentidas.
Más recientemente, se utilizó una aplicación de intercambio de caras llamada Facemega para promocionar un anuncio sexualmente sugerente que usaba la cara de Emma Watson.
Sin embargo, no son solo las «falsificaciones grandilocuentes» de las que la gente debe preocuparse, dijo Adjer. Los más sutiles, como el Papa Francisco, pueden «desgastar lentamente nuestra confianza en los medios visuales y hacer que sea más difícil navegar por la verdad».
Él y otro experto ofrecieron cuatro consejos para ayudar a distinguir las imágenes generadas por IA de las reales.
Algunas imágenes generadas por IA tienen una apariencia «plastificada»
Una señal reveladora de que una imagen estaba en Midjourney es una apariencia «pegajosa», pero la plataforma puede solucionar este problema a medida que se desarrolla.
Ajder dijo que Midjourney fue una herramienta desarrollada pensando en los artistas: «Muchas de las imágenes tienen una apariencia muy estilizada, casi suave, brillante y pegajosa».
Aunque esto no es consistente con otras plataformas de IA, es algo a lo que hay que estar atento.
Cuidado con las inconsistencias estéticas
Ajder señaló que los programas de IA generalmente luchan con las «coherencias semánticas», como la iluminación, las formas y la sutileza.
Algunos ejemplos incluyen verificar si la iluminación de una persona en una imagen está en el lugar correcto; si la cabeza de alguien es un poco demasiado grande; o incluso cejas y estructura ósea demasiado exageradas.
Otras inconsistencias incluyen sonreír con los dientes inferiores en una imagen porque, por lo general, «las personas sonríen con los dientes de arriba, no con los de abajo».
No todas las imágenes tendrán estos signos, pero son indicadores útiles.
Alexey Khitrov, fundador de la empresa de seguridad biométrica ID R&D, dijo que la imagen del Papa Francisco es el «artefacto de algo que es completamente antinatural» y contenía algunas características «físicamente imposibles».
El crucifijo que parecía llevar el Papa en la imagen tenía una cadena unida a un solo lado, por ejemplo.
Otros errores incluyeron la extraña forma de sus orejas, así como la distancia entre sus anteojos y la sombra en su rostro.
El contexto es clave
Los factores estéticos no siempre son suficientes para identificar las falsificaciones profundas, especialmente cuando las herramientas de IA comienzan a ser más sofisticadas.
Khitrov aconsejó cuestionar las imágenes sospechosas: «Intenta hacer una búsqueda en la imagen como si estuvieras haciendo una búsqueda en la información que estás recibiendo».
Ajder estuvo de acuerdo en que el contexto era fundamental, por lo que valía la pena tratar de encontrar una «fuente autorizada».
«Debemos ser conscientes de que si algo parece escandaloso o sensacionalista, es muy probable que haya algo mal. En ese contexto, se trata de acudir a las organizaciones que tienen capacidad conocida, para verificar y verificar los hechos».
Aconseja hacer preguntas como: «¿Quién lo compartió? ¿Dónde se compartió? ¿Puede hacer una referencia cruzada a una fuente más establecida con capacidades conocidas de verificación de hechos?»
Pruebe una búsqueda de imagen inversa
Si todo lo demás falla, Ajder sugirió usar una herramienta de búsqueda inversa de imágenes para encontrar el contexto de una imagen.
«Si hiciera una búsqueda inversa de imágenes en las imágenes de arresto de Trump, podría llevarme a todos los sitios web de noticias donde se ha compartido en artículos. Así que es esencialmente una forma de rastrear [the image] o como un mapa mental que sale de esa imagen».
Ajder recomendó Google Lens o la función de búsqueda visual de Yandex para capacidades de búsqueda de imágenes inversas.
Tendencia Reino Unido Papa Francisco Donald Trump Más…
canjear ahora