¿Imagen real o generada por IA? Guía con trucos para que tus ojos no te engañen

Tardamos 13 milisegundos en procesar una imagen. Sólo si nos tomamos algo más de tiempo para mirar encontraremos, a veces, motivos para sorprendernos.

Por Allie Yang
Guepardo en Namibia

Esta imagen muestra un guepardo en Namibia. Sabrías decir si se ha producido con IA?

Fotografía de Frans Lanting, Nat Geo Image Collection

Las imágenes falsas generadas con inteligencia artificial se están volviendo cada vez más y más realistas a cada día que pasa. En la actualidad, cualquiera puede acceder a un programa web como Midjourney o Dall-E y crear imágenes artificiales o manipuladas sin mucho esfuerzo.

La buena noticia es que los humanos tienen un instinto natural para olfatearlas, según Siwei Lyu, profesor de informática e ingeniería de la Universidad de Buffalo (Estados Unidos). Lyu pertenece a un grupo de investigadores que combaten la IA con IA: han descubierto que la mejor forma de enseñar a una IA a encontrar imágenes sintéticas es mostrarle cómo lo hacen los humanos.

Llevamos mucho tiempo tratando con imágenes falsificadas. La manipulación de imágenes existe desde hace tanto tiempo como la propia fotografía. Tomemos, por ejemplo, esta foto de 1860 con la cabeza de Abraham Lincoln unida al cuerpo de otro hombre: se necesitó mucho trabajo y habilidad para hacerla convincente.

Lo que ha cambiado es lo fácil que es para alguien sin experiencia crear algo que parezca auténtico, lo que ha dado lugar a un volumen intimidante de imágenes sintéticas. Pero Lyu nos insta a no dejarnos llevar por el pánico. He aquí algunos trucos y consejos para utilizar nuestros instintos naturales y encontrar elementos que no son del todo correctos y saber cómo seguir el ritmo de la velocidad vertiginosa de los avances de la IA.

(Relacionado: Esta IA adivina tu edad con sólo mirarte)

Cazando 'fakes'

El primer paso es frenar. Estamos inundados de medios de comunicación todo el día, y sólo necesitamos 13 milisegundos para procesar cada imagen. Eso puede ser suficiente para registrar lo que es, pero no para saber si es real. Una imagen te sorprende cuando contradice lo que sabes que es verdad, así que no ignores ese instinto.

"La próxima vez que veamos algo interesante o divertido, ojalá nos detengamos un poco y pensemos en ello", dice Lyu. "Si intuimos que algo es sospechoso, no retuiteemos inmediatamente, así detendremos el problema antes de empezar en lugar de ser parte del problema".

Los programas de IA se entrenan para crear imágenes realistas observando un enorme volumen de imágenes reales. Lo que Lyu llama su "talón de Aquiles" es que estos programas sólo saben lo que se les ha dado, y no saben a qué detalles prestar atención. Esto da lugar a "artefactos", o problemas con la imagen que resultan obvios al examinarla más de cerca. Por ejemplo, las personas que aparecen en los vídeos de deepfakes (con caras falsas superpuestas al rostro original) rara vez parpadean, porque la IA suele entrenarse con imágenes de personas con los ojos abiertos.

Izquierda: Arriba:

Se trata de una fotografía real de un guepardo que el fotógrafo Frans Lanting tomó en Namibia, igual que la que encabeza este artículo. ¿Has acertado?

Fotografía de Frans Lanting, Nat Geo Image Collection
Derecha: Abajo:

Esta imagen generada por la IA se produjo con el DALL-E 2 utilizando la indicación "una fotografía de perfil al estilo National Geographic de un guepardo en África". La IA tiende a tener dificultades para crear ojos que parezcan reales, y también tiene problemas con la física de la luz, incluidos los reflejos.

Fotografía de NG Staff

Paulo Ordoveza, desarrollador web y experto en verificación de imágenes que dirige la cuenta de Twitter @picpedant, donde desmiente publicaciones virales falsas, explica: "Los chivatazos suelen aparecer en las costuras". Eso podría incluir algo como una "manga arrugada pasando a ser piel de manera difuminada" sin una clara distinción entre ellas. También dice que hay que fijarse en "comportamientos extraños en mechones de pelo, gafas, tocados, joyas, fondo" por la misma razón.

(Relacionado: Cómo la IA puede hacer frente al cambio climático)

Los ojos y las manos, el espejo del alma

Si hay una persona en una imagen, Lyu recomienda fijarse en sus manos y ojos.

Los programas de inteligencia artificial actuales no son buenos a la hora de crear manos realistas: pueden tener seis dedos, o todos de la misma longitud o en una pose extraña. En marzo, una imagen generada por IA del Papa Francisco con un abrigo Balenciaga se hizo viral. Si te fijas bien en su mano, sujeta el café por la lengüeta de la tapa, una forma extraña de sujetarlo, aunque la taza estuviera vacía.

¿Y por qué los ojos? Los humanos somos muy sensibles a las pequeñas características de la cara. Según David Matsumoto, profesor de psicología de la Universidad Estatal de San Francisco y experto en microexpresiones, hemos evolucionado para ello. Según él, así distinguimos a los amigos de los enemigos y evaluamos el estado emocional de las personas con las que nos cruzamos. Necesitamos hacer estas evaluaciones rápidamente para decidir cómo responderles o, si es necesario, huir.

Los humanos casi siempre tienen pupilas circulares, pero la IA suele producir sombras de formas extrañas en el centro del ojo. La luz que se refleja en los ojos también debe estar en el mismo lugar en cada ojo, algo con lo que la IA actual tiene problemas.

Las luces y las sombras en general son difíciles de reproducir para la IA. Especialmente si hay una ventana o una superficie reflectante en la imagen, puede haber luz o sombra donde no debería haberla. Esto forma parte de un problema mayor que tiene la IA con las leyes de la física, como la gravedad.

Muchas imágenes sintéticas también tienen una suavidad poco natural donde debería haber textura, y cosas que deberían estar rectas pueden estar ligeramente curvadas. En la imagen del Papa generada por la IA, su collar en forma de cruz parece tener los bordes curvados y, además, flota ligeramente sobre su pecho (ignorando la gravedad).

Hany Farid, profesor de la Universidad de California en Berkeley (Estados Unidos) especializado en análisis forense de medios de comunicación, explica que "lo que te diga hoy no va a funcionar dentro de un mes. La realidad es que el espacio se mueve muy, muy rápido. No puedes, de hecho, confiar sólo en tu sistema visual".

En su lugar, el método mucho más pragmático, y con mucha más longevidad, es desconfiar en general de los medios, cuestionar su procedencia y comprobar dos veces su veracidad, afirma.

Una herramienta fácil de usar es la búsqueda inversa de imágenes de Google, donde los usuarios pueden subir una imagen y ver si hay conversaciones en torno a su creación. Esto funcionaría para una imagen que ha circulado ampliamente, como la del Papa, pero puede no ayudar con creaciones más desconocidas o únicas.

En esas situaciones, empresas como Reality Defender ofrecen servicios de detección de IA a las empresas previo pago. Según Daniela Rus, directora del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) del Massachusetts Institute of Technology (MIT), estas empresas están llevando a cabo "sólidas investigaciones" sobre métodos como las marcas de agua avanzadas. "Estas sofisticadas técnicas están demostrando su eficacia", añade.

Farid afirma que los creadores de IA deberían estar obligados a asegurarse de que sus contenidos llevan algún tipo de marca de agua o huella digital que permita identificarlos como generados por ordenador, sobre todo después de compartirlos en Internet. Por ejemplo, esa foto del Papa se compartió originalmente en una comunidad de creadores de IA, sin intención de engañar a nadie, pero rápidamente se difundió por todos los rincones de Internet sin ese importante contexto original.

"Está muy claro lo que va a pasar cuando permites que la gente cree cosas muy sofisticadas de audio, vídeo e imagen. La gente va a hacer cosas malas con ello", afirma. "Que estas empresas digan: 'Bueno, mira, no nos culpes a nosotros. Nosotros solo fabricamos la tecnología', no me creo ese argumento".

Ahora mismo, los recursos gratuitos para identificar los medios generados por IA son escasos y no muy fiables.

Lyu y su equipo han desarrollado un programa web gratuito llamado DeepFake-o-meter, pero por el momento no está a disposición del público.

Parte del problema, según Lyu, es que los inversores acuden en masa a financiar la creación de IA, pero no sus contramedidas. "Nuestra parte del trabajo recibe mucha menos atención. Y básicamente nos estamos quedando sin recursos", afirma Lyu. A diferencia de los programas que están detrás de las falsificaciones profundas, "nosotros no generamos ingresos directamente, intentamos evitar que la gente pierda económicamente o sea engañada psicológicamente."

A medida que la IA siga avanzando, Lyu afirma que vamos a necesitar más programas gratuitos de detección de IA basados en la web y otras herramientas que puedan revelar firmas de IA que no son visibles a simple vista, del mismo modo que una máquina de rayos X revela el funcionamiento interno del cuerpo. Los programas de este tipo que existen requieren cierto grado de experiencia para su uso y no siempre son gratuitos o baratos.

Aun así, sin estos recursos, puedes empezar hoy mismo a tener cuidado con las imágenes generadas por IA, simplemente poniéndote en guardia: piensa dos veces, y sobre todo presta atención, antes de creerte cualquier cosa que veas.

Este artículo se publicó originalmente en inglés en nationalgeographic.com.

loading

Descubre Nat Geo

  • Animales
  • Medio ambiente
  • Historia
  • Ciencia
  • Viajes y aventuras
  • Fotografía
  • Espacio

Sobre nosotros

Suscripción

  • Revista NatGeo
  • Revista NatGeo Kids
  • Disney+

Síguenos

Copyright © 1996-2015 National Geographic Society. Copyright © 2015-2024 National Geographic Partners, LLC. All rights reserved