La mayoría de personas cree que puede distinguir rostros creados por IA de los reales. Y eso es un peligro

¡Un estudio de la Universidad Nacional Australiana revela que los expertos en rostros tampoco pueden vencer al algoritmo!

La mayoría de personas cree que puede distinguir rostros creados por IA de los reales. Y eso es un peligro
Cada vez será más difícil distinguir una imagen sintética de una real
Publicado en Tecnología

A medida que las redes sociales se inundan de contenido generado por Inteligencia Artificial, ha surgido un fenómeno psicológico preocupante: la autoconfianza desmedida. Creemos que nuestros ojos son capaces de detectar el rastro del algoritmo en los humanos, pero la realidad es que la línea que separa el contenido autentico de lo artificial se ha vuelto prácticamente invisible para el ojo no entrenado.

Un estudio reciente llevado a cabo por la Universidad Nacional Australiana ha puesto a prueba esta supuesta perspicacia humana. Los investigadores reclutaron a 125 participantes, incluyendo a 36 expertos en reconocimiento facial, para enfrentarlos a un test digital donde debían clasificar rostros reales y generados por inteligencia artificial. Los resultados demostraron que incluso aquellos con habilidades especiales apenas lograron superar al resto por un margen estrecho.

Cada vez es más difícil detectar imágenes sintéticas

Los resultados del estudio evidenciaron la existencia el nivel de confianza de los participantes. La mayoría estaba convencida de haber acertado, incluso cuando sus resultados eran mediocres. Esta disonancia entre la capacidad real y la percepción propia es lo que los expertos denominan una "vulnerabilidad crítica". Según explica la Dra. Amy Dawel, psicóloga de la institución:

Mucha gente cree que todavía puede notar la diferencia porque ha jugado con herramientas populares de inteligencia artificial como ChatGPT o DALL·E. Pero esos ejemplos no reflejan lo realistas que se han vuelto los sistemas más avanzados de generación de rostros, y basarse en ellos puede dar a las personas una falsa sensación de confianza".

La trampa de la perfección y el engaño

Actualmente, existen ciertos patrones que delatan a la IA e incluso plataformas como YouTube cuentan con herramientas para detectarlas. Mientras que la app centrada en la generación de imágenes, Sora, también propone límites al respecto.

La tendencia a crear rostros excesivamente simétricos, proporciones idealizadas y rasgos "amables" que resultan inusualmente atractivos. Sin embargo, esta "hiperrealidad" es solo una fase de transición.

A medida que los modelos aprenden a replicar las imperfecciones humanas, asimetrías leves, texturas de piel irregulares o miradas menos estandarizadas, la barrera que permite discernir será cada vez más difusa.

Esta confianza ciega en nuestra capacidad de detección nos deja expuestos a riesgos tangibles. Los deepfakes ya no son experimentos de laboratorio, sino herramientas utilizadas para cometer fraudes y estafas personalizadas, suplantación de identidad con una credibilidad total y desinformación política.

Una nueva era de escepticismo necesario

Si la ciencia demuestra que incluso los expertos fallan, la sociedad está obligada a tener un pensamiento más crítico y menos dependiente de la intuición visual. En el futuro, la diferencia entre un rostro real y uno digital no se podrá dirimir con la vista, sino a través de protocolos de verificación y una educación digital profunda. El primer paso para protegernos es, paradójicamente, aceptar que ya no podemos confiar en lo que vemos.

Puedes seguir a iPadizate en Facebook, WhatsApp, Twitter (X) o consultar nuestro canal de Telegram para estar al día con las últimas noticias de tecnología.

Para ti
Queremos saber tu opinión. ¡Comenta!