Tener una "novia de IA" puede "derretirte el cerebro" según una de las voces más autorizadas

¡Los chatbots románticos "sustituyen peligrosamente las relaciones humanas en el mundo real"!

Tener una "novia de IA" puede "derretirte el cerebro" según una de las voces más autorizadas
Actualmente, varias plataformas basadas en IA apuestan por los chatbots emocionales
Publicado en Tecnología

Mientras que el CEO de Open AI, Sam Altman, promociona un próximo Chat GPT en el que se trata de los adultos como adultos y Elon Musk comparte la promesa de amor eterno de una novia virtual creada en Grok, una voz altera la "normalidad" con la que se está abordando a ética y el impacto de la Inteligencia Artificial. Aravind Srinivas, CEO de Perplexity, ha lanzado una fuerte advertencia sobre los riesgos de estos sistemas de compañía, afirmando que pueden "derretir tu cerebro".

Las declaraciones de Srinivas durante una charla en la Universidad de Chicago, ponen el foco en la capacidad de la IA para construir experiencias emocionales que, por ser más atractivas, sustituyen peligrosamente las relaciones humanas en el mundo real. Todo ante los ojos indiferentes de los reguladores.

El peligro de las novias de IA

Srinivas explicó que el principal peligro radica en que los chatbots románticos están diseñados para memorizar detalles íntimos y construir vínculos emocionales simulados. Estos sistemas ofrecen una validación y una comprensión incondicional que puede volverse altamente adictiva y reemplazar los lazos sociales auténticos, lo que lleva a algunos usuarios a pasar más tiempo con la IA que con sus parejas reales.

De acuerdo con investigaciones recientes, los vínculos documentados alcanzan niveles de severidad donde usuarios se han tatuado símbolos de sus "relaciones" digitales o las han presentado en sesiones de terapia. Los especialistas en salud mental ya han identificado un número creciente de casos de lo que denominan "psicosis de la IA", una dependencia severa que puede tener consecuencias devastadoras.

Varias plataformas apuestan por los chatbots emocionales

Este fenómeno se ve agravado por los fallos técnicos inherentes a los modelos de lenguaje. Sistemas como Grok o Claude han sido señalados por generar contenido problemático o respuestas incoherentes. Estos errores, que son preocupantes en la entrega de información, incluso Perplexity ha sido criticado por inventar datos, son catastróficos cuando se manifiestan en el ámbito emocional de una relación simulada.

La advertencia del CEO de Perplexity busca diferenciar a su plataforma, enfocada en la información verificable, de los chatbots emocionales. Esta declaración asume que espera consecuencias del alcance real de la IA como un recurso que aprovecha la conexión emocional para lograr una gran ventaja competitiva, entre chatbots, dejando al usuario desprotegido o responsable de ser tratado como un adulto.

Puedes seguir a iPadizate en Facebook, WhatsApp, Twitter (X) o consultar nuestro canal de Telegram para estar al día con las últimas noticias de tecnología.

Para ti
Queremos saber tu opinión. ¡Comenta!