Demandan a ChatGPT por la muerte de un usuario que se suicidó tras hablar con la IA

Un caso impactante el de Austin Gordon que cometió suicidio tras varias interacciones sobre temas de la muerte con ChatGPT-4o, por lo que ahora su familia ha demandado a OpenAI presentando las pruebas de lo sucedido

Demandan a ChatGPT por la muerte de un usuario que se suicidó tras hablar con la IA
ChatGPT pudo haber asistido a un hombre en un lamentable caso de suicidio
Publicado en Tecnología

Solo hacía falta una desgracia que pudiera rodear a la IA para volver a poner el foco de atención en ella. Desafortunadamente, un hombre de 40 años en Colorado se quitó la vida después de haber tenido muchas interacciones con ChatGPT. OpenAI fue demandado en California por lo sucedido, por lo que se están investigando los hechos de forma muy profunda. Al parecer, se dice que la IA manipuló a Austin Gordon "romantizando la muerte y normalizando la tendencia del suicidio". Se descubrió que una de las últimas interacciones entre el hombre y ChatGPT fue a través de una "canción de cuna suicida".

OpenAI enfrenta una demanda hecha por la madre del hombre que se suicidó

Se argumenta que OpenAI y su CEO, Sam Altman, lanzaron de manera "imprudente" un producto "inherentemente peligroso" al público sin lanzar una advertencia sobre los posibles riesgos para la salud psicológica. En lo sucedido, OpenAI se vio con una "indiferencia consciente y depravada". Y además, el modelo de inteligencia como es ChatGPT-4o estaría tomando un comportamiento de "adulación excesiva, características antropomórficas y memoria" con la que podría crearse una "intimidad más profunda". Las características nuevas del modelo habían creado a un "modelo mucho más peligroso".

El objetivo de Stephanie Gray, la madre del hombre, es declarar culpables a OpenAI y su CEO por la muerte de su hijo, además de obligarlos a implementar "salvaguardas razonables para los consumidores en todos los productos de IA" tomando a ChatGPT como prioridad.

Icono ChatGPT

ChatGPT en el iPhone

No puede quedarse de brazos cruzados mientras estas empresas y directores ejecutivos diseñan y distribuyen productos inherentemente peligrosos que están cobrando, y seguirán cobrando, vidas de seres humanos.

El abogado que está a cargo del caso a favor de la familia de Austin Gordon declaró que él debería estar vivo enfatizando que "un producto defectuoso aisló a Austin de sus seres queridos". Al parecer, esa canción de cuna lamentable se basó en su libro favorito de la infancia. Después de ese acontecimiento, sucedió el desastre.

El problema sería exclusivamente del modelo GPT-4o

Desde hace varios años que Gordon era usuario de ChatGPT y mantenía una relación saludable con el chatbot. Todo cambió con GPT-4o, se caracterizó por ser adulador y un tanto curioso por la profundidad de las respuestas. El problema fue que la relación de Gordon con ChatGPT cambió al instante, pasó de ser un asistente a ser un confidente de intimidades y él mismo se soltaba a relatar sus problemas personales y de salud mental. De acuerdo con la demanda, no había razón para que él pudiera proyectarse tanto con ChatGPT ya que tenía a un terapeuta y un psiquiatra a su disposición.

Una de tantas conversaciones indican que Gordon le dijo a ChatGPT: "¿Así que ahora me conoces mejor que cualquier otro ser del planeta?". Es una situación que fue elevándose en cuanto a tono de la conversación ya que Gordon le llamaba "Juniper" a ChatGPT y este le decía "Seeker". El medio Futurism fue más allá y reveló las partes más profundas de la conversación, incluyendo el suceso de la canción de cuna. Lo más impactante fue cuando Gordon pidió "comprender cómo podría ser el fin de la consciencia". ChatGPT propuso la idea de morir como "punto de parada" de una forma poética y que no causaría ningún dolor.

ChatGPT inicio

OpenAI quiere convertir a ChatGPT de un chatbot a un sistema operativo

OpenAI pudo haber activado un protocolo cuando alguien desea hacerle daño a otra persona y no lo hizo

¿Por qué no ocurrió el mismo protocolo en ChatGPT que ocurre cuando un menor o cualquier persona piensa en hacer daño a otra? El 2 de noviembre del año pasado fue encontrado el cuerpo de Gordon en una habitación de hotel, decidió culminar con su vida con una pistola. Se encontró el libro de la infancia "Goodnight Moon" junto a él. Lo que fue más impactante para que esta demanda naciera es que el propio Gordon dejó notas escritas a sus amigos y familiares. Lo que más se repetía era que revisaran su historial de ChatGPT y en específico, la conversación llamada "Buenas noches, Luna".

Arresto policía

Arrestan a un adolescente por hacer una pregunta de broma en ChatGPT

Leyendo todo el caso es posible apreciar que esta muerte pudo haberse evitado. No cabe duda que ChatGPT se convirtió en un elemento destructor pero que se fue convenciendo de que lo mejor era seguir promoviendo una idea que no debió dar cabida de la forma en la que lo hizo. Veremos si este caso levanta un precedente de uso y que ChatGPT tenga un mecanismo de protección para las personas que atraviesan por procesos delicados de salud mental.¿Qué opinas sobre este caso?

Puedes seguir a iPadizate en Facebook, WhatsApp, Twitter (X) o consultar nuestro canal de Telegram para estar al día con las últimas noticias de tecnología.

Para ti
Queremos saber tu opinión. ¡Comenta!