|03/04/23 09:10 AM

Habló con ChatGPT durante seis semanas y terminó quitándose la vida

Se trata de un hombre de 30 años, que estaba casado y tenía dos hijos. Se mostró preocupado por teorías que le acercaba el bot, y tomó la drástica decisión

Por Redacción

03 de abril, 2023 - 09:29

Un joven padre de familia de 30 años, oriundo de Bélgica, decidió quitarse la vida luego de dialogar durante seis semanas con un chat de inteligencia artificial. El hombre, docente universitario, se había mostrado preocupado por temas relacionados con el cambio climático, tras los conceptos que el bot compartía con él.

 

El hombre tenía dos hijos y era investigador del área de salud. Preocupado por el medio ambiente, encontró refugio en "Eliza", el nombre que se le dio al chatbot que utiliza la tecnología ChatGPT. El suicidio del usuario causó consternación en la comunidad belga, desde donde el responsable federal de Digitalización llamó a aclarar las responsabilidades en estos casos.

Para no revelar su identidad, el profesional fue apodado "Pierre" en los medios de comunicación. "Estaba obsesionado por los temas ambientales", explicó su esposa al diario La Libre Belgique. "Eso le ocupaba muchas horas de su día. Buscaba información y encontró 'refugio' en ese chatbot. Fue allí cuando comenzó a alejarse de su familia y a separarse del mundo", relataba.

 

 

La mujer agregó que "Pierre" tenía conversaciones frenéticas con el programa informático, que le creaba la ilusión de tener una respuesta a todas sus inquietudes. "El chat nunca contradecía a Pierre. Un día le propuso 'sacrificarse' si Eliza aceptaba cuidar el planeta y salvar a la humanidad a través de la inteligencia artificial. Sin esas conversaciones, mi marido todavía estaría aquí", comentaba la mujer entre lágrimas.

 

¿De quién es la culpa?

Mathieu Michel, secretario del Estado Belga de Digitalización, explicó que "en el futuro inmediato es fundamental identificar claramente la naturaleza de las responsabilidades que pueden haber llevado a este tipo de hechos. Si bien es cierto que hay que aprender a vivir con algoritmos, el uso de la tecnología no puede permitir que los editores de contenido eludan su responsabilidad".

 

El chatbot Eliza, con el que dialogaba Pierre, funciona con GPT-J, un modelo de lenguaje creado por Joseph Weizenbaum, competidor directo del OpenAI, con el que no tiene relación. El creador de la plataforma explicó que "en adelante se va a emitir un aviso dirigido a las personas que tengan pensamientos suicidas".