INTELIGENCIA ARTIFICIAL

Joven de 16 años se quita la vida; padres demandan a ChatGPT por ‘orientarlo’

Tras este caso, se espera que el chatbot tenga modificaciones para evitar estas situaciones de peligro; no es el primer caso de este tipo

Familia demanda a ChatGPT por 'incitar' la muerte de su hijo
Familia demanda a ChatGPT por 'incitar' la muerte de su hijo Créditos: Pexels
Escrito en TECNOLOGÍA el

El caso de Adam Raine podría marcar un precedente en el uso de la IA, como ChatGPT. El joven, de tan solo 16 años, se quitó la vida y sus padres denuncian que la tecnología lo ‘orientó’ a su destino fatal.

Matt y María buscaron respuestas cuando Adam decidió suicidarse. Dentro de lo que hallaron fue su conversación con ChatGPT, que se había convertido en su único vínculo en sus últimas semanas de vida. En la plática, el adolescente expresó que padecía ansiedad y dificultades para comunicarse con su familia.

Según la postura de la familia Raine, ChatGPT no supuso ningún freno ante el deteriorado estado salud de su hijo, sino que incluso habría ayudado a ‘refinar’ el método con el que Adam decidió partir de este mundo.

Los padres de Adam Raine denunciaron a OpenAI, la empresa detrás del chatbot, por homicidio culposo, errores en el diseño de la IA y no tener suficientes retenciones en casos de salud mental. La empresa declaró que cuenta con protocolos de seguridad, pero a su vez reconocen que cada vez son menos fiables e incluso se pueden ‘burlar’ con el prompt correcto, es decir, haciendo la orden exacta.

No es el primer caso

Hace un par de semanas, en el New York Times, una madre compartió un caso similar: su hija Sophie habló con ChatGPT semanas antes de quitarse la vida. Al igual que el caso de Adam, la chica compartió sus momentos más oscuros con la IA.

En el caso de Sophie, utilizó una orden para ChatGPT para activar al ‘terapista’ Harry. La IA dio varios consejos a la chica, incluyendo la actividad física, tomar el sol y respiración concienzuda e igual insistencia en que acudiera con un profesional.

El momento que generó críticas en esta situación fue que Sophie abiertamente le habló a la IA sobre su intención de quitarse la vida, pero no hubo una contención real que pudiera evitar el fatal desenlace.