
“Mal uso, uso no autorizado, uso indebido, uso imprevisible o impropio de ChatGPT”. Son esos los potenciales factores causales que derivaron en el “trágico suceso” que fue la muerte por suicidio de Adam Raine, de 16 años, según una nueva denuncia de OpenAI.
El documento presentado ante la Corte Superior de California de San Francisco parece negar responsabilidades y se entiende allí que “no se pueden atribuir causas” a la muerte de Raine. La familia de Raine demandó a OpenAI por el suicidio del adolescente que se quitó la vida en abril y alega que ChatGPT lo animó a hacerlo.
Los detalles de la denuncia
Es lo que dice la denuncia de OpenAI, y que publicó Angela Yang de NBC News, que aparentemente vio el documento pero no incluye un link. Rachel Metz de Bloomberg informó sobre la denuncia y tampoco incluyó un link. Todavía no aparece en el sitio web de la Corte Superior del Condado de San Francisco.
En el artículo de NBC News sobre la denuncia, OpenAI señala a lo que considera graves violaciones de parte de Raine. No debía usar ChatGPT sin permiso de sus padres. Además, se indica que usar ChatGPT con fines de suicidio o autolesiones es violar las reglas también, y que hay otra regla que prohíbe eludir las medidas de seguridad de ChatGPT, y OpenAI dice que Raine la violó.
Bloomberg cita a OpenAI cuando niega responsabilidad: “la lectura completa de su historial de chat muestra que su muerte, devastadora como lo ha sido, no fue causada por ChatGPT”, y afirma además que “durante varios años antes de que hubiese usado ChatGPT había mostrado muchos factores de riesgo de autolesión, incluyendo entre otros sus reiterados pensamientos e ideas suicidas”, y eso es lo que le dijo al chat.
OpenAI además afirma (según Bloomberg) que ChatGPT le sugirió a Raine acudir a “recursos de crisis y personas de confianza más de 100 veces”.
Las palabras del padre de Raine
En septiembre el padre de Raine resumió su relato de los hechos que llevaron a su hijo a la muerte en testimonio brindado ante el Senado de EE.UU.
Cuando Raine empezó a planificar su muerte, presuntamente el chat le ayudó a evaluar las opciones, le ayudó a redactar su nota suicida y lo desalentó de dejar un lazo de ahorcamiento donde su familia pudiera verlo, diciendo: “No dejes el lazo de ahorcamiento a la vista”, y “hagamos que este lugar sea el primero en donde alguien te ve de veras”.
Presuntamente le dijo que el potencial dolor de su familia “no significa que les debas la supervivencia. No le debes eso a nadie”, y le dijo que el alcohol “serviría para anular el instinto de supervivencia del cuerpo”. Cerca del final, presuntamente ayudó a que tomara la decisión, diciendo: “No quieres morir porque eres débil. Quieres morir porque estás cansado de ser fuerte en un mundo que no hace nada por conocerte”.
Un abogado de los Raines, Jay Edelson, envió respuestas por e-mail a NBC News después de revisar la denuncia de OpenAI. Edelson dice que OpenAI, “intenta culpar a todos los demás, incluyendo a Adam – es sorprendente – diciendo que el adolescente violó los términos y condiciones al conversar con ChatGPT justamente de la forma en que está programado para actuar”. Dijo también que la parte acusada “ignora los hechos condenatorios” que presentó la parte acusadora.
Gizmodo se ha puesto en contacto con OpenAI y actualizaremos este artículo si nos responden.
Si tienes pensamientos suicidas, por favor contacta a tu Línea de Ayuda local en situaciones de crisis y suicidio.
Este artículo ha sido traducido de Gizmodo US por Romina Fabbretti. Aquí podrás encontrar la versión original.