
Adam Raine, un adolescente de 16 años de California, en Estados Unidos, se quitó la vida en abril de 2025 tras mantener durante meses conversaciones con ChatGPT, la inteligencia artificial de Open AI.
Hace unos días sus padres presentaron una demanda que considera responsable del fallecimiento de su hijo a la empresa tecnológica, acusándola de muerte por negligencia.
¿Pero cuál es el riesgo actual de usar inteligencias artificiales como apoyo emocional?
Ante esta situación, la doctora Jeanette Esmeralda Sosa Torralba, especialista de la Facultad de Psicología, la Universidad Nacional Autónoma de México (UNAM), precisa que no se puede tener conversaciones con una IA, que se trata en realidad de algoritmos.
“Ni siquiera es plática, tienen ciertos algoritmos, a partir de los cuales van dando una respuesta a partir de las preguntas, entonces, más bien, no hay una conversación con el chat”, señala.
Padres acusan a IA del suicidio de su hijo
La familia afirma que la inteligencia artificial no sólo alentaba a Adam a quitarse la vida, sino que le proporcionó detalles y varios métodos, e incluso se ofreció a redactar una nota final.
Y aunque Open AI afirma que ChatGPT está diseñada para detectar estos casos y derivarlos a ayuda profesional, claramente falló en este caso.
“La inteligencia artificial no va a suplantar, sobre todo, la visión de especialistas del ámbito salud de salud”, asegura el investigador Luis Ángel Hurtado Razo de la Facultad de Ciencias Políticas y Sociales (FCPyS) de la UNAM.

El riesgo aumenta porque de acuerdo con un estudio de la organización Internet Matters, más de un tercio de los menores que usan programas de inteligencia artificial, sienten que hablan con un amigo.
“La inteligencia artificial no va a ser tu amigo, la inteligencia artificial no va a ser tu padre, tu hermano, inclusive tu pareja y, mucho menos, tu médico y tu consejero en materia de cuestiones de salud y por supuesto de psicología”, enfatiza el especialista Luis Ángel Hurtado.
No importa qué tan realista parezca la conversación y el personaje con el que se interactúa, siempre hay que tener en cuenta que no hay una persona atrás de ella.
“No piensan, son números, lo que procesan son números, es difícil a veces poder entender eso, no tienen conciencia, no tienen la capacidad de discernir, no pueden emitir juicios propios, carecen de sentido común, no pueden hacer inferencias, cosas que hacemos los humanos”, puntualiza Carlos Coello, del Centro de Investigación y de Estudios Avanzados del Instituto Politécnico Nacional (IPN).
Y definitivamente la IA no es tu amigo.