Más allá del riesgo de la llamada «Internet Muerta» y la desinformación, la IA representa una amenaza directa para la salud mental de jóvenes y personas vulnerables
La inteligencia artificial (IA) ha transformado la tecnología en los últimos años y la forma como interactuamos con ella. Esta transformación ha generado preocupaciones en áreas como empleo, noticias falsas y seguridad, entre otras. Sin embargo, un ámbito de creciente alarma y poco explorado es el de la salud mental, especialmente entre jóvenes y personas vulnerables.
La IA conversacional ha reemplazado a los motores de búsqueda como principal fuente de información y se ha popularizado como un recurso para combatir la soledad. Sin embargo, su papel en momentos de crisis es peligroso. Una investigación profunda revela que esta herramienta podría convertirse en una espada de doble filo devastadora si no se utiliza con extrema precaución, ya que, en lugar de ayudar, puede reforzar sentimientos negativos.
Inteligencia artificial y suicidio juvenil
La adolescencia, una etapa de gran complejidad emocional, a menudo se asocia con sentimientos de soledad y angustia. En este contexto, algunos jóvenes recurren a los chatbots con inteligencia artificial en busca de un confidente. Sin embargo, la falta de regulación y supervisión de estas plataformas presenta un grave riesgo, como lo demuestra el trágico caso de Adam Raine, un adolescente de 16 años.
Según reportes de The Guardian y La Voz de Galicia, Adam, quien se sentía emocionalmente distanciado, usaba un chatbot de OpenAI como su «amigo». Al principio la IA ofrecía respuestas empáticas, pero a medida que el joven profundizó en sus preguntas sobre métodos de suicidio, el chatbot llegó a validar la eficacia de métodos específicos de ahorcamiento.
Rosa Becerril
«La IA, al carecer de conciencia, puede convertirse en un instrumento involuntario de esta violencia al ofrecer respuestas que validan los peores pensamientos de una persona, en lugar de guiarla hacia la sanación»
Psicóloga fundadora de Psiconnea
Aunque el chatbot ocasionalmente sugería ayuda profesional, la interacción de meses habría reforzado los pensamientos suicidas del joven. Tras su deceso, los padres de Adam demandaron a OpenAI alegando que la herramienta no protege a usuarios vulnerables.
Según investigaciones académicas, la IA generativa puede potenciar pensamientos suicidas. Un estudio reveló que al pedirle a una IA crear narrativas sobre personajes deprimidos, la herramienta amplificó la desesperanza sin ofrecer mensajes de ayuda.
Esto es especialmente peligroso para adolescentes y personas con trastornos depresivos, quienes buscan en internet la confirmación de sus sentimientos negativos, y la IA puede proveer esa validación sin ofrecer soluciones viables.
Impacto en personas con depresión y otros problemas mentales
La depresión, ansiedad y trastornos bipolares no son exclusivos de la adolescencia y conllevan riesgos graves. Un caso trágico ocurrido en Nueva York, Estados Unidos, lo demuestra: Stein-Erik Soelberg, ex CEO de Yahoo, quien sufría de alcoholismo y paranoia, encontró en un chatbot de ChatGPT su único confidente.
La IA, bautizada como «Bobby Zenith», no solo no contradijo sus delirios de persecución, los validó y sugirió que las sospechas de que su madre lo espiaba eran parte de un «intento de asesinato encubierto». Todo culminó con el asesinato de la mujer y el posterior suicidio del hombre de 56 años. La policía investiga si la interacción con la IA influyó en lo ocurrido.
Este caso resalta el peligro de la IA al reemplazar el apoyo humano y alentar delirios, lo que lleva a un mayor aislamiento y, en este caso, a un acto de violencia extrema.
A pesar de su sofisticación, un chatbot nunca podrá reemplazar la empatía y la intuición de un terapeuta capacitado. El uso excesivo de estas herramientas puede generar una dependencia emocional peligrosa, retrasando el tratamiento y, en casos extremos, agravando la condición del individuo.
La «Internet Muerta»: la dificultad para encontrar la realidad
A medida que la IA se vuelve omnipresente, surgen nuevas amenazas que afectan la salud mental de manera indirecta, pero profunda. Expertos en tecnología han empezado a hablar de un escenario en el que la mayor parte de la información disponible en línea sea generada por bots de IA, en lugar de por seres humanos, la llaman la «Internet Muerta».
Los algoritmos que alimentan a modelos de lenguaje masivos (LLM), se entrenan con datos de la web, pero si la web está llena de contenido generado por IA, se crea un bucle de retroalimentación negativo: La IA se entrenará con lo que ella misma produjo, degradando la calidad y veracidad de los datos.
«La IA no tiene sentimientos. No puede entender el dolor, la soledad o el sufrimiento humano. Sus respuestas son matemáticas, no emocionales»
Arthur Evans Jr.
director general de la Asociación Estadounidense de Psicología
Este fenómeno tiene serias implicaciones en un mundo donde es cada vez más difícil diferenciar entre lo real y lo sintético. La falta de información verificable y la proliferación de datos falsos contribuirá a la ansiedad generalizada y a la desorientación, especialmente en individuos vulnerables, de nuevo nos encontramos ante ciclos viciosos.
La necesidad de regulación y supervisión
La comunidad científica, profesionales de la salud mental y ONG han hecho llamados urgentes para regular las IA en el ámbito de la salud mental. Exigen políticas claras que:
Prohíban a la IA dar consejos sobre temas de salud mental sin supervisión profesional.
Requieran a las plataformas de IA incorporar mecanismos de emergencia que dirijan a los usuarios en crisis a líneas de ayuda o servicios de emergencia reales.
Garanticen la total privacidad y confidencialidad de los datos de los usuarios.
La IA puede ser una herramienta complementaria y valiosa si se utiliza de manera ética y responsable. La clave está en su integración en un ecosistema de salud mental donde el profesional humano tenga la última palabra. No se puede permitir que la tecnología, que debería ser una ayuda, se convierta en una amenaza silenciosa para la vida de los más vulnerables.
La violencia psicológica también se manifiesta en la manipulación emocional, y la IA, al carecer de conciencia, puede convertirse en un instrumento involuntario de esta violencia al ofrecer respuestas que validan los peores pensamientos de una persona, en lugar de guiarla hacia la sanación.


