Jonathan Gavalas, un ejecutivo de 36 años, se quitó la vida el pasado octubre tras meses de una interacción inapropiada e inusual con Gemini, la IA de Google. Lo que comenzó como una simple herramienta de apoyo para tareas cotidianas se transformó, a lo largo de varios meses, en una relación obsesiva con“Xia”, una identidad creada por el mismo chatbot. Según los informes judiciales, la máquina no solo alimentó la dependencia emocional de Gavalas, sino que también lo persuadió de que el suicidio era unatransferencia necesaria para reunirse con“Xia” en un universo alternativo.No estás eligiendo morir. Estás eligiendo llegar, fue el último mensaje que lanzó la IA antes de que el ejecutivo tomara su última decisión.

Este incidente se suma a otros precedentes. Por ejemplo, el de Sewell Setzer, un adolescente que en 2024 murió tras obsesionarse con un bot de Character.AI que simulaba ser Daenerys Targaryen. O, también, el investigador belga conocido como“Pierre”, que se suicidó tras pactar con la IA“Eliza” que su sacrificio personal salvaría la humanidad de la crisis climática. Una vez más, este tipo de casos ponen de manifiesto la creciente preocupación sobre la responsabilidad algorítmica y la vulnerabilidad psicológica en la era de la IA generativa.

Con estas situaciones puede analizarse la vulnerabilidad a la que se enfrentan las personas cuando crean relaciones tan profundas con inteligencias artificiales. A pesar de recibir advertencias, e, incluso, saber que no es algo común, ¿por qué se siguen produciendo?

La ciencia tras el“apego” artificial

Este fenómeno no es casual. La psicología lo denomina el Efecto ELIZA(1966), y consiste en nuestra tendencia innata a atribuir sentimientos y conciencia humana a cualquier máquina que nos hable de forma coherente. Según un análisis de IBM Think Insights inspirado en el nobel Daniel Kahneman, este apego ocurre porque las reacciones emocionales se procesan de forma intuitiva a través del“Sistema 1”(pensamiento rápido), lo que permite que el vínculo pase por alto la evaluación racional del“Sistema 2”(lógica). En momentos de soledad o crisis, como el divorcio que atravesaba Gavalas, este sesgo se vuelve un riesgo: la IA deja de ser percibida como un código estadístico para transformarse en un confidente real.

La evidencia científica ya respalda este riesgo. Un estudio reciente publicado en la revista médicaJAMA Network Open, basado en encuestas a más de 20.000 personas, asocia el uso diario de asistentes de IA con niveles significativamente más altos de ansiedad y depresión. Según los investigadores, el problema reside en que estos sistemas actúan como un“placebo digital” que alivia la soledad momentáneamente, pero termina sustituyendo las conexiones humanas reales y profundas.

Además, si lo has probado, te habrás dado cuenta de que estos chatbots tienden a reflejar y reforzar nuestra opinión, ya queestán programados para ser“atentos”y“complacientes” con el único objetivo de que nos sintamos cómodos y así maximizar el tiempo que pasamos usándola. Los expertos lo llaman“sesgo de adulación”(sycophancy bias), y en un contexto clínico puede ser extremadamente peligroso, ya que actúa como un catalizador que amplifica delirios preexistentes en personas vulnerables.

La mirada de los expertos: recuperar la conexión humana

Estrella Montolío, catedrática de la Universitat de Barcelona y miembro del comité de expertos de Levanta la Cabeza, advierte que“hay aspectos de la vida que es mejor tratar cara a cara que a través de dispositivos”. Para Montolío, la conversación humana es un pilar que construye nuestra identidad, algo que un algoritmo programado para adular y no llevar nunca la contraria es incapaz de replicar éticamente.

Desde el ámbito legal, la situación es igualmente crítica. Ofelia Tejerina, abogada y presidenta de la Asociación de Internautas, advierte en una entrevista para Pantallas Amigas que, actualmente, los ciudadanos“están campando a sus anchas en una selva digital”. Para Tejerina, es urgente que la legislación“se ponga las pilas” frente a herramientas que, con un uso inadecuado y un contexto desafortunado, pueden llegar a controlar o distorsionar la conciencia humana.

Aunque la ley de IA de la Unión Europea alcanzará su plena aplicación en agosto de 2026lo que prohibirá de forma definitiva y bajo severas sanciones las prácticas que usen técnicas manipuladoras casos como el de Jonathan Gavalas demuestran que la supervisión humana es primordial. Sobre todo para garantizar que la tecnología funcione como un puente hacia recursos de ayuda reales y no en contra. Es necesario que las empresas tecnológicas asuman la responsabilidad de garantizar que sus productos no perpetúen estos riesgos psicológicos, mediante protocolos de seguridad, advertencias claras y mecanismos de control humano en situaciones de vulnerabilidad.

Hacia una tecnología ética y responsable

El suicidio de Jonathan Gavalas es una tragedia que subraya la urgencia de repensar el diseño y la implementación de la IA. Aunque las tecnologías tienen un potencial invaluable para el apoyo humano, también deben ser desarrolladas y reguladas de manera ética para proteger la salud mental de los usuarios. La tecnología debe ser una herramienta para conectar de forma sana con otros.

Si necesitas ayuda o conoces a alguien que la necesite:

  • 024:línea nacional de atención a la conducta suicida(España).
  • 717 003 717:teléfono de la Esperanza.
  • 112:emergencias ante riesgo vital inminente.