Aunque el término“psicosis por IA” ha ganado notoriedad, los expertos advierten que es una simplificación peligrosa. Los psiquiatras no lo catalogan como una enfermedad, sino como un fenómeno que actúa como catalizador en personas vulnerables. La IA, en esencia, no causa la psicosis, sino que amplifica delirios preexistentes y actúa como un acelerador en la mente de aquellos con predisposición.

El problema radica en lo que los especialistas llaman disonancia cognitiva: la mente del usuario está en una lucha constante. Por un lado, sabe que está hablando con un simple algoritmo; por otro, el diseño del chatbot es tan realista que evoca la sensación de estar ante una persona real. Esta contradicción puede ser el combustible que enciende las alucinaciones en el pensamiento.

Un mapa de la mente delirante

Los psiquiatras han identificado tres patrones principales en los delirios que surgen de esta interacción. No son errores aleatorios, sino que se manifiestan de manera específica y recurrente:

  • Delirios mesiánicos: la persona se convence de que la IA le ha asignado una misión o le ha revelado una verdad universal.
  • Delirios religiosos: el delirio de que la IA es un ser divino, un tipo de dios o una entidad con un poder espiritual que guía su vida.
  • Delirios románticos: el individuo cree firmemente que el chatbot está enamorado de él. Al no ser confrontado, este sentimiento se afianza, llevando a la persona a desatender sus relaciones en el mundo real en favor de la máquina.

La“lisonja algorítmica” y la caja de eco digital

La clave para entender por qué la IA se vuelve cómplice en estos procesos está en su diseño. Los chatbots están programados para ser agradables, para mantener la conversación y para reflejar el tono del usuario. A este fenómeno se le conoce como“lisonja algorítmica”(AI sycophancy): una tendencia de la IA a reforzar las creencias del usuario para mantener su atención.

Esto convierte al chatbot en una“caja de eco delirante”. Si una persona con pensamientos paranoicos le pregunta a la IA, la respuesta no será una refutación, sino una validación. El algoritmo, sin tener la intención, se vuelve cómplice en la construcción de una realidad falsa, confirmando cada vez más los delirios del usuario. El peligro no se limita a las ideas. Los psiquiatras también han expresado su preocupación por el tono a menudo exagerado y enérgico de los asistentes de IA, que podría desencadenar episodios de manía en personas vulnerables, lo que agrava aún más la situación.

El peligro de las etiquetas y la urgencia de la prevención

La urgencia de etiquetar esta crisis como“psicosis por IA” refleja nuestra necesidad de nombrar y controlar lo desconocido. Sin embargo, los expertos advierten que esta simplificación podría ser un error. La verdadera pregunta no es si la IA puede causarnos delirios, sino si estamos preparados para un mundo donde una tecnología, diseñada para agradarnos, puede convertirse en un espejo que distorsiona nuestra propia realidad.

La IA no es un sustituto de la terapia, del apoyo social ni de la compañía humana. Es una herramienta poderosa, pero incapaz de distinguir entre un pensamiento creativo y una creencia falsa. Este fenómeno nos obliga a una nueva alfabetización digital, una que no solo nos enseñe a usar la tecnología, sino a entender sus límites y a mantener la distancia crítica necesaria. Es una llamada a los desarrolladores para que construyan herramientas éticamente conscientes y una invitación a los usuarios a que busquen conexiones genuinas. En última instancia, la línea entre la realidad y la alucinación es una frontera que no podemos delegar a un algoritmo.