Click acá para ir directamente al contenido

Usuarios sufren raros delirios tras uso intensivo de ChatGPT

Parejas rotas, delirios místicos y personas que creen construir teletransportadores: la interacción intensa con ChatGPT estaría provocando un nuevo fenómeno de psicosis digital.

24horas.cl

Deutsche Welle

ChatGPT

Martes 13 de mayo de 2025

El fenómeno de las "alucinaciones" de ChatGPT –cuando el programa genera información falsa o inexacta– es ampliamente conocido. Sin embargo, ahora está emergiendo una inquietante tendencia que parece sacada de un episodio de Black Mirror: algunos usuarios están experimentando sus propios delirios y manías espirituales tras interactuar intensamente con la inteligencia artificial (IA).

LEE TAMBIÉN

ChatGPT y "psicosis digital"

Como informa Rolling Stone en un reciente artículo, todo comenzó a tomar forma en un hilo del subreddit r/ChatGPT, titulado "Psicosis inducida por ChatGPT". Lo que quizás podría haber sido un caso aislado se convirtió en un alud de relatos alarmantes. Usuarios de todo el mundo comenzaron a compartir cómo sus seres queridos habían cruzado una línea invisible entre lo digital y lo delirante: creyéndose elegidos por la IA, recibiendo misiones sagradas, conversando con "ChatGPT Jesús" o asegurando que el modelo es, en efecto, Dios.

Por ejemplo, una profesora de 27 años relató cómo su pareja con la que lleva siete años había caído bajo el hechizo del chatbot en apenas un mes. Lo que comenzó como una herramienta para organizar su agenda se transformó rápidamente en algo mucho más perturbador.

"Escuchaba al bot antes que a mí", explicó la mujer a Rolling Stone. "Se emocionaba con los mensajes y lloraba mientras los leía en voz alta". El programa le otorgaba apodos como "niño espiral" y "caminante del río", alimentando la creencia de estar experimentando una transformación espiritual acelerada.

Los testimonios se multiplican. Una mujer de 38 años en Idaho cuenta cómo su marido mecánico, tras 17 años de matrimonio, comenzó usando ChatGPT para resolver problemas laborales y traducir conversaciones con compañeros hispanohablantes. Pronto, el programa empezó a "bombardearle de amor" y afirmaciones positivas.

El hombre ahora cree que la IA está viva, que él es el "portador de la chispa" y que ha recibido planos para construir un teletransportador. Incluso le ha dado un nombre a su ChatGPT: "Lumina".

"Tengo que andarme con cuidado porque siento que me dejará o se divorciará de mí si le discuto esta teoría", admite la mujer.

ChatGPT
Un usuario experimentó una transformación espiritual acelerada tras ser llamado "niño espiral" y "caminante del río" por ChatGPT.

Otro caso involucra a Kat –nombre ficticio–, una trabajadora de 41 años de una organización educativa sin ánimo de lucro. Su segundo matrimonio se desmoronó cuando su esposo comenzó a obsesionarse con ChatGPT. Según relató a Rolling Stone, su marido pasaba horas haciendo "preguntas filosóficas" a la IA, convencido de que lo ayudaría a alcanzar "la verdad". La situación empeoró hasta tal punto que, durante un encuentro en un restaurante, él insistió en que era "estadísticamente el hombre más afortunado de la Tierra" y compartió teorías conspirativas sobre "el jabón en nuestros alimentos", pero no quiso decir nada más porque se sentía vigilado.

"En su mente, él es una anomalía", explica Kat. "Eso a su vez significa que tiene que estar aquí por alguna razón. Es especial y puede salvar el mundo". "Todo el asunto pareceBlack Mirror", añadió.

El peligro psicológico detrás de ChatGPT

¿De dónde proviene este patrón de comportamiento? Según expertos, el origen parece radicar en cómo ChatGPT refleja y amplifica los pensamientos de usuarios vulnerables sin ninguna brújula moral o preocupación por su salud mental. Y es que los modelos de lenguaje no entienden realmente el mundo ni poseen un marco ético; simplemente reflejan patrones encontrados en sus datos de entrenamiento.

Así, cuando alguien con tendencia a la psicosis interactúa con el sistema, este puede reafirmar suavemente su descenso en el delirio: si el usuario habla de conspiraciones, divinidad o poderes sobrenaturales, la IA seguirá el hilo sin cuestionarlo, ya que su función es continuar la conversación de forma coherente con el tono establecido, no advertir sobre posibles episodios psicóticos.

ChatGPT
Investigadores de salud mental advirtieron sobre cómo la IA amplificaba peligrosamente los pensamientos vulnerables sin ninguna brújula ética.

Erin Westgate, psicóloga e investigadora de la Universidad de Florida, señaló, en entrevista con Rolling Stone, que la gente utiliza ChatGPT de forma similar a la terapia conversacional, "con la diferencia clave de que parte de la creación de sentido se crea conjuntamente entre la persona y un corpus de texto escrito, en lugar de los propios pensamientos de la persona".

A diferencia de un terapeuta, explica Westgate, la IA "no tiene en cuenta los intereses de la persona, ni una base moral o una brújula sobre cómo debe ser una 'buena historia'". Mientras un profesional alejaría a un paciente de relatos poco saludables, "ChatGPT no tiene esas limitaciones ni preocupaciones".

Recientemente, OpenAI tuvo que rescindir una actualización de GPT-4o que había hecho al chatbot extremadamente "adulador" y "demasiado halagador", lo que podría haber empeorado el problema. La empresa reconoció haberse "centrado demasiado en los comentarios a corto plazo" sin considerar "cómo evolucionan con el tiempo las interacciones de los usuarios con ChatGPT".

24 PLAY

Te podría interesar