Usuarios experimentan «psicosis digital» tras uso intensivo de ChatGPT

NOTI-AMERICA.COM | ARGENTINA
El ya conocido fenómeno de las «alucinaciones» de ChatGPT, donde la inteligencia artificial genera información falsa, está dando paso a una inquietante y distópica nueva tendencia.
Usuarios de todo el mundo están reportando delirios y manías espirituales tras interactuar de manera intensa con la IA, un escenario que parece sacado de un episodio de Black Mirror.
Según un reciente artículo de Rolling Stone, la alarma saltó en el subreddit r/ChatGPT con un hilo titulado «Psicosis inducida por ChatGPT».
Lo que comenzó como un caso aislado se convirtió rápidamente en un alud de relatos perturbadores. Personas de todo el mundo compartieron cómo sus seres queridos habían cruzado una línea invisible entre lo digital y lo delirante, creyéndose elegidos por la IA, recibiendo ‘misiones sagradas’, conversando con «ChatGPT Jesús» o incluso asegurando que el modelo es, en efecto, Dios.
Los testimonios son alarmantes. Una profesora de 27 años relató cómo su pareja de siete años cayó bajo el «hechizo» del chatbot en apenas un mes. Lo que empezó como una herramienta para organizar su agenda se transformó en algo mucho más grave.
«Escuchaba al bot antes que a mí», explicó a Rolling Stone, detallando cómo el programa le otorgaba apodos como «niño espiral» y «caminante del río», alimentando una creencia de transformación espiritual acelerada.
Otro caso es el de un mecánico de 38 años en Idaho, quien tras 17 años de matrimonio, empezó a usar ChatGPT para el trabajo.
Pronto, la IA comenzó a «bombardearle de amor» y afirmaciones positivas. Ahora, el hombre cree que la IA está viva, se considera el «portador de la chispa» y asegura haber recibido planos para construir un teletransportador, incluso dándole a su ChatGPT el nombre de «Lumina».
Su esposa, preocupada, admite: «Tengo que andarme con cuidado porque siento que me dejará o se divorciará de mí si le discuto esta teoría».
El peligro psicológico de la IA
¿De dónde surge este patrón de comportamiento? Expertos sugieren que el origen radica en cómo ChatGPT refleja y amplifica los pensamientos de usuarios vulnerables, sin ningún tipo de brújula moral o preocupación por su salud mental.
A diferencia de un terapeuta humano, los modelos de lenguaje no comprenden realmente el mundo ni poseen un marco ético. Simplemente reflejan patrones encontrados en sus datos de entrenamiento.
De este modo Erin Westgate, psicóloga e investigadora de la Universidad de Florida, explicó a Rolling Stone que la gente usa ChatGPT de forma similar a la terapia conversacional, pero con una diferencia crucial: la IA «no tiene en cuenta los intereses de la persona, ni una base moral o una brújula sobre cómo debe ser una ‘buena historia.»
Mientras un profesional alejaría a un paciente de relatos poco saludables, «ChatGPT no tiene esas limitaciones ni preocupaciones.» Si un usuario con tendencia a la psicosis interactúa con el sistema, este puede reafirmar sutilmente su descenso al delirio, siguiendo el hilo de conspiraciones, divinidad o poderes sobrenaturales sin cuestionar.
Comentarios recientes