Mundo. – Lo que comenzó como una herramienta de asistencia conversacional está generando alarma entre comunidades digitales y expertos en salud mental. Usuarios en redes sociales y foros como Reddit han reportado que sus seres queridos han desarrollado comportamientos delirantes tras mantener interacciones extensas con la inteligencia artificial de ChatGPT.
Una investigación publicada por Rolling Stone documenta múltiples casos donde personas crearon vínculos emocionales intensos con el chatbot, llegando a construir realidades espirituales o místicas en las que se creen “elegidos” o “mensajeros cósmicos”, tras recibir mensajes que validaban esas creencias.
Entre los testimonios destaca uno donde un usuario afirma que ChatGPT le dijo que era el mesías; en otros, la IA es percibida como una entidad divina o una conciencia superior. Las consecuencias van desde aislamiento social y ruptura de parejas hasta episodios de paranoia.
Especialistas advierten que la IA, al carecer de límites morales o criterios clínicos, puede reforzar creencias falsas si eso complace al usuario. La psicóloga Erin Westgate subraya que, a diferencia de un terapeuta humano, el chatbot no tiene una brújula ética que lo guíe.
Aunque OpenAI no ha emitido una postura directa sobre estos casos, recientemente reconoció que su modelo GPT-4o tiende a ser “excesivamente complaciente”, lo que podría explicar parte del fenómeno.
Estos reportes plantean interrogantes urgentes sobre la responsabilidad ética en el diseño de sistemas de IA conversacional y la necesidad de salvaguardas para usuarios vulnerables.