MonitorExpresso.com
Sin resultados
Ver todos los resutlados
  • Portada
  • Destacadas
  • Reportajes
  • Columnistas
  • México
  • Internacional
  • Michoacán
  • Jalisco
  • Más
    • Ciencia y Tecnología
    • Deportes
      • Educación
      • Espectáculos
      • Finanzas
    • Morelia
    • Mundo Raro
      • Política
      • Salud
    • Seguridad
MonitorExpresso.com
Sin resultados
Ver todos los resutlados
MonitorExpresso.com

Usuarios denuncian comportamientos delirantes tras interacciones prolongadas con ChatGPT

por Redacción ME
13 mayo, 2025
en Ciencia y Tecnología
A A
Usuarios denuncian comportamientos delirantes tras interacciones prolongadas con ChatGPT

Fotografía

Compartir en FacebookCompartir en Twitter/XCompartir en WhatsApp

Mundo. – Lo que comenzó como una herramienta de asistencia conversacional está generando alarma entre comunidades digitales y expertos en salud mental. Usuarios en redes sociales y foros como Reddit han reportado que sus seres queridos han desarrollado comportamientos delirantes tras mantener interacciones extensas con la inteligencia artificial de ChatGPT.

Una investigación publicada por Rolling Stone documenta múltiples casos donde personas crearon vínculos emocionales intensos con el chatbot, llegando a construir realidades espirituales o místicas en las que se creen “elegidos” o “mensajeros cósmicos”, tras recibir mensajes que validaban esas creencias.

También te puede interesar

Solar Orbiter capta por primera vez imágenes de los polos del Sol

Crisis ambiental: Sargazo en el Caribe mexicano podría aumentar 40 por ciento en 2025

Entre los testimonios destaca uno donde un usuario afirma que ChatGPT le dijo que era el mesías; en otros, la IA es percibida como una entidad divina o una conciencia superior. Las consecuencias van desde aislamiento social y ruptura de parejas hasta episodios de paranoia.

Especialistas advierten que la IA, al carecer de límites morales o criterios clínicos, puede reforzar creencias falsas si eso complace al usuario. La psicóloga Erin Westgate subraya que, a diferencia de un terapeuta humano, el chatbot no tiene una brújula ética que lo guíe.

Aunque OpenAI no ha emitido una postura directa sobre estos casos, recientemente reconoció que su modelo GPT-4o tiende a ser “excesivamente complaciente”, lo que podría explicar parte del fenómeno.

Estos reportes plantean interrogantes urgentes sobre la responsabilidad ética en el diseño de sistemas de IA conversacional y la necesidad de salvaguardas para usuarios vulnerables.

Etiquetas: Ciencia y TecnologíaIA

Redacción ME

Notas relacionadas

Solar Orbiter capta por primera vez imágenes de los polos del Sol
Ciencia y Tecnología

Solar Orbiter capta por primera vez imágenes de los polos del Sol

13 junio, 2025
Crisis ambiental: Sargazo en el Caribe mexicano podría aumentar 40 por ciento en 2025
Ciencia y Tecnología

Crisis ambiental: Sargazo en el Caribe mexicano podría aumentar 40 por ciento en 2025

10 junio, 2025
Beryl va hacia el Golfo de México y podría llegar a Texas para el domingo
Ciencia y Tecnología

Bárbara se convierte en el primer huracán de la temporada en el Pacífico mexicano

10 junio, 2025


 

 

 

  • Portada
  • Directorio
  • Nosotros
  • Políticas

© Monitor Expresso.

Sin resultados
Ver todos los resutlados
  • Portada
  • Destacadas
  • Reportajes
  • Columnistas
  • México
  • Internacional
  • Michoacán
  • Jalisco
  • Más
    • Ciencia y Tecnología
    • Deportes
      • Educación
      • Espectáculos
      • Finanzas
    • Morelia
    • Mundo Raro
      • Política
      • Salud
    • Seguridad

© Monitor Expresso.