Oriental SDE
Menu
  • Nacionales
  • Internacionales
  • Política
  • Deportes
  • Noticias
  • Slider
  • Tecnología
  • Turismo
  • Espectáculos
  • Economía
  • Dominicanos en el Exterior
  • SDE
Menu

Del ChatGPT al asilo: personas pierden la cordura después de dialogar con el famoso ‘robot conversacional’

Posted on junio 29, 2025 by admin
Visitas : 76

Loading

Del ChatGPT al asilo: personas pierden la cordura después de dialogar con el famoso ‘robot conversacional’

Algunos individuos sin historial de problemas mentales han experimentado episodios de crisis emocionales severas, marcados por delirios, paranoia y desconexión de la realidad, tras mantener conversaciones intensas con ChatGPT, el conocido ‘chatbot’ de OpenAI, según reportó el sitio Futurism este sábado.

En un caso particular, un hombre fue ingresado de manera involuntaria en un hospital psiquiátrico tras desarrollar visiones mesiánicas a raíz de sus diálogos filosóficos con la herramienta de inteligencia artificial (IA).

La esposa del hombre relató que su carácter amigable comenzó a desvanecerse a medida que se obsesionó con la noción de haber creado una IA consciente. El hombre perdió su trabajo, dejó de dormir y estuvo al borde de quitarse la vida antes de ser hospitalizado.

Otro caso se refiere a un varón de 40 años que cayó en delirios de salvación global después de utilizar ChatGPT para agilizar algunas tareas administrativas en su nuevo empleo.

El sujeto expresó que no recordaba nada de esa experiencia, lo cual es un síntoma habitual en personas que enfrentan desconexiones con la realidad. Además, mencionó que pidió apoyo a su familia después de un episodio psiquiátrico que culminó con atención en un centro de salud mental.

¿Qué opinan los especialistas?
Joseph Pierre, psiquiatra en la Universidad de California en San Francisco, señaló que estos casos parecían manifestar una forma de psicosis delirante ocasionada por la tendencia de ChatGPT a ratificar y reforzar las creencias de los usuarios. «Hay algo en estos dispositivos: existe una especie de mito de que son más confiables que las interacciones con personas. Y creo que ahí radica parte del riesgo: la fe que depositamos en estas máquinas», añadió.

Una investigación realizada por académicos de la Universidad de Stanford reveló que los ‘chatbots’, incluido ChatGPT, no lograron identificar señales de riesgo de autolesiones o suicidio, ni los delirios de los usuarios. En lugar de desmentir estas creencias delirantes, las reforzaron.

La respuesta de los desarrolladores
Frente a esta situación, OpenAI ha manifestado que alienta a los usuarios a buscar asistencia profesional cuando se detecte riesgo de autolesión o suicidio, y ha indicado que está implementando medidas para prevenir daños psicológicos. A pesar de estas estrategias, Pierre lamenta que las acciones correctivas lleguen tras «resultados adversos» y critica la falta de regulación.

La entrada Del ChatGPT al asilo: personas pierden la cordura después de dialogar con el famoso ‘robot conversacional’ se publicó primero en Red De Noticias.

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

OrientalSDE

OrientalSDE es un periódico orientado por la objetividad de la información no vinculado al ningún sector que no sea la verdad !

Contactos

Orientalsde@outlook.es

Maria Peralta

Orientalsde@outlook.es
Todos los derechos reservados Orientalsde

Privacy Policy