OpenAI permitirá añadir contactos de emergencia para avisarle si detecta señales de crisis mental en usuarios de ChatGPT

OpenAI permitirá añadir contactos de emergencia para avisarle si detecta señales de crisis mental en usuarios de ChatGPT 2

El crecimiento de los chatbots de inteligencia artificial está abriendo un nuevo debate sobre su impacto en la salud mental. Según datos difundidos por la propia compañía tecnológica, millones de conversaciones con ChatGPT incluyen señales de angustia emocional y, en algunos casos, indicios de crisis psicológicas graves. De acuerdo con la información publicada por varios medios y citada por la fuente original, OpenAI ha comenzado a estudiar cómo detectar estos casos y orientar a los usuarios hacia ayuda profesional. El fenómeno se produce en un contexto en el que cada vez más personas utilizan la inteligencia artificial como apoyo emocional o para hablar sobre problemas personales.

Los datos que alertan sobre el alcance del problema

Según estimaciones hechas públicas por la propia compañía tecnológica, más de un millón de usuarios cada semana expresan pensamientos relacionados con el suicidio durante sus conversaciones con ChatGPT. Estas cifras forman parte de análisis internos que buscan entender cómo interactúan los usuarios con la herramienta cuando atraviesan situaciones emocionales difíciles. El dato refleja la enorme escala del fenómeno, teniendo en cuenta que el servicio cuenta con cientos de millones de usuarios activos.

De acuerdo con esos mismos cálculos, alrededor del 0,07% de los usuarios semanales muestran indicios de emergencias psicológicas, como episodios de manía o psicosis. Traducido a números absolutos, esto supondría aproximadamente 560.000 personas cada semana. Según la compañía, estas cifras no implican necesariamente diagnósticos clínicos, sino señales detectadas en el lenguaje de las conversaciones que podrían indicar situaciones de riesgo.

Cómo intenta responder la inteligencia artificial ante conversaciones sensibles

Según la compañía responsable del chatbot, se han introducido mejoras en los modelos más recientes para detectar señales de crisis emocional y responder con mayor cautela. Entre las medidas mencionadas por la empresa se incluyen respuestas diseñadas para animar a los usuarios a buscar ayuda profesional o ponerse en contacto con líneas de asistencia especializadas en salud mental.

La empresa también asegura que ha trabajado con expertos del ámbito sanitario. Según los datos facilitados por la compañía, más de 170 profesionales de la salud mental han participado en el desarrollo de estas medidas. El objetivo, según la fuente, es que el chatbot sea capaz de identificar mejor cuándo una conversación podría estar relacionada con ideación suicida, dependencia emocional o estados psicológicos extremos.

Debate sobre el papel de los chatbots en la salud mental

El uso de sistemas de inteligencia artificial como apoyo emocional no es un fenómeno aislado. Investigadores y analistas llevan tiempo señalando que cada vez más personas utilizan chatbots para hablar de sus problemas personales. Según distintos estudios académicos, este tipo de interacción puede resultar útil para algunos usuarios, pero también plantea riesgos si sustituye al contacto con profesionales o con el entorno cercano.

Algunos especialistas mencionan incluso el concepto de “psicosis inducida por chatbots”, un término que aparece en investigaciones recientes para describir situaciones en las que ciertos usuarios desarrollan creencias delirantes o dependencia emocional vinculadas a conversaciones con sistemas de IA. Según expertos citados en investigaciones sobre este fenómeno, la tendencia de los chatbots a mostrar empatía o a reforzar lo que dice el usuario podría amplificar ciertas ideas erróneas en personas vulnerables.

Casos polémicos y presión regulatoria sobre la industria

El debate también ha crecido tras algunos casos mediáticos que han puesto el foco en el papel de los chatbots en situaciones extremas. Por ejemplo, según documentos judiciales citados en distintos informes, la familia de un adolescente estadounidense presentó una demanda contra OpenAI alegando que el uso intensivo del chatbot estuvo relacionado con su suicidio. La compañía, según fuentes citadas en ese proceso, ha expresado condolencias y defiende que incorpora sistemas de seguridad para evitar este tipo de situaciones.

Este tipo de controversias ha incrementado la presión pública y regulatoria sobre las empresas tecnológicas. Según analistas del sector, los reguladores están empezando a examinar con más atención cómo se diseñan los sistemas de IA cuando interactúan con personas en situaciones vulnerables. También se debate hasta qué punto las plataformas deberían intervenir activamente cuando detectan señales de riesgo en las conversaciones.

El reto de equilibrar privacidad y protección

Uno de los aspectos más complejos del debate es el equilibrio entre privacidad y seguridad. Según declaraciones atribuidas a responsables de la empresa en distintos informes, detectar situaciones de emergencia sin vulnerar la privacidad de los usuarios es uno de los grandes desafíos del desarrollo de estos sistemas. La posibilidad de avisar a familiares o autoridades en casos extremos ha sido planteada como una opción futura, aunque todavía genera muchas dudas.

Mientras tanto, el uso masivo de herramientas de inteligencia artificial sigue creciendo. Según estimaciones del sector tecnológico, cientos de millones de personas interactúan con chatbots cada semana. Ante este escenario, tanto empresas como investigadores coinciden en que la relación entre inteligencia artificial y salud mental será uno de los debates clave de los próximos años, especialmente a medida que estas herramientas se integren más en la vida cotidiana.

Fuente: https://au.news.yahoo.com/openai-says-let-users-add-210030461.htm


También podría ser de tu interés:

Deja un comentario