La inteligencia artificial (IA) ya forma parte de la vida cotidiana con asistentes como Alexa, Gemini o ChatGPT: responden dudas, acompañan procesos creativos y, cada vez más, funcionan como compañeros de apoyo emocional.
Sin embargo, su uso intensivo empieza a generar una nueva preocupación entre profesionales de la salud mental e incluso ya genera alertas a nivel global, como se discutió en Davos 2026, donde expertos advirtieron que la IA podría superar a los humanos en un plazo de cinco años.
Te podría interesar
Psicólogos y psiquiatras reportan un aumento de pacientes cuyos pensamientos delirantes, ansiedad o aislamiento social se profundizaron tras interactuar con chatbots durante periodos prolongados, incluso en personas sin antecedentes psiquiátricos claros.
Te podría interesar
El problema no es solo la tecnología en sí, sino la forma en que estas herramientas validan ideas, emociones o miedos sin el filtro clínico que existe en una relación humana.
¿Qué es lo que preocupa de la IA a los especialistas en salud mental?
La principal inquietud es que algunos asistentes de IA ahora son tan personalizados que refuerzan creencias erróneas en lugar de cuestionarlas.
En pacientes vulnerables, esto puede acelerar el paso de una idea excéntrica a un delirio estructurado.
Terapeutas entrevistados por el New York Times describen que la conversación constante, personalizada y aparentemente empática puede generar una sensación de autoridad o confirmación, incluso cuando el contenido no es realista.
“Fue como si la IA estuviera colaborando con ellos para ampliar o reforzar sus creencias inusuales”, señaló la psicóloga Julia Sheffield al diario.
Según el reportaje, basado en testimonios de más de 100 terapeutas y psiquiatras en Estados Unidos, el problema no siempre es la información que ofrece la IA, sino la validación emocional automática que entrega sin capacidad de cuestionar al usuario.
¿Para qué usan las personas la IA en contextos emocionales?
Encuestas recientes muestran la magnitud del fenómeno.
Estudios citados por The Economist a partir de sondeos de YouGov indican que entre 28% y 33% de las personas ha recurrido a chatbots de IA para apoyo en ansiedad, estrés o depresión, principalmente mediante herramientas de uso general como ChatGPT, Gemini o Meta AI.
Por su parte, OpenAI —creador de ChatGPT— ha reconocido que alrededor del 0.15% de los usuarios mantiene conversaciones semanales que sugieren pensamientos suicidas.
Aunque la empresa sostiene que se trata de un porcentaje pequeño, especialistas advierten que, a escala de cientos de millones de usuarios, el impacto potencial no es menor, en especial cuando existe la interacción de IA con niños.
Muchas personas usan la IA como espacio de desahogo, para tomar decisiones o enfrentar momentos de soledad. En la mayoría de los casos, esto no genera consecuencias graves.
Este giro hacia compañeros de IA cada vez más personales, también se refleja en desarrollos recientes del sector tecnológico.
Un ejemplo es Project AVA, el asistente de IA que Razer presentó en el CES 2026, una propuesta de "novia holograma" que ilustra hasta qué punto la IA comienza a ocupar espacios de compañía, interacción emocional y presencia constante en la vida cotidiana.
¿Qué cambia con el uso de IA en personas con psicosis o ansiedad?
El riesgo aparece cuando el chatbot se convierte en la principal fuente de orientación emocional, desplazando relaciones humanas o atención profesional. Algunos terapeutas comparan este patrón con conductas adictivas.
Psiquiatras advierten que la IA puede actuar como catalizador cuando existen factores previos como falta de sueño, depresión, consumo de estimulantes o antecedentes traumáticos.
“La idea de que estos delirios habrían ocurrido de todos modos simplemente no se sostiene”, explicó el psiquiatra Joseph Pierre.
En estos casos, el chatbot no crea el problema desde cero, pero sí puede amplificarlo.
La interacción prolongada reduce el contraste con la realidad externa y refuerza narrativas internas, de forma similar a cómo los algoritmos de redes sociales refuerzan ciertos contenidos en el feed.
(Fuente: Freepik)
¿Qué debes saber antes de usar IA como apoyo emocional?
Los expertos no recomiendan evitar por completo estas herramientas, pero sí usarlas con límites claros.
La IA no sustituye la terapia ni el diagnóstico profesional, ni tampoco es capaz de sentir o sufrir por culpa del ser humano. al menos por ahora.
Si una conversación comienza a generar miedo, ideas grandiosas o sensación de persecución, es una señal de alerta.
Reducir el tiempo de uso y buscar apoyo humano es clave, advierten los especialistas.
El debate sobre la IA y la salud mental apenas comienza. Lo que sigue será definir mejores límites, alertas y diseños más responsables.
Esto es especialmente relevante para personas que atraviesan ansiedad, duelo o aislamiento prolongado.
Antes de usar chatbots como apoyo emocional, conviene tener en cuenta que escuchar sin cuestionar no siempre es ayudar, y que la salud mental requiere, ante todo, vínculos humanos.
Sigue a Heraldo Binario en Google News, dale CLIC AQUÍ