


Cada vez más personas recurren a herramientas de inteligencia artificial para desahogarse, buscar consejos o hablar sobre sus emociones. Sin embargo, la psicóloga Mabel Cruz, especialista en crisis y traumas, en advierte que estas plataformas no deben sustituir la ayuda psicológica profesional, debido a los riesgos que puede representar depender emocionalmente de respuestas automatizadas.
Crece el uso de IA para apoyo emocional
Cuando una persona enfrenta ansiedad, insomnio o estrés, muchas veces ya no llama a un familiar o amigo, sino que abre el celular y conversa con una inteligencia artificial. Cruz señala que esta práctica se ha vuelto cada vez más frecuente, especialmente entre jóvenes y adultos que buscan respuestas rápidas o alguien con quien hablar sin sentirse juzgados.
No obstante, advierte que no todas las respuestas ofrecidas por la inteligencia artificial representan una ayuda real, especialmente en situaciones relacionadas con salud mental o crisis emocionales.
Advierten sobre límites y riesgos
La especialista explica que, aunque la inteligencia artificial puede brindar orientación general, no tiene la capacidad de realizar diagnósticos, intervenir en emergencias psicológicas ni comprender completamente el contexto emocional de cada persona.
Entre los principales riesgos mencionan respuestas genéricas, falta de seguimiento profesional y la incapacidad de detectar situaciones graves como depresión o ansiedad severa.
Concluyen que la tecnología puede servir de apoyo, pero el contacto humano continúa siendo fundamental para ofrecer comprensión, contención emocional y atención especializada a quienes enfrentan problemas de salud mental.








