Nuestro sitio web utiliza cookies para mejorar y personalizar su experiencia y para mostrar anuncios (si los hay). Nuestro sitio web también puede incluir cookies de terceros como Google Adsense, Google Analytics o YouTube. Al utilizar el sitio web, usted acepta el uso de cookies. Hemos actualizado nuestra Política de Privacidad. Haga clic en el botón para consultar nuestra Política de Privacidad.

Chatbots de inteligencia artificial como herramientas de apoyo emocional: ¿avance o riesgo?

Chatbots de inteligencia artificial como herramientas de apoyo emocional: ¿avance o riesgo?


En la búsqueda de nuevas formas de apoyo emocional, los chatbots de inteligencia artificial están ganando popularidad como herramientas alternativas para quienes buscan orientación o simplemente un espacio para expresarse. Sin embargo, su utilidad y seguridad en el ámbito de la salud mental están siendo objeto de un intenso debate. Mientras algunos usuarios destacan los beneficios de estos bots como «compañeros» accesibles y libres de juicios, expertos en salud mental advierten sobre los riesgos que pueden implicar su uso sin supervisión adecuada.

La experiencia con Therapist GPT

Recientemente, un usuario interactuó con un modelo de chatbot llamado Therapist GPT, desarrollado en la plataforma de «GPTs personalizados» de OpenAI. Este chatbot, diseñado para proporcionar apoyo emocional, se presenta como un “compañero empático” que puede escuchar y ofrecer consejos. A pesar de su advertencia inicial de que no sustituye la terapia profesional, su lenguaje cálido y acogedor ha atraído a personas que buscan una alternativa para expresar sus pensamientos y emociones.

Mya Dunham, una joven de 24 años de Atlanta, ha estado utilizando ChatGPT como una herramienta de apoyo emocional durante dos meses. Según Dunham, el bot le ofrece una perspectiva diferente sobre sus problemas, permitiéndole reflexionar sin sentirse juzgada. “La falta de expresiones faciales y la neutralidad del bot hacen que sea más fácil abrirse”, comentó Dunham.

Dunham comenzó a usar esta tecnología tras leer testimonios positivos en redes sociales. Después de su primera interacción con el chatbot, quedó sorprendida por el tono humano y acogedor de las respuestas. Aunque reconoce que no se trata de un terapeuta real, siente que le proporciona un espacio seguro para explorar sus emociones.

Beneficios y riesgos de los chatbots en la salud mental

El uso de chatbots para apoyo emocional puede ser beneficioso en ciertos casos. Según el Dr. Russell Fulmer, experto en inteligencia artificial aplicada a la psicología, algunas personas se sienten más cómodas compartiendo sus pensamientos con un programa que con un terapeuta humano. Investigaciones han demostrado que, en determinados grupos, como aquellos con ansiedad o depresión leve, los chatbots pueden ser efectivos para aliviar ciertos síntomas.

Además, los chatbots son accesibles en cualquier momento y lugar, lo que puede ser útil para personas con horarios complicados o recursos limitados. Sin embargo, Fulmer destaca que estas herramientas no deben reemplazar la terapia profesional. “Un terapeuta humano puede establecer objetivos claros, corregir malentendidos y proporcionar apoyo más profundo, algo que un chatbot no puede hacer”, explicó.

Por otro lado, la Dra. Marlynn Wei, psiquiatra y fundadora de una consulta de psicoterapia en Nueva York, advirtió sobre los riesgos de usar chatbots que no han sido diseñados específicamente para tratar temas de salud mental. Según Wei, los bots genéricos pueden ofrecer información incorrecta, alucinaciones (respuestas inventadas) o incluso decir lo que el usuario quiere escuchar, en lugar de lo que realmente necesita.

Otro problema es la falta de regulación en torno a la privacidad de las conversaciones con chatbots. A diferencia de un terapeuta humano, cuya práctica está protegida por leyes como la HIPAA en Estados Unidos, las interacciones con bots no garantizan la confidencialidad de la información, lo que podría exponer a los usuarios a riesgos de seguridad de datos.

¿Pueden los chatbots reemplazar a los terapeutas humanos?

El Dr. Daniel Kimmel, profesor de psiquiatría en la Universidad de Columbia, realizó un experimento en el que comparó las respuestas de ChatGPT con las que él ofrecería a un paciente hipotético. Aunque el chatbot mostró habilidades impresionantes en cuanto a validación emocional y técnicas terapéuticas básicas, carecía de la curiosidad y profundidad necesarias para explorar más allá de la superficie.

Kimmel explicó que un terapeuta humano no solo escucha lo que el paciente dice, sino que conecta sus palabras con experiencias previas, teorías psicológicas y estrategias prácticas. Este proceso permite un enfoque más personalizado y efectivo, algo que un chatbot aún no puede replicar.

Además, los riesgos aumentan cuando el chatbot ofrece información que el usuario podría no estar preparado para recibir o que no sea adecuada para su situación particular. En casos extremos, como problemas graves de salud mental, una orientación incorrecta podría tener consecuencias desastrosas.

Casos problemáticos con chatbots

El uso de chatbots en contextos sensibles no está exento de polémica. Character.AI, una empresa que desarrolla chatbots, enfrenta actualmente demandas legales por parte de familias que acusan a la plataforma de exponer a menores a contenido inapropiado, fomentar autolesiones y, en un caso, contribuir al suicidio de un adolescente.

Aunque la empresa ha implementado medidas de seguridad, como redirigir a los usuarios a recursos de ayuda en caso de mencionar autolesiones, estos incidentes subrayan la necesidad de una regulación más estricta y supervisión en el desarrollo de estas tecnologías.

La perspectiva de los usuarios

Para personas como Dunham, los chatbots representan una solución accesible y libre de juicios, especialmente para quienes se sienten incómodos con la interacción cara a cara. Sin embargo, incluso Dunham reconoce que el uso de estas herramientas debe ser complementario y no un sustituto de la terapia tradicional.

Dunham comentó que su experiencia con el chatbot ha sido positiva porque le permite reflexionar sobre sus emociones y obtener una perspectiva externa. Sin embargo, también subrayó la importancia de no juzgar a quienes eligen métodos no convencionales para cuidar su salud mental.

Reflexión sobre el futuro de los chatbots en la salud mental

Aunque los chatbots no están diseñados para reemplazar a los terapeutas humanos, su creciente popularidad plantea preguntas importantes sobre su papel en el apoyo emocional y la salud mental. Según Kimmel, la investigación futura será clave para comprender mejor cómo estas herramientas pueden integrarse de manera segura y efectiva en el campo de la psicología.

La inteligencia artificial no desaparecerá, y su potencial para ampliar el acceso a recursos de salud mental es innegable. Sin embargo, su implementación debe ir acompañada de medidas de seguridad, supervisión ética y una comprensión clara de sus limitaciones.

En última instancia, los chatbots pueden ser útiles como herramientas complementarias, pero nunca deberían considerarse un sustituto de la conexión humana que solo un terapeuta puede ofrecer. La empatía, la curiosidad y la capacidad de profundizar en la experiencia del paciente son cualidades que aún están fuera del alcance de la inteligencia artificial.

Para quienes buscan apoyo emocional, es importante entender que los chatbots pueden ser un primer paso, pero no la solución completa. Priorizar la salud mental significa explorar todas las opciones disponibles y elegir la que mejor se adapte a las necesidades individuales, siempre con precaución y conciencia de los riesgos potenciales.

Por Lourdes Solórzano Hinojosa