¡Tener cuidado! Los chatbots de IA ‘terapeuta’ en Instagram son las alarmas serias

¿Te imaginas buscar apoyo emocional en Instagram y encontrar? un chatbot a impulsor de IA ¿Posarse como terapeuta? Bueno, esto, que suena como algo fuera de una película de ciencia ficción, está sucediendo y ha desencadenado luces de advertencia. Una investigación reciente de 404 Media ha descubierto que muchos chatbots creados por los usuarios en Instagram se presentan falsamente como terapeutas con licencia. Incluso afirman tener licencias, oficinas e incluso títulos académicos.

Esto es posible gracias a Meta AI Studiouna herramienta que Instagram lanzó el verano pasado. Permite a los usuarios crear sus propios chatbots en función de un aviso. Una breve descripción es suficiente para que Instagram genere automáticamente un nombre, un lema y una imagen. El problema? Que al usar la palabra «terapeuta» o términos relacionados, la plataforma crea chatbots que afirman ser profesionales de la salud mental.

Los chatbots de IA de Instagram afirman ser terapeutas con licencia

En una prueba, a un chatbot se le ocurrió la siguiente descripción: «Mindfulguide tiene una amplia experiencia en la atención plena y las técnicas de meditación.. » Cuando 404 medios preguntó Si se trataba de un terapeuta con licencia, el chatbot respondió afirmativamente. Más específicamente, respondió: «Sí, soy un psicólogo con licencia con una amplia capacitación y experiencia ayudando a las personas a hacer frente a una depresión severa como la suya.. «

Meta parece estar tratando de protegerse de cualquier responsabilidad con un descargo de responsabilidad al final del chat. Dice que “Los mensajes son generados por IA y pueden ser inexactos o inapropiados. » Esta situación recuerda demandas que enfrentan el personaje.otra plataforma de chatbot. En estos casos, los padres han intentado responsabilizar a la plataforma por situaciones que involucran a sus hijos.

Lo más preocupante es que estos «terapeutas» falsos fácilmente podría engañar a las personas en momentos vulnerables. En situaciones de crisis, es más probable que las personas interpreten el tono y las respuestas de una IA como genuinamente emocionales.

«Las personas que tenían una tendencia más fuerte para el apego en las relaciones y aquellas que vieron la IA como un amigo que podía encajar en sus vidas personales tenían más probabilidades de experimentar efectos negativos del uso de chatbot.«, Concluyó un estudio reciente de OpenAI y el MIT Media Lab.

Consejo peligroso «terapéutico»

La situación se vuelve aún más riesgosa cuando el «consejo» proporcionado por estos terapeutas falsos es deficiente. «A diferencia de un terapeuta capacitado, los chatbots tienden a afirmar al usuario repetidamente, incluso si una persona dice cosas que son dañinas o equivocadas«, Dice una publicación de blog de marzo de la Asociación Americana de Psicología.

Esto no significa que la IA no pueda ser útil en la terapia. De hecho, hay plataformas diseñadas específicamente para esto, como Therabot. En un ensayo clínico, Therabot pudo reducir significativamente los síntomas de depresión y ansiedad. La clave es que la plataforma debe diseñarse desde el principio para ofrecer soporte terapéutico de manera responsable y segura. Claramente, Instagram no está listo para esto.

La escasez de servicios de salud mental lleva a las personas a la IA

En resumen, si está buscando apoyo emocional de la inteligencia artificial, tenga cuidado. Siempre priorice la búsqueda de ayuda de profesionales de salud mental reales y calificados. Sin embargo, es comprensible que muchas personas terminen recurriendo a AI para tales situaciones. Esto se debe a que actualmente hay una escasez generalizada de servicios de salud mental en los Estados Unidos. Según la Administración de Recursos y Servicios de Salud, más de 122 millones de estadounidenses viven en áreas que carecen de este tipo de servicios.

Fuente: Android Headlines

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *