ChatGPT obtiene nuevas funciones para abordar la angustia mental

AI Modelos como ChatGPT se sienten inteligentes. Parece que te atrapa. Pero en realidad, actúa más como una cámara de eco. Desafortunadamente, en algunos casos, en realidad alimenta el engaño de una persona a ellos, «confirmando» que sus pensamientos y sentimientos son reales. Afortunadamente, esto es algo que Operai está buscando abordar con nuevas características de angustia mental está implementando en chatgpt.

Nuevas características de angustia mental de chatgpt

Según OpenAi, es haciendo algunos cambios para chatear cuando se trata de angustia mental. La compañía dice: «El chatgpt está capacitado para responder con una honestidad fundamentada. Ha habido casos en que nuestro modelo 4O se quedó corto en reconocer signos de ilusión o dependencia emocional. Si bien es raro, seguimos mejorando nuestros modelos y estamos desarrollando herramientas para detectar mejor signos de angustia mental o emocional para que ChatPPT pueda responder de manera adecuada y apuntar a las personas a los recursos basados en evidencia cuando sea necesario».

La compañía también reconoce que los usuarios pueden usar ChatGPT durante demasiado tiempo, y les pedirá a los usuarios que tomen descansos. «A partir de hoy, verás recordatorios suaves durante las largas sesiones para alentar los descansos. Seguiremos sintonizando cuándo y cómo aparecen para que se sientan naturales y útiles». Esto recuerda a las características de bienestar digital que hemos visto en dispositivos móviles como iOS y Android.

Por último, Operai mejorará cómo ChatGPT resuelve sus problemas personales. La compañía da un ejemplo de cómo ChatGPT no debería dar a los usuarios una respuesta a preguntas como si debe romper con su socio. En cambio, la compañía dice que debería ayudarlo a pensar el problema.

Llamar a la regulación de la IA

En todo caso, estas instancias son un buen recordatorio de que AI debe ser regulado. Honestamente es sorprendente ver hasta dónde han llegado los modelos AI desde que se presentaron por primera vez. Sin embargo, ¿podría ser que los estamos desarrollando demasiado rápido sin saber realmente lo que estamos desatando en el mundo?

Es por eso que algunos han pedido a la IA que se regule. Recientemente, compañías como Google tienen firmó el código de práctica de la AI de la UE. Es un conjunto de reglas acordado entre las compañías de IA que operan en la UE. Sin embargo, en los Estados Unidos, es una historia diferente. Un proyecto de ley reciente básicamente evita que los estados introduzcan sus propias regulaciones. En cambio, el gobierno Quiere regulación a nivel federal.

Fuente: Android Headlines

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *