Character.AI agrega nuevas funciones de seguridad para adolescentes

Carácter.AI está realizando cambios importantes para seguir manteniendo seguros a los usuarios adolescentes. Según un publicación de blog de la empresa, Character.AI ha agregado varias funciones nuevas para mantener a los adolescentes seguros en la plataforma y pronto implementará controles parentales que brindarán a los padres mucha más supervisión. La compañía dice que estas medidas bloquearán el contenido inapropiado y harán que la experiencia general sea más segura.

A madre demandó recientemente a Character.AIculpándolo del suicidio de su hijo de 14 años.

Character.AI tiene un LLM separado para usuarios menores de 18 años

Character.AI ha actualizado su LLM para usuarios adolescentes. Ha creado un modelo de lenguaje grande (LLM) separado para usuarios menores de 18 años. Este LLM identifica respuestas inapropiadas, especialmente en temas delicados como el romance o la autolesión, y las bloquea.

La plataforma también mostrará una ventana emergente específica que dirigirá a los usuarios a la Línea Nacional de Prevención del Suicidio si el LLM identifica un lenguaje que insinúa autolesión o suicidio. Los nuevos cambios lo convertirán en un lugar más amigable y seguro para los adolescentes.

también tiene impidió que los usuarios menores editaran las respuestas a los chatbots. Anteriormente, los usuarios podían editar lo que decían los bots, pero los adolescentes ya no podrán cambiar las conversaciones. Esto es parte de los esfuerzos de la compañía para bloquear la adición de contenido inapropiado a los chats.

¿Por qué son necesarios estos nuevos cambios para Character.AI?

Estos cambios son necesarios para proteger a los adolescentes de conversaciones dañinas. Ayudará a crear un área segura para un grupo de edad más pequeño. Los cambios se están realizando junto con «varios expertos en seguridad en línea para adolescentes», incluida la organización Conéctate de forma segura.

La compañía también está agregando nuevos controles parentales que permitirán a los padres ver cuánto tiempo pasa su hijo en Character.AI y cuál AI chatbots con los que interactúan más. El nuevo control parental estará disponible en el primer trimestre de 2025.

La compañía también traerá una función de límite de tiempo: notificará a los usuarios después de una hora de chatear con un bot para que se tomen un descanso. Esta característica evitará la adicción a la plataforma y garantizará hábitos de uso saludables.

“Estamos comprometidos a fomentar un entorno seguro para todos nuestros usuarios. Para cumplir con ese compromiso, reconocemos que nuestro enfoque de la seguridad debe evolucionar junto con la tecnología que impulsa nuestro producto, creando una plataforma donde la creatividad y la exploración puedan prosperar sin comprometer la seguridad”. Character.AI dijo en una publicación de blog.

Fuente: Android Headlines

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *