Inteligencia artificial (IA) ha comenzado a hacerse cargo de nuestras vidas de una forma u otra. Como las empresas tecnológicas están invirtiendo en gran medida en IA, también son responsables de salvaguardar sus plataformas, especialmente para los niños. Teniendo en cuenta las preocupaciones, las grandes empresas como Google, Openai, Discord y Roblox tienen formó conjuntamente un nuevo grupo de seguridad infantil y lanzó la iniciativa de Herramientas de Seguridad Open Online (ROOST) en la Cumbre de Acción de AI en París.
Google, Openai, Discord y Roblox fundaron un nuevo grupo de seguridad infantil para abordar el daño en línea
GALLINERO es una nueva organización sin fines de lucro que tiene como objetivo mejorar la seguridad infantil en línea. Las empresas que se unen al grupo de seguridad infantil tendrán acceso a herramientas gratuitas de IA de código abierto. Pueden usar tales herramientas para detectar, revisar e informar materiales de abuso sexual infantil (CSAM).
Por el comunicado de prensa conjuntoesta iniciativa tiene como objetivo unir «la experiencia, los recursos y las inversiones«Crear una infraestructura de seguridad más accesible y transparente para abordar el daño en línea que involucra la IA. Varias organizaciones filantrópicas como la Fundación Knight, la Fundación Patrick J. McGovern y la AI Collaborative también han respaldado la iniciativa.
Bluesky, Microsoft, Mozilla y Github también son algunos de los principales socios de esta iniciativa. Sin duda, la iniciativa lanzada bajo el grupo de seguridad infantil es excelente y todo. Pero, queda por ver si puede lograr algunos de sus grandes objetivos.
Los socios fundadores tienen una historia irregular cuando se trata de regular su plataforma
Tomemos a Roblox como ejemplo; La compañía tiene un historial deficiente de regular su plataforma. De hecho, el año pasado, Hindenburg Roblox atacado en uno de sus informes.
Mientras Google está haciendo un gran trabajo asegurando la seguridad infantil en línea, todavía está luchando para combatir la distribución del contenido explícito generado por IA. Por lo tanto, todo lo que podemos hacer es esperar y esperar que el grupo de seguridad infantil reciba todos los elogios por hacer su trabajo en el futuro.
Fuente: Android Headlines