Google Gemini se ha utilizado para generar AI Deepfake Terrorism

La masificación de los servicios con IA ha abierto la puerta a innumerables posibilidades en prácticamente todas las áreas de la industria tecnológica y el mercado de consumo. Desde editar fácilmente una imagen hasta resumir documentos largos, inteligencia artificial Solo facilita las cosas. Sin embargo, Los actores maliciosos también tienen acceso a esta tecnología. En un informe reciente, Google Reveló que sus herramientas de IA se han utilizado para generar contenido de terrorismo profundo.

En Australia, las grandes compañías tecnológicas deben presentar periódicamente informes sobre sus esfuerzos de minimización de daños con respecto al uso de sus desarrollos a las autoridades. La Comisión Australiana de AFRUGTY está a cargo de recibir y analizar estos informes. Las violaciones repetidas de la ley exponen a las empresas a multas o sanciones potenciales.

Google revela que Géminis ha generado terrorismo profundo y material de abuso infantil

El último informe de seguridad de Google cubre el período de abril de 2023 a febrero de 2024. Según la agencia australiana, la tecnología del gigante de la montaña View fue responsable de generar contenido de terrorismo de AI Deepfake. Además, el informe de Google menciones el uso de Géminis para generar material de abuso infantil.

«Esto subraya cuán crítica es que las empresas que desarrollan productos de IA incorporen y prueben la eficacia de las salvaguardas para evitar que se genere este tipo de material.«, Dijo Julie Inman, comisionada de ESAFETY, Julie Inman Grant.

Google dice Recibió 258 informes de casos de contenido de AI Deepfake relacionados con el terrorismo o el extremismo violento. También hay 86 informes de casos de malos actores que generan explotación infantil o material de abuso con Géminis. Google es más estricto al eliminar el material de explotación infantil. La compañía utiliza un sistema de coincidencia de escotilla para detectar dichas imágenes y eliminarlas lo más rápido posible. Sin embargo, Google no aplica la tecnología al contenido relacionado con el extremismo.

Uno de los principales objetivos de los reguladores con respecto a la inteligencia artificial es que las empresas establezcan escudos más estrictos para evitar la creación de este tipo de material. La llegada de ChatGPT en 2022 planteó las primeras preocupaciones a este respecto. Sin embargo, años después, parece que el problema todavía está presente, aunque quizás en menor medida.

La Comisión Australiana ya ha sancionado Telegram y X

La Comisión ESAFETY elogia a Google por su transparencia al revelar los usos maliciosos que algunos actores criminales están haciendo de sus herramientas de IA. La Comisión Australiana de ESAFETY llamó al informe de Google «Insight del primer mundo. » Otras empresas no han tenido palabras favorables de la agencia. Telegram y X (FKA Twitter) recibieron multas debido a las deficiencias en sus informes.

Fuente: Android Headlines

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *