El sistema de detección de deepfake con IA de Meta no pasa la prueba

generado por IA El contenido se vuelve más convincente y más fácil de producir. Y parece redes sociales Las plataformas están luchando por mantener el ritmo. Meta Recientemente recibió una evaluación puntual de su propia Junta de Supervisión, que concluyó que los métodos actuales de la compañía para detectar deepfakes de IA simplemente no son suficientes. La junta, que opera como un organismo semiindependiente para guiar las prácticas de moderación, advirtió que el sistema existente carece de la profundidad y velocidad necesarias para manejar la realidad moderna de la desinformación en línea.

La investigación se centró en un vídeo generado por IA que mostraba falsamente daños a edificios en Israel. Este contenido se difundió por Facebook, Instagramy Trapos antes de ser atrapado. La Junta de Supervisión de Meta dice que esto es especialmente peligroso durante los conflictos armados, cuando la gente usa las redes sociales para obtener noticias en tiempo real.

Un problema importante la junta identificó es la excesiva dependencia de Meta en la autorrevelación. En este momento, el sistema depende principalmente de que los creadores admitan que usan IA o de estándares de la industria como C2PA. Este último funciona incorporando metadatos en archivos digitales. Sin embargo, la mayoría del contenido engañoso no incluye estos útiles marcadores. La junta señaló que incluso las propias herramientas de inteligencia artificial de Meta están etiquetadas de manera inconsistente. Esto crea un entorno confuso para el usuario medio que intenta distinguir la realidad de la ficción.

La Junta de Supervisión pide una revisión importante de la detección de IA falsa de Meta

Las recomendaciones de la junta sugieren una revisión completa del manejo de medios sintéticos. Quieren que Meta cambie su enfoque hacia uno que sea más proactivo que reactivo. Esto implicaría desarrollar herramientas internas más sofisticadas que puedan marcar contenido de “IA de alto riesgo” sin esperar a que un usuario lo informe. También quieren ver un nuevo estándar comunitario dedicado específicamente a los medios generados por IA para reemplazar el mosaico de reglas actual.

La velocidad es el factor crítico aquí. En medio de un conflicto, un vídeo falso puede volverse viral y llegar a millones de personas en cuestión de horas. Cuando un moderador humano lo revisa o un verificador de datos emite una corrección, el contenido de los medios ya ha dado forma a la narrativa. El organismo de supervisión argumentó que Meta debe priorizar la transparencia con respecto a sus sanciones por violaciones de políticas y garantizar que las etiquetas sean claramente visibles para todos los que navegan por sus feeds.

Si bien las recomendaciones de la Junta de Supervisión no son técnicamente vinculantes, tienen un peso significativo. Meta ahora debe decidir cuánto invertir en la autenticidad de sus plataformas.

Fuente: Android Headlines

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *