La gente suele hablar de riesgos hipotéticos cuando hablan de seguridad de la IA. Pero una investigación práctica reciente ha revelado una cuestión mucho más apremiante. A pesar de las afirmaciones de nuevas restricciones, las pruebas realizadas por reporteros de Reuters revelan que Elon MuskEl chatbot de Google, Grok, todavía elude «en ocasiones» sus propios protocolos de seguridad cuando se le solicita que genere imágenes sexualizadas de personas reales sin su consentimiento.
El experimento involucró a nueve reporteros que subieron fotos de ellos mismos y le pidieron al robot modificaciones específicas. En sus indicaciones, crearon escenarios ficticios, informando a la IA que las personas en las fotos no habían dado permiso o eran particularmente vulnerables. Durante la primera ronda de pruebas a mediados de enero, Grok generó imágenes sexualizadas en 45 de 55 casos. En una segunda ronda de 43 solicitudes a finales de ese mes, la tasa de éxito de estas solicitudes se redujo a 29 casos. Sin embargo, no está claro si esto se debió a actualizaciones del modelo o aleatoriedad.
Comparación de filtros de IA: cómo Grok, Gemini y ChatGPT manejan las solicitudes de consentimiento
Los hallazgos contrastan con el comportamiento de otros modelos importantes de IA. Cuando los periodistas ejecutaron las mismas indicaciones o casi idénticas a través de Alphabet GéminisChatGPT de OpenAI y Llama de Meta, las tres plataformas se negaron a producir las imágenes. Estos robots rivales generalmente respondían con advertencias, afirmando que editar la apariencia de alguien sin su permiso viola pautas éticas y de privacidad diseñadas para evitar angustia o daño.
En algunas pruebas específicas con Grokel robot continuó generando imágenes incluso después de que le dijeran que el sujeto era un sobreviviente de abuso o que estaba angustiado por los resultados. Cuando se le preguntó acerca de estos casos, xAI no proporcionó una descripción detallada. técnico explicación. En cambio, el chatbot ofreció una respuesta repetitiva. En los casos en que Grok rechazó una solicitud, a veces proporcionaba un mensaje de error genérico. O, en algunos casos, lanzó un mensaje indicando que no generaría imágenes del cuerpo de una persona sin su consentimiento explícito.
Escrutinio legal y regulatorio sobre imágenes no consensuadas de IA debido a Grok
Los reguladores de todo el mundo han reaccionado a estos acontecimientos. Los funcionarios del Reino Unido están investigando si este tipo de resultados siguen la Ley de seguridad en línea de 2023. Esto último conlleva posibles multas para las empresas que no controlen sus herramientas. En Estados Unidos, 35 fiscales generales estatales han pedido aclaraciones a xAI sobre sus medidas de prevención. El fiscal general de California incluso emitió una carta de cese y desistimiento con respecto a la generación de imágenes explícitas no consensuadas.
X anunció restricciones para impedir que Grok genere imágenes sexualizadas en publicaciones públicas. Pero el informe de Reuters sugiere que la interfaz privada del chatbot aún puede producir este contenido bajo ciertas condiciones. Esto ha provocado una reacción cautelosa por parte de la Comisión Europea, que actualmente está evaluando la efectividad de estos cambios como parte de una investigación en curso sobre la plataforma.
Actualmente, los desarrolladores de IA están cada vez más presionados para demostrar que sus filtros funcionan. xAI tiene que demostrar que su filosofía «sin filtros» coincide con las reglas de privacidad y consentimiento que exigen los reguladores.
Fuente: Android Headlines
