Estados Unidos tiene una nueva oficina de Revisión de Seguridad de IA

Han pasado más de dos años desde el término “IA generativa» entró en el léxico del hombre común, y todavía estamos descubriendo cómo regular esto tecnología. Hemos visto varios proyectos de ley a lo largo de los años, pero todavía no existe ninguna ley oficial. Bueno, Estados Unidos acaba de establecer un nueva oficina de revisión de seguridad de IA en el departamento de comercio, y esto podría ayudar a regular la IA.

Esta nueva oficina tendrá como objetivo hacer lo que pretenden hacer la mayoría de los proyectos de ley relacionados con la IA. Impulsará las normas de seguridad de la IA y, al mismo tiempo, garantizará que Estados Unidos mantenga su posición como líder mundial en IA. En este momento, muchas de las empresas de inteligencia artificial más grandes del mundo tienen su sede en California, por lo que Estados Unidos tiene cierta ventaja. Por eso también es tan importante una regulación adecuada.

La nueva oficina de Revisión de seguridad de IA ofrecerá una prueba de seguridad de IA para llevar a casa

Un nuevo proyecto de ley salió a la superficie llamado Ley de Preservación del Dominio Estadounidense en la IA de 2024. Fue patrocinado por el Senador Mitt Rommney y copatrocinado por Jerry Moran, R-Kan., Angus King, I-Maine., Jack Reed, DR.I., y Maggie Hassan, DN.H. Esta ley requerirá que la nueva oficina establezca una prueba de seguridad para los desarrolladores de modelos de IA. La prueba ayudará a indicar cualquier riesgo crítico que pueda tener un modelo antes de que la empresa lo implemente.

Una prueba como esta sería una buena idea, ya que facilitará a las empresas el cumplimiento de las normas gubernamentales. Otros proyectos de ley que intentan regular la IA básicamente dicen a las empresas «¡No hagan que su IA sea peligrosa!», pero no hay un indicador claro de lo que eso significa. Esto se debe a que la línea entre una IA segura y una peligrosa sigue siendo bastante borrosa. Sin embargo, si esta prueba establece un cierto estándar que el modelo debe cumplir para pasar, entonces será más fácil saber si el modelo irá en contra de las regulaciones.

La ley también requerirá que la oficina trabaje con el AI Safety Institute para brindar asistencia a las empresas de IA. Este tipo de sinergia podría ser fundamental para el desarrollo de la IA en los EE. UU. Las empresas que desarrollen modelos de IA Frontier recibirán ayuda para formar equipos rojos contra las áreas donde la IA podría resultar más peligrosa. Estamos hablando de riesgos biológicos, químicos, nucleares, radiológicos y cibernéticos. Sin duda, la IA afectará a las industrias que se ocupan de esas áreas.

90 días y el martillo cae

Al igual que con otros proyectos de ley y regulaciones, el incumplimiento de las reglas tiene duras consecuencias. Si se convierte en ley, los desarrolladores de IA tendrían 90 días para que la oficina revise las salvaguardas de su modelo. Aquellos que no cumplan también podrían enfrentar cargos penales. Estos podrían incluir hasta 10 años de prisión y cargos civiles de hasta 1 millón de dólares al día.

Sin embargo, esto podría escalar dependiendo de la empresa. Parece que 1 millón de dólares al día se reservaría para empresas de miles de millones o billones de dólares como Googlemicrosoft, Metaetc. Una pequeña empresa que crea una pequeña y linda aplicación de inteligencia artificial no se verá tan afectada.

Fuente: Android Headlines

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *