El apocalipsis de IA podría no provenir de la tecnología, sino del Congreso

Estados Unidos se enfrenta a una crisis en AI regulación. AI no se deslizó en silencio en nuestras vidas, estalló por la puerta. Cuando el chatgpt de OpenAI se hizo público, abrió las compuertas. De repente, docenas de poderosas herramientas de IA estaban disponibles para cualquier persona con conexión a Internet. Puede usarlos para escribir, codificar, generar arte o Videos falsos de girar que son casi indistinguibles de la realidad.

Pero con este poder ha llegado el caos. Deepfakes engañan al público, mientras que los usos bien intencionados de la IA pueden ser contraproducentes con consecuencias del mundo real. En 2023, estudiantes de Texas A&M University-Commerce fueron amenazados con las calificaciones fallidas. Esto fue después de que un instructor usó ChatGPT para «detectar» las trampas, solo para demostrarse que se equivocó cuando los estudiantes produjeron las marcas de tiempo de Google Docs como evidencia.

Alon Yamin, el CEO de Copileaksentiende esto muy bien. «Cuando los detectores de IA se usan en la educación sin una explicación o contexto adecuado, puede conducir a acusaciones falsas y estrés indebido en los estudiantes».

A medida que AI llega a las aulas, los lugares de trabajo y cada rincón de la vida diaria, la regulación es más importante que nunca. Sin embargo, Estados Unidos ahora está al borde de una prohibición de diez años de las reglas de IA a nivel estatal. Algunos expertos advierten que este movimiento podría dejar a millones desprotegidos mientras la tecnología corre por delante.

Moratoria de la Regulación de AI de Estados Unidos

Regular la nueva tecnología no es un nuevo desafío. Tome drones, por ejemplo. Antes de que los drones de grado de consumo despegaran, casi no había reglas sobre dónde o cómo se podían volar. Pero a medida que los incidentes montaron (personas que vuelan al espacio aéreo restringido o espionan a los vecinos,la faa intervino. La organización gubernamental ahora requiere el registro de drones mientras establece límites claros. Es un gran ejemplo de cómo los gobiernos responden a la tecnología de rápido movimiento.

Con IA, el ritmo es más rápido que nunca, pero la regulación ha luchado para mantenerse al día. Incluso cuando los sistemas de IA llegan a nuestras vidas, la respuesta del gobierno se ha retrasado. Ahora, en lugar de correr para ponerse al día, los legisladores pueden estar frenando.

Enterrado en el amplio «gran y hermoso proyecto de ley» del presidente Donald Trump es una disposición que prohibiría los estados y los gobiernos locales de promulgar o hacer cumplir cualquier regulación de IA durante una década completa. Si se aprueba, esto congelaría los esfuerzos dirigidos por el estado para abordar los riesgos de IA y entregar todo el poder regulatorio a Washington. Las reglas estatales sobre todo, desde profundos en las elecciones hasta la IA en la contratación, la vivienda y la educación, se pondrían en el quemador de atrás.

Los partidarios de la moratoria incluyen algunos de los nombres más importantes de Silicon Valley. Argumentan que un «mosaico» de las leyes estatales crearía dolores de cabeza para las empresas tecnológicas. También argumentan que podría retrasar la innovación y amenazar el liderazgo de Estados Unidos sobre los rivales mundiales como China.

El senador Bernie Moreno, un republicano de Ohio, dijo al Congreso: «La IA no entiende las fronteras estatales, por lo que es extraordinariamente importante que el gobierno federal sea el que establece el comercio interestatal. No se puede tener un mosaico de 50 estados». El presidente de Microsoft, Brad Smith, también se hizo eco de la necesidad de «dar tiempo al país» para permitir que los legisladores federales establezcan las reglas.

Por qué la moratoria podría ser un problema

Los críticos de la prohibición advierten que este enfoque es peligroso. Más de 260 legisladores estatales de los 50 estados han firmado una carta que se opone a la prohibición, argumentando que le ataría las manos. Señalan que los estados a menudo han actuado más rápido y más ágil que el Congreso. Además, muchas leyes existentes, como el etiquetado de Deepfake antes de las elecciones o los requisitos de privacidad de los datos, podrían ser eliminadas.

El Fiscal General de Carolina del Sur, Alan Wilson, no disputa el poder y el potencial de la IA. Sin embargo, no es fanático de prohibir los estados de Hacer sus propias regulaciones de IA. «La IA ofrece una verdadera promesa, pero también un peligro real, y Carolina del Sur ha estado haciendo el trabajo duro para proteger a nuestros ciudadanos. Ahora, en lugar de intensificar soluciones reales, el Congreso quiere atar nuestras manos y empujar un mandato único de Washington sin una dirección clara. Eso no es liderazgo, eso es un exceso federal».

Dario Amodei, CEO de Antrópicoescribe en Una pieza de opinión del New York Times eso, «La IA está avanzando demasiado rápido.

Los riesgos de esperar la regulación federal de IA

Los debates sobre la regulación de la IA en Estados Unidos pueden sentirse abstractos, pero para muchas personas, esperar no es una opción. El caso de Texas A&M no es el único ejemplo en el que los usos bien intencionados de la IA han fracasado con consecuencias del mundo real.

Considere Amazon’s Experimentar con una herramienta de reclutamiento con IA En 2018. La compañía esperaba acelerar la contratación. Sin embargo, el sistema «aprendió» de una década de currículums en su mayoría masculinos, por lo que se enseñó a penalizar aplicaciones que mencionaron a las universidades o logros de mujeres como «capitán de clubes de ajedrez femeninos». En lugar de fijar el sesgo, la IA lo amplificó en silencio. Amazon desechó el proyecto, pero solo después de que se hizo un daño real.

Los riesgos van más allá de la contratación. Cuando Detroit desplegó el reconocimiento facial con AI, la tecnología condujo a múltiples detenciones falsas, incluidos casos en los que Las personas inocentes fueron encarceladas basado únicamente en la coincidencia de una máquina.

Como dice el CEO de CopyLeaks, «Mi mayor preocupación es la normalización de los sistemas de IA opacos y no controlados que toman decisiones que afectan la vida de las personas, especialmente en educación, empleo y acceso a los servicios. Si no priorizamos la transparencia, la equidad y la supervisión, ahora corremos el riesgo de integrar sesgos sistémicos y desinformación en herramientas que escala globalmente».

¿Qué está en juego si los estados no pueden actuar por su cuenta?

Los estados no se han sentado en sus manos mientras AI corría por delante. En todo el país, los legisladores locales han intervenido para llenar el vacío regulatorio, aprobando algunas de las primeras leyes del mundo para abordar los nuevos riesgos de la IA.

En Dakota del Sur, los legisladores aprobaron recientemente un proyecto de ley que requiere etiquetas en los profundos políticos en el período previo a las elecciones. Ayuda a proteger a los votantes de ser engañados al convencer videos falsos y clips de audio.

La ley de privacidad histórica de California, el CCPA, establece estándares nacionales sobre cómo las empresas recopilan y usan datos personales, incluidos los datos utilizados para capacitar a los sistemas de IA. En Nueva York, las nuevas reglas requieren transparencia de las empresas que usan IA para Candidatos de trabajo de pantalla. El objetivo es eliminar el sesgo y dar a los solicitantes rechazados una oportunidad justa de respuestas.

Estos esfuerzos pueden no ser perfectos, pero muestran cómo los estados pueden moverse más rápido y de manera más flexible que el Congreso. Como dijo la senadora del estado de Dakota del Sur, Liz Larson,, «Podía entender una moratoria, potencialmente, si hubiera una mejor alternativa que se ofreciera a nivel federal. Pero no lo hay. Es irritante. Y si no lo van a hacer, entonces tenemos que hacerlo».

El CEO de CopyLeaks cree que un enfoque de planta media podría ser el mejor. «Un enfoque híbrido, donde el gobierno federal establece una línea de base sólida y los estados tienen espacio para adaptarse o liderar en áreas específicas, permitiría tanto la innovación como la responsabilidad».

Conclusión

Estados Unidos se encuentra en una encrucijada en la era de la inteligencia artificial. El debate sobre quién debería escribir las reglas, Washington o los Estados Unidos, no es solo una lucha por los tecnicismos legales. Se trata de cuán rápido y cuidadosamente podemos responder a la tecnología que ya está dando forma a vidas y trabajos.

Si la moratoria de diez años en la regulación de IA a nivel estatal se convierte en ley, no será solo un retraso, será una apuesta que la acción federal llegará a tiempo y será lo suficientemente impactante como para marcar la diferencia. Como hemos visto con defectos profundos, algoritmos de contratación sesgados y arrestos injustos, esperar una solución única para todas las personas reales expuestas a daños reales.

No deberíamos tener que confiar en promesas voluntarias o esperar a que el Congreso se ponga al día mientras el ritmo de IA solo se acelera. Estados Unidos necesita un enfoque más inteligente y ágil cuando se trata de la regulación de la IA. Uno que permite que los estados continúen innovando y protegiendo a sus residentes, mientras trabaja hacia estándares nacionales fuertes y claros.

Fuente: Android Headlines

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *