El martes, el tribunal federal de San Francisco se convirtió en el telón de fondo de una acalorada audiencia en la que antrópicoel creador del claudio AI Models, solicitó una orden judicial de emergencia para detener una lista negra federal orquestada por la administración Trump.
El conflicto se centra en un desacuerdo fundamental sobre cómo utilizar la inteligencia artificial en la guerra. Anthropic alega que el gobierno está tomando represalias contra ellos porque se negaron a permitir que sus AI tecnología que se utilizará para “armas letales totalmente autónomas” o la “vigilancia masiva de estadounidenses”. En respuesta, el Pentágono tomó la medida histórica de designar a la empresa con sede en Estados Unidos como un “riesgo para la cadena de suministro”. Esta fue la primera vez que una empresa estadounidense recibió una etiqueta de este tipo.
Dentro de la demanda de Anthropic y el Pentágono
Durante la audiencia, la jueza de distrito estadounidense Rita Lin no se anduvo con rodeos y sugirió que la medida del Pentágono “parece un intento de paralizar” a Anthropic. El juez presionó a los abogados del gobierno sobre la discrepancia entre la política oficial y la retórica de la administración en las redes sociales.
La postura del gobierno es que las “líneas rojas corporativas” de Anthropic la convierten en un socio poco confiable. Según el Departamento de Justicia, el Pentágono teme que Anthropic podría teóricamente “sabotear” o desactivar su tecnología en mitad de la operación si decide que una acción militar cruza sus límites éticos. El abogado de Anthropic, Michael Mongan, respondió que se trata de una extralimitación ilegal. Afirmó que el gobierno está “aprovechando sus poderes para castigar a una importante empresa estadounidense por el pecado de expresar sus opiniones”.
Miles de millones en juego y “computadoras en guerra”
Argumentos antrópicos que sin una orden judicial, enfrenta “daños económicos y de reputación” por un total de miles de millones de dólares. La prohibición no afecta sólo a los contratos gubernamentales directos. Obliga a los principales contratistas de defensa como Amazon, Microsoft y Palantir a certificar que no están utilizando a Claude en ningún trabajo relacionado con el ejército.
Irónicamente, el ejército ya depende profundamente de los mismos tecnología está intentando prohibir. Los informes indican que las redes clasificadas del gobierno de EE.UU. actualmente integran a Claude. Además, también lo utilizan para el análisis de objetivos en operaciones en curso, como el conflicto con Irán. Desenredar estos sistemas sería una tarea enorme que duraría meses y que los funcionarios reconocen que causaría perturbaciones significativas.
El gobierno de Estados Unidos se acerca a sus rivales antrópicos
Ante la postura de Anthropic, la administración Trump está girando hacia empresas rivales como OpenAI y xAI. Según se informa, ambos aceptaron «todos los usos legales» de su tecnología. Mientras tanto, el tribunal debe decidir si una empresa privada tiene el derecho de la Primera Enmienda a colocar barandillas de seguridad en sus productos.
El juez Lin ha tenido en cuenta los argumentos. Si concede la orden judicial, Anthropic puede continuar su trabajo gubernamental mientras avanza la demanda más amplia. Si ella lo niega, la etiqueta de “riesgo en la cadena de suministro” se mantendrá, lo que podría obligar a uno de los principales laboratorios de inteligencia artificial de Estados Unidos a salir por completo del mercado federal.
Fuente: Android Headlines
