Anthropic AI se convierte en la primera empresa estadounidense etiquetada como riesgo para la cadena de suministro

Después de semanas de fricciones públicas y ultimátums de alto riesgo, el Departamento de Defensa de EE. UU. (DoD) calificó oficialmente antrópico un «riesgo de la cadena de suministro». Esta designación, normalmente reservada para empresas extranjeras vinculadas a naciones adversarias, marca la primera vez que una empresa tecnológica estadounidense recibe tal etiqueta. En respuesta, el director general de Anthropic, Dario Amodei, lo dejó claro: la empresa va a los tribunales.

La IA antrópica calificada de “riesgo para la cadena de suministro” por el Pentágono de EE.UU.

El conflicto se centra en un desacuerdo fundamental sobre las “líneas rojas”. Anthropic, que se promociona como una empresa que prioriza la seguridad, se negó a permitir que los militares usaran su claudio Modelos de IA para dos propósitos específicos: vigilancia masiva y armas letales totalmente autónomas. Por otro lado, el Pentágono exigió acceso irrestricto para “todos los fines legales”. Sin embargo, Anthropic se mantuvo firme y argumentó que una empresa privada debería mantener cierta supervisión ética sobre cómo se implementa su tecnología.

La etiqueta es mucho más que una palmada en la muñeca. Esta designación técnicamente prohíbe a los contratistas de defensa utilizar los productos de Anthropic en su labor gubernamental. El secretario de Defensa, Pete Hegseth, sugirió anteriormente una aplicación aún más amplia, insinuando que cualquier empresa que haga negocios comerciales con Anthropic podría enfrentar cancelaciones de contratos.

Sin embargo, el momento de esta decisión es particularmente sorprendente. Si bien la administración ha fijado un plazo de seis meses para sacar a Claude de los sistemas federales, la AI Según se informa, actualmente está integrado en operaciones militares activas. Tras los recientes ataques estadounidenses en Irán, las fuentes indicaron que las herramientas de inteligencia impulsadas por Claude desempeñaron un papel importante en el éxito de la misión.

Antrópico para impugnar en los tribunales

Dario Amodei rápidamente abordó la situación y calificó la designación de “legalmente errónea”. En un comunicado formal, aclaró que Anthropic planea impugnar la decisión del Departamento de Defensa en un tribunal federal. El argumento de Amodei gira en torno a la idea de que la ley exige que el gobierno utilice los “medios menos restrictivos necesarios” para proteger la cadena de suministro. Sostiene que el Pentágono está utilizando la ley para castigar a un proveedor en lugar de proteger los intereses nacionales.

Amodei también buscó tranquilizar a los clientes comerciales. Afirmó que la gran mayoría de los clientes de Anthropic no se ven afectados. Después de todo, la designación no puede limitar legalmente las relaciones comerciales que no estén relacionadas con contratos específicos del Departamento de Guerra.

El camino legal no será fácil. Los expertos, incluidos ex asesores de la Casa Blanca, señalan que los tribunales tradicionalmente se muestran reacios a cuestionar al gobierno en cuestiones de seguridad nacional. El Pentágono disfruta de una amplia discreción en estos casos, lo que significa que Anthropic enfrenta un listón muy alto para revocar la etiqueta.

Mientras tanto, el vacío dejado por Anthropic ya se está llenando. Rival AbiertoAI Según se informa, ha firmado un acuerdo con el Pentágono para desplegar sus modelos en lugar de Anthropic, una medida que ha provocado una reacción interna entre algunos miembros del personal de OpenAI.

Fuente: Android Headlines

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *