antrópicola firma de inteligencia artificial detrás del popular claudio chatbot, presentó un punto de referencia pleito contra el gobierno de Estados Unidos el lunes, desafiando La etiqueta de “riesgo en la cadena de suministro” del Pentágono. La designación suele estar reservada para adversarios extranjeros. Este es el último acontecimiento tras un enfrentamiento de alto riesgo sobre cómo se debe utilizar la IA en operaciones militares.
La disputa gira en torno a los protocolos de seguridad de la IA. Según documentos legales, el Departamento de Defensa presionó a Anthropic para que eliminara las restricciones de uso de sus contratos de defensa. El liderazgo antrópico, encabezado por el director ejecutivo Dario Amodei, se negó a ceder en dos “líneas rojas” específicas: el uso de su IA para una guerra autónoma letal y la vigilancia masiva de los ciudadanos estadounidenses.
Por qué la demanda de Anthropic desafía la etiqueta de «riesgo» del Pentágono de EE.UU.
Es digno de mención que Anthropic fue uno de los primeros líderes en el gobierno. AI integración. La empresa se convirtió en el primer laboratorio avanzado en implementar sus herramientas en redes clasificadas en 2024. Sin embargo, después de que las negociaciones sobre el texto del contrato llegaran a un punto muerto a finales de febrero, el tono de la administración pasó de la colaboración al “castigo público”, según la empresa.
El presidente Trump dijo a todas las agencias federales que dejaran de usar Anthropic’s tecnología de inmediato. En las redes sociales calificaron a la empresa de “fuera de control”. Después de eso, el secretario de Defensa, Pete Hegseth, lo llamó oficialmente un “riesgo para la cadena de suministro”. Esta etiqueta no sólo pone fin al trabajo directo de Anthropic con el gobierno. Requiere que todos los proveedores de defensa externos certifiquen que no utilizan a Claude en ninguna capacidad cuando trabajan con el Pentágono.
El argumento jurídico
En su denuncia presentada ante un tribunal federal de California, Anthropic caracteriza las acciones del gobierno como una campaña ilegal de represalia. La empresa argumenta que la administración está utilizando su poder para castigar a una entidad privada por su discurso protegido y sus condiciones de servicio «despertadas». Sin embargo, Anthropic sostiene que estos son simplemente límites de seguridad éticos.
Anthropic no busca daños monetarios con esta demanda. Aun así, afirma que la lista negra pone en peligro cientos de millones de dólares en ingresos a corto plazo. Debido a que Claude está profundamente integrado en los flujos de trabajo de otros gigantes tecnológicos como Google y Amazon, el “efecto paralizador” de esta designación podría afectar a toda la industria del software.
El efecto dominó de la industria
Cuando Anthropic quedó marginado, su principal rival, OpenAI, intervino para asegurar un acuerdo con el Departamento de Defensa. Curiosamente, el director ejecutivo de OpenAI, Sam Altman, afirmó que su empresa también mantiene prohibiciones de vigilancia nacional y autonomía letal. Estos son los mismos problemas que provocaron las consecuencias de Anthropic. Sin embargo, el matiz de estos contratos sigue siendo un punto de controversia. Por ejemplo, el propio jefe de robótica de OpenAI renunció recientemente. Por tanto, estas líneas éticas merecen más deliberación pública de la que están recibiendo actualmente.
Para Anthropic, la demanda es un paso necesario para proteger su reputación y modelo de negocio. «Buscar una revisión judicial no cambia nuestro compromiso con la seguridad nacional», señaló un portavoz de la empresa, «pero este es un paso necesario para proteger a nuestros socios y clientes». A medida que se desarrolle el caso, probablemente sentará un precedente importante sobre el grado de control que el gobierno puede ejercer sobre las “barreras” éticas de las empresas tecnológicas privadas.
Fuente: Android Headlines
