El DOD reafirma el ‘riesgo de seguridad’ antrópico: no hay problema de ‘libertad de expresión’

El Departamento de Defensa (DOD) está redoblando su decisión de incluir en la lista negra al empresa de inteligencia artificial Antrópico. En un expediente judicial de 40 páginas, el gobierno ha rechazado antrópicoLa demanda alega extralimitación constitucional, afirmando que la negativa de la empresa a modificar sus “barandillas” de IA constituye una amenaza directa a la cadena de suministro de seguridad nacional de Estados Unidos.

El Pentágono reafirma la lista negra de Anthropic como riesgo de seguridad

En el corazón de Anthropic pleito es la afirmación de que el Pentágono está castigando a la empresa por su postura ética, un acto que, según ellos, viola la Primera Enmienda. Sin embargo, la administración afirma que no se trata de un “discurso protegido”. De acuerdo a Reutersel gobierno argumenta que la negativa de Anthropic a permitir “todo uso legal” de su tecnología Es una forma de conducta, no de expresión.

La administración sostiene que Anthropic es libre de mantener sus creencias corporativas. Sin embargo, el gobierno puede cortar cualquier relación comercial con un proveedor que imponga sus propias restricciones a las operaciones militares. Desde la perspectiva del Pentágono, la designación “sin precedentes” como riesgo para la seguridad es una medida justificada para proteger la integridad de los proyectos militares.

El riesgo de una “alteración preventiva”

El presentación del DODresaltado por TechCrunchrevela una preocupación profundamente arraigada con respecto a la confiabilidad de la IA privada en un entorno de combate. El Pentágono teme que Anthropic pueda intentar «deshabilitar su tecnología o alterar preventivamente el comportamiento de su modelo» durante una guerra activa si la empresa siente que los autoritarios cruzan sus «líneas rojas» internas.

Para el secretario de Defensa, Pete Hegseth, y el Pentágono, esta imprevisibilidad es inaceptable. El gobierno argumenta que no se puede permitir que una corporación privada dicte los parámetros del uso militar una vez firmado el contrato. El DOD afirma que el “interruptor de apagado” de Anthropic lo ha convertido efectivamente en un lastre en el mundo de alto riesgo de la defensa nacional.

Una creciente división en la industria

Las “líneas rojas” de Anthropic implican específicamente evitar que su IA se utilice para vigilancia masiva nacional o para tomar decisiones sobre objetivos en armamento letal. Por otro lado, el acuerdo con Governmentnametalk planteó el uso de la IA en un caso “legal”. El director general de Anthropic, Dario Amodei, ha declarado que la empresa no intenta limitar operaciones militares específicas. Sin embargo, el Pentágono sigue sin estar convencido de que un sistema de “control dual” sea seguro para entornos clasificados.

El caso ha llamado mucho la atención del mundo tecnológico. Gigantes como Google, Microsoft y OpenAI han presentado informes amicus curiae apoyando a Anthropic. Les preocupa el uso de represalias de la etiqueta contra cualquier empresa que no esté de acuerdo con los términos del gobierno. Los expertos legales citados por TechCrunch también cuestionaron la falta de una investigación formal para demostrar que Anthropic en realidad sabotearía sus propios sistemas. Más específicamente, califican de “conjeturales” los temores del gobierno.

¿Qué sigue?

Mientras ambas partes se dirigen a una audiencia crítica el próximo martes, el resultado podría sentar un enorme precedente para el futuro del “Complejo Militar de IA”. Si el tribunal se pone del lado del Pentágono, indica que cualquier proveedor nacional de IA que busque contratos gubernamentales debe estar preparado para abandonar sus barreras éticas. Si Anthropic prevalece, podría garantizar el derecho de las empresas tecnológicas a mantener límites morales incluso cuando trabajan para el Departamento de Guerra.

Por ahora, la postura de la administración Trump es que la seguridad nacional no es una conversación sobre libertad de expresión sino un requisito de absoluta confiabilidad.

Fuente: Android Headlines

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *