La relación entre Silicon Valley y el ejército estadounidense ha entrado oficialmente en territorio “complicado”. antrópicoel creador del AI chatbot claudioactualmente choca con el Departamento de Defensa por su negativa a levantar las medidas de salvaguardia, lo que limita su uso con fines militares.
El director general de Anthropic, Dario Amodei, fue noticia esta semana al afirmar que su empresa “no puede, en conciencia, aceptar” las exigencias del Pentágono. El ejército quiere el uso irrestricto de Claude para “todos los fines legales”. Por otro lado, Anthropic se mantiene firme en dos líneas principales de la red: la vigilancia interna masiva de los estadounidenses y el desarrollo de armas totalmente autónomas.
Medidas de salvaguardia de Claude AI: el núcleo de la actual disputa Antrópico-Pentágono
El la situación se intensificó rápidamente tras una reunión entre Amodei y el secretario de Defensa, Pete Hegseth. Según se informa, el Pentágono emitió un ultimátum: eliminar las restricciones de seguridad antes del viernes o enfrentará graves consecuencias. Estas amenazas incluyen la cancelación del contrato de 200 millones de dólares de Anthropic. Más drásticamente, el Pentágono podría etiquetar a la empresa como un “riesgo para la cadena de suministro”, una designación típicamente reservada para adversarios extranjeros.
Los funcionarios estadounidenses, incluido el subsecretario Emil Michael, han expresado su opinión en las redes sociales. Acusan a Amodei de tener un “complejo de Dios” y de intentar controlar personalmente las operaciones militares. Los militares argumentan que ya cumplen la ley y que el lenguaje contractual restrictivo sólo sirve para obstaculizar la seguridad nacional frente a la competencia global.
El creador de Claude está preocupado por la vigilancia masiva de la IA.
Para Anthropic, la cuestión va más allá de la simple política corporativa. Según la empresa, se trata de las limitaciones actuales de la IA. En una publicación de blog detallada, Amodei explicó que la situación actual tecnología simplemente no es lo suficientemente confiable como para impulsar armas que operan sin participación humana. También advirtió que la IA podría usarse para unir datos dispersos y crear una imagen masiva y automatizada de la vida de cualquier ciudadano. Considera que esto es una amenaza a los valores democráticos.
Curiosamente, algunos políticos han expresado preocupación por las tácticas agresivas del Pentágono. El senador Mark Warner describió los informes como “intimidación”. Mientras tanto, el senador Thom Tillis cuestionó el manejo público “poco profesional” de estas delicadas negociaciones estratégicas.
A medida que se acerca la fecha límite del viernes, el futuro de Claude en las operaciones militares está en juego. Otros gigantes tecnológicos como Google, OpenAI y xAI ya han integrado sus herramientas en las nuevas redes internas del ejército. Anthropic, por otro lado, parece dispuesto a abandonar el trato por completo. La empresa afirmó que estaba dispuesta a trabajar para lograr una transición fluida a otro proveedor.
Fuente: Android Headlines
