Esta semana, la fricción actual entre el gobierno de EE. UU. y la startup de IA antrópico dio un giro más pronunciado. Brendan Carr, presidente de la Comisión Federal de Comunicaciones (FCC), intervino públicamente sobre la reciente inclusión de la compañía en la lista negra para uso federal, sugiriendo que Anthropic «cometió un error» en sus tensas negociaciones con el Pentágono.
Antrópico en la lista negra: la FCC interviene en el enfrentamiento del Pentágono
Las consecuencias comenzaron cuando se estancaron las conversaciones sobre cómo el Departamento de Defensa (DoD) podría utilizar la tecnología de Anthropic. claudio modelos. La startup buscó garantías estrictas de que su tecnología no alimentaría armas totalmente autónomas ni facilitaría la vigilancia masiva nacional. Por otro lado, el gobierno se mantuvo firme en un estándar diferente: todos los modelos deben estar disponibles para “todos los casos legales”.
Las consecuencias de este desacuerdo fueron rápidas y graves. Tras la ruptura de las conversaciones, el presidente Trump ordenó a las agencias gubernamentales que dejaran de usar la tecnología de Anthropic. El secretario de Defensa, Pete Hegseth, fue un paso más allá y calificó a la empresa de “riesgo de la cadena de suministro para la seguridad nacional”. Los funcionarios federales deben reemplazar a los AI dentro de seis meses.
Este no es sólo un título simbólico. Como reportado por CNBCesta designación impide efectivamente que cualquier contratista que trabaje con el Pentágono haga negocios con Anthropic. Crea un enorme obstáculo para el crecimiento de la empresa en el sector federal.
La opinión de la FCC: «Curso correcto»
Hablando con CNBC, Brendan Carr expresó que a Anthropic se le habían dado múltiples “rampas de salida” y oportunidades para encontrar un término medio. Sugirió que la empresa optó por retirarse en lugar de adaptarse a las “reglas del camino” que se aplican a cualquier contratista militar. El consejo de Carr para la startup fue contundente: deberían intentar “corregir el rumbo” lo mejor que puedan.
Anthropic, por su parte, sigue “triste” por la medida del gobierno. La empresa sostiene que su negativa fue una cuestión de principios. Los Estados antrópicos no pueden, en conciencia, apoyar el espionaje interno o las máquinas de matar autónomas. También han advertido que incluir a una empresa en la lista negra por sus límites éticos sienta un «precedente peligroso» para cualquier empresa estadounidense que negocie con el Estado.
La salida de Anthropic allanó el camino para Sam Altman
El momento de la entrada de OpenAI añade otra capa a este drama. Apenas unas horas después de que Anthropic fuera marginado, El CEO de OpenAI, Sam Altman, anunció un acuerdo con el Departamento de Defensa.
Sin embargo, incluso esa victoria no ha estado exenta de contratiempos. Altman admitió más tarde que el anuncio “parecía oportunista y descuidado”, lo que llevó a OpenAI a aclarar sus propios términos para garantizar que su IA no se utilice para vigilancia nacional intencional.
Por ahora, Anthropic se encuentra en una posición difícil: un líder estadounidense en IA esencialmente excluido del ecosistema de su propio gobierno. La pregunta más importante en la industria sigue siendo si la empresa seguirá el consejo de la FCC de “corregir el rumbo” (lo que probablemente signifique suavizar su postura sobre ciertas salvaguardas) o se atendrá a sus principios éticos.
Fuente: Android Headlines
