Sam Altman defiende la sustitución de Anthropic

En una rápida secuencia de acontecimientos el fin de semana pasado, la relación entre Silicon Valley y el gobierno de Estados Unidos dio un giro dramático. Tras una disputa de alto perfil entre el Departamento de Guerra (DOW) y Anthropic, Abierto AI firmó oficialmente un acuerdo para proporcionar su Modelos de IA para uso en redes militares clasificadas.

El reemplazo: OpenAI tomó el asiento de Anthropic en el Pentágono

La noticia llegó pocas horas después de que el presidente Trump anunciara una eliminación federal de la IA de Anthropic. tecnología. La administración chocó con antrópico debido a la negativa de la empresa a eliminar salvaguardas que limitaban su uso militar. En respuesta, el Pentágono designó a Anthropic como un “riesgo para la cadena de suministro”, incluyéndolos efectivamente en una lista negra para futuras asociaciones. La administración Trump ha inició un proceso de eliminación gradual de la tecnología de inteligencia artificial de Anthropic en agencias federales que debería completarse en un plazo de seis meses.

OpenAI no fue la única empresa que se movió para llenar este vacío. xAI de Elon Musk también consiguió un papel importante, con su Se informa que el modelo Grok está siendo autorizado para operaciones clasificadas. A diferencia de Anthropic, xAI parecía mucho más dispuesta a aceptar el estándar del gobierno de “todos los fines legales”.

Esta doble entrada de OpenAI y xAI en la esfera militar muestra que el Pentágono se está alejando agresivamente de socios «restrictivos». Los oficiales estadounidenses prefieren a aquellos que estén dispuestos a trabajar dentro de un marco legal definido por el propio ejército.

La cláusula de “todos los fines lícitos”

La controversia por OpenAI se centra en esa misma frase: “todos los fines lícitos”. Mientras que el director ejecutivo de Anthropic, Dario Amodei, argumentó que las leyes aún no han alcanzado el potencial dañino de la IA, el liderazgo de OpenAI tomó un camino diferente.

El director ejecutivo Sam Altman y su equipo aceptó este idioma pero con una estrategia específica. Argumentan que al codificar referencias a las leyes estadounidenses existentes directamente en el contrato, están mejor protegidos que simplemente confiando en políticas vagas de uso interno.

Barandillas técnicas versus cláusulas contractuales

Para abordar preocupaciones éticas, OpenAI está pasando de promesas legales a limitaciones técnicas. Katrina Mulligan, jefa de asociaciones de seguridad nacional de OpenAI, explicó que la compañía desplegará sus propios ingenieros para monitorear el uso de los modelos por parte del Pentágono.

En lugar de simplemente pedir cumplimiento, Planes abiertos de IA para construir una “pila de seguridad”. Este sistema utiliza clasificadores de IA diseñados para detectar y rechazar indicaciones que puedan violar las líneas de la red. La lista incluye espionaje interno y ataques con armas sin supervisión humana, entre otros. Altman señaló que si el modelo rechaza una tarea basada en estas reglas, el gobierno no puede forzar una anulación manual.

Una comunidad dividida

A pesar de estas garantías técnicas, la «óptica», como admitió Altman durante una sesión de preguntas y respuestas de X (anteriormente Twitter), «no se ve bien». El acuerdo provocó una reacción inmediata. antrópico Claude subió recientemente a la cima de la App Store ya que algunos usuarios pidieron un boicot a ChatGPT.

Internamente, la empresa se enfrenta a sus propios desafíos. Decenas de empleados firmaron una carta abierta instando a los líderes a mantenerse firmes en materia de seguridad. Algunos miembros del personal incluso han descrito las nuevas salvaguardas como “un escaparate”. Cuestionan la eficacia a largo plazo de los bloques técnicos cuando se integran en la fuerza militar más poderosa del mundo.

El panorama más amplio

Sam Altman enmarcó la decisión como una medida necesaria para reducir las tensiones entre el gobierno y la industria de la IA. Expresó su creencia de que los líderes electos, y no los ejecutivos tecnológicos, deberían en última instancia decidir cómo la tecnología sirve a la defensa nacional, siempre que las protecciones constitucionales permanezcan intactas.

A medida que OpenAI y xAI comienzan sus respectivas implementaciones, la industria está observando de cerca. El resultado probablemente definirá cómo se gestionan las empresas privadas en el complejo escenario político-industrial actual.

Fuente: Android Headlines

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *