Anthropic acusa a DeepSeek de robo del modelo Claude AI

Una nueva ola de espionaje corporativo ha golpeado al sector de la inteligencia artificial. antrópico acusó recientemente a tres destacados chinos laboratorios de IA de orquestar una campaña masiva para desviar la propiedad intelectual. Según Anthropic, las empresas búsqueda profundaMoonshot AI y MiniMax utilizaron una intrincada red de robo de decenas de miles de cuentas fraudulentas para copiar claudioLas habilidades avanzadas de razonamiento y codificación a través de la destilación.

Anthropic alega robo de IA de Claude a escala industrial desde China mediante destilación

La empresa con sede en San Francisco alega que la operación se basó en una técnica conocida como destilación. Esto último normalmente implica entrenar un modelo de IA más pequeño utilizando los resultados de uno más sofisticado. Si bien los desarrolladores suelen utilizar este método para crear versiones eficientes y de bajo costo de sus propios productos, Anthropic afirma que estos competidores utilizaron el proceso como arma. Al generar más de 16 millones de intercambios con Claude, los laboratorios esencialmente «clonaron» la lógica de alto nivel y las capacidades de uso de herramientas que Anthropic pasó años desarrollando.

Según Antrópicolas empresas acusadas crearon más de 24.000 cuentas falsas para lograr su objetivo. El investigación interna de la empresa reveló que estos actores utilizaron servicios proxy para eludir las restricciones regionales y ocultar su ubicación real. Según se informa, solo MiniMax redirigió casi la mitad de su tráfico para capturar datos del último modelo de Claude inmediatamente después de su lanzamiento público.

Tensiones crecientes

Este hallazgo se ha sumado al debate en curso sobre las exportaciones de chips estadounidenses. Anthropic dice que estos laboratorios necesitan mucha potencia informática. Esto refuerza la necesidad de controles estrictos sobre los chips de IA avanzados como los producidos por Nvidia. La empresa sostiene que el acceso restringido a hardware de alta gama es una de las pocas formas de limitar tanto el entrenamiento directo del modelo como la destilación a gran escala.

Más allá del impacto económico, la situación plantea serias preocupaciones de seguridad nacional. Anthropic dijo que los modelos fabricados mediante destilación ilegal a menudo carecen de las rigurosas características de seguridad presentes en los sistemas originales. Si no existen estas protecciones, existe una mayor probabilidad de que este tipo de IA pueda usarse para actividades maliciosas. Esto incluye ciberataques o el desarrollo de armas biológicas, especialmente si los modelos resultantes eventualmente son de código abierto.

Es de destacar que la empresa también enfrentó reacciones negativas. Algunos críticos y líderes de la industria han destacado la ironía de que una importante empresa de inteligencia artificial se queje del uso no autorizado de datos mientras enfrenta sus propias batallas legales por el uso de material protegido por derechos de autor para la capacitación de modelos.

Fuente: Android Headlines

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *