Operai sospecha que Deepseek AI usó datos GPT para capacitación

Trabajo de Openai En la industria tecnológica condujo a la situación actual en la que las empresas compiten entre sí para poner la IA más poderosa en la palma de nuestras manos. Ahora, Veterano Podría estar replicando una situación similar, pero en términos de reducir los costos de desarrollar modelos de IA potentes. Sin embargo, Operai sospecha que sus modelos de IA se usaron ilegalmente para entrenar a Deepseek.

El impacto de Deepseek en la industria actual de IA y las acciones de las grandes empresas

La aparición de Deepseek sacudió los cimientos del inteligencia artificial industria tal como la conocemos. La firma china presentó modelos capaces de igualar, o incluso superar, muchos otros conocidos y establecidos. Dicho esto, el impacto real de Deepseek proviene de la relación costo-rendimiento que lograron. La compañía afirma que solo gastaron alrededor de $ 6 millones en capacitar a sus modelos de IA. Esta es solo una pequeña fracción de los millones/miles de millones que otros grandes nombres han invertido hasta ahora.

Según el equipo detrás de Deepseek, el bajo costo se debe al hecho de que utilizaron miles de chips Nvidia H800 más antiguos en lugar de hardware más moderno y costoso para entrenar los modelos R1 y V3. El desarrollo resultó en una pérdida de más del 17% del valor de las acciones de NVIDIA en solo un día. Esto es equivalente a alrededor de $ 600 mil millones en capitalización.

Pero, ¿qué pasaría si Deepseek recurriera a ciertos «atajos» de los que no habló al lanzar sus modelos? Esa es la sospecha que actualmente tiene Openai, la empresa matriz de ChatGPT. Operai y Microsoft están investigando actualmente si Deepseek usó la API de Operai para integrar los modelos GPT con el suyo.

Según los informes, Microsoft y Openai tienen evidencia de Deepseek usando GPT para entrenar sus modelos

Los investigadores de seguridad de Microsoft dijeron a Bloomberg que detectaron una exfiltración de datos a gran escala de las cuentas de desarrolladores de Operai a fines de 2024. El gigante de Redmond sospecha que estas cuentas de desarrolladores estaban afiliadas a Deepseek. Por otro lado, Operai le dijo al Financial Times que encontró evidencia de Deepseek utilizando la destilación de datos. La destilación es una técnica que permite que los conjuntos de datos grandes se «compriman» en los más pequeños para su uso en modelos de IA de entrenamiento.

En este caso, Operai y Microsoft sospechan que Deepseek utilizó la destilación para integrar los modelos GPT en los suyos. Esto les habría ahorrado todos los millones que Operai ha invertido en capacitación de inteligencia artificial. Aunque OpenAI permite desarrollos de terceros en su plataforma a través de su API, las políticas de uso prohíben estrictamente la destilación de datos.

«Sabemos que las empresas con sede en PRC (China), y otras, están constantemente tratando de destilar los modelos de las principales compañías de IA estadounidenses«, Declara la declaración de Openai. «Como el principal constructor de IA, nos involucramos en contramedidas para proteger nuestra IP, incluido un proceso cuidadoso para el cual las capacidades fronterizas incluir en modelos lanzados, y creemos a medida que avanzamos, es de vital importancia que estemos trabajando estrechamente con el gobierno de los Estados Unidos. Para proteger mejor los modelos más capaces de los esfuerzos de los adversarios y competidores para llevar la tecnología de los Estados Unidos,«Agrega la empresa.

Las sospechas ya han llegado al gabinete de Trump

David Sacks, el elegido por la nueva administración en Washington para manejar la IA y la criptografía en el país, le dijo a Fox News que «Hay evidencia sustancial de que lo que hizo Deepseek aquí es que destilaron el conocimiento de los modelos Operai y no creo que Operai esté muy contento con esto.. «

Fuente: Android Headlines

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *