Veterano entró como una bola de demolición. Antes de la llegada de la compañía, muchos asumieron que el chatgpt de OpenAi continuaría dominando el AI escena. Sin embargo, las capacidades de Deepseek y los informes de que la compañía solo gastó $ 6 millones en capacitar al modelo fue lo que le dio la cabeza a la industria de IA. Sin embargo, un nuevo informe de copyleks ha revelado que tal vez Deepseek fue tan efectivo simplemente porque se entrenó en su principal competidor: Openai.
Compartiendo un estilo similar
CopyLeaks, para aquellos desconocidos, es una compañía que se especializa en análisis de texto basado en IA, gobernanza de IA y detección de plagio. Según sus hallazgos recientes, descubrió que el 74.2% de los textos generados por Deepseek-R1 coinciden con las huellas digitales estilísticas de OpenAi. Esto significa que hay una muy buena posibilidad de que Deepseek se entrenó en las salidas de OpenAi.
Según la compañía, su investigación utilizó una combinación de tres clasificadores de IA avanzados. Entrenó a cada uno de estos clasificadores en textos de cuatro principales modelos de IA: Claude, Gemini, Llama y OpenAI. Los clasificadores ayudan a identificar diferencias sutiles entre los modelos de IA. Esto incluye cómo las oraciones están estructuradas, la elección del vocabulario y el fraseo.
Basado en esto, el estilo de escritura de Deepseek coincidía con el 74.2%de OpenAI. ¿Deberíamos sorprendernos? No. Para aquellos desconocidos, Deepseek afirmó que ahorró mucho dinero utilizando un método de entrenamiento llamado destilación. En lugar de entrenar un modelo de IA desde cero, la destilación implica tomar la salida de modelos de IA ya entrenados como ChatGPT y usarlo para entrenar.
Piense en ello como la relación entre el alumno y el maestro. El maestro podría haber tenido que aprender sobre un tema desde cero, haciendo su propia investigación y experimentos para llegar a una conclusión. Luego, el maestro toma este conocimiento y destaca la información correcta al alumno. Entonces, en lugar de que el estudiante pase años aprendiendo sobre una materia, podrían comprender fácilmente el conocimiento en un solo semestre (estamos hablando de competencia, no de dominio).
Hallazgos preocupantes
Según CopyLeaks, este descubrimiento es preocupante. Si has estado siguiendo las noticias, cuando llegó Deepseek, explotó un agujero de billones de dólares en el mercado de valores de EE. UU.. Esto se debe a que los inversores compraron la historia que las empresas no necesitaban gastar miles de millones para capacitar a la IA. Esto dio como resultado que los precios de las acciones de empresas como Nvidia, que fabriquen y venden hardware utilizado en el desarrollo de IA, para caer en plomada.
CopyLeaks sugiere que, según estos hallazgos, Deepseek podría haber engañado al mercado y haberle dado una ventaja injusta. Destacamos esto en nuestro Historia de funciones de Deepseekdonde la compañía no ha sido presentada con respecto a sus datos de capacitación. Como no sabemos cómo se entrenó el modelo, plantea la cuestión de la legitimidad, donde tenemos que preguntarnos si podemos confiar en las respuestas que da.
Fuente: Android Headlines