Microsoft está investigando Deepseek para obtener un posible robo de datos

Deepseek es la historia más grande en IA desde que ChatGPT llegó al mercado. Apareció de la nada y superó los mejores modelos de IA del mercado a una fracción del costo. Sin embargo, es conocido principalmente por las controversias que se están acumulando. Agregando otra controversia a la pila, parece Microsoft está investigando Deepseek.

En solo un par de días, Veterano ha pasado de ser una estrella en ascenso a ser una preocupación en ascenso y seguridad. Según un informe reciente, Deepseek R1 es un modelo bastante peligroso, ya que es fácil engañar en producir contenido dañino. Las personas pueden hacer que les diga cómo construir ciertas armas, preparar sustancias tóxicas, desarrollar malware, etc.

Junto con eso, su presencia ha causado un accidente masivo de casi trillones de dólares en el mercado de valores para las compañías de IA. Nvidia solo casi perdió $ 600 mil millones en solo un día. Hay otras controversias e información sobre este chatbot. Asegúrese de revisar nuestra pieza en Todo lo que necesitas saber sobre Deepseek.

Microsoft está investigando Deepseek

Era solo cuestión de tiempo antes de otros AI Las empresas se dieron cuenta de Deepseek. Microsoft tiene una razón para estar un poco molesto con este recién llegado. Fue una de las 10 principales compañías en perder valor en el mercado de valores debido al accidente. Perdió $ 72.2 mil millones en el mercado de valores.

Sin embargo, esa no es la razón por la que Microsoft está investigando Deepseek. Según el informe, Microsoft notó una gran extracción de datos de los sistemas de OpenAi. Al mirar más profundamente, la compañía vio que un grupo posiblemente robó un montón de datos de la compañía a través de la API de OpenAI. Microsoft concluyó que las personas responsables de esto están posiblemente conectadas a Deepseek.

Supuestamente, el grupo destiló los datos de ChatGPT al modelo de Deepseek. Este proceso, llamado destilación, es cuando alguien toma la salida de un modelo de IA y lo usa para entrenar a otro. Entonces, parece que este grupo tomó el Salidas de ChatGPT para entrenar Deepseek R1. Este proceso suena bastante sombrío, y está pidiendo problemas, ya que el modelo se alimenta de datos que posiblemente son inexactos.

En este punto, todavía hay una tonelada de información que no conocemos. Ninguna de las empresas involucradas (Microsoft, Openai, Deepseek, High-Flyer) ha comentado sobre la terrible experiencia hasta el momento. Sin embargo, si resulta que Deepseek robó los datos, entonces podría ser difícil seguir adelante.

Fuente: Android Headlines

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *