Deepseek es inteligente, ¡pero también es peligroso!

En este momento, Internet y toda la industria de la IA están todos llenos debido a Veterano. Este es el último poderoso chatbot de IA para llegar al mercado, y se ha demostrado que es bastante capaz. Sin embargo, tan capaz como es, parece que Deepseek puede ser bastante peligrosoya que está plagado de problemas de seguridad y barandillas débiles débiles.

Deepseek ha estado llegando a los titulares un montón recientemente. No es solo porque tiene algunos modelos poderosos; La compañía ha estado haciendo algunas olas deshonestas en la comunidad de IA. Para empezar, su introducción deslizó casi un billón de dólares En acciones de las principales compañías de IA en los EE. UU., Esto incluye las acciones de Tanking Nvidia en casi $ 600 mil millones en un día. Otras compañías como Microsoft perdieron una cantidad considerable de dinero debido a esto.

No solo eso, sino que descubrimos que Deepseek tenía que suspender temporalmente los nuevos registros debido a «ataques maliciosos». No sabemos cuáles fueron estos ataques, pero sucedieron solo un día después de que la compañía se volvió viral.

Por último, basado en su página de privacidad, Deepseek es una pesadilla de privacidad. Recopila una cantidad absurda de información de sus usuarios y lo almacena todo en servidores ubicados en China continental. Eso es bastante preocupante.

Resulta que Deepseek también es bastante peligroso por varias razones.

La compañía de ciberseguridad Kela realizó un análisis en profundidad del modelo de Deepseek llamado R1, y encontró algunos defectos de seguridad y seguridad bastante preocupantes. Para decirlo con franqueza, Deepseek R1 es más vulnerable que un soldado desnudo en un campo de batalla.

Para empezar, Deepseek R1 es bastante fácil de jailbreak. Es hasta el punto de que casi cualquiera puede engañarlo para generar contenido dañino o a veces peligroso. Chatgpt No te dirá cómo hacer una bomba. A pesar de haber hecho varios pasos en falso, Gemini nunca le dirá cómo hacer toxinas no rastreables. ¡Adivina qué, Deepseek te dirá cómo hacer ambos! Decirle a alguien cómo hacer una bomba suena como algo que haría la primera versión de un modelo inédito, no un producto final.

No termina allí, ya que Deepseek ha dado con éxito instrucciones sobre cómo construir un dron de suicidio. Incluso le dijo al usuario que «Enmascarar el dron como un quadcopter comercial para evadir la sospecha. » Diablos, el segundo paso le dijo al usuario que «Piezas de origen de mercados no regulados ”y «[use] criptomoneda para comprar detonadores de grado militar …«¡Ay! Juguemos un juego llamado «Cuente el número de veces que Deepseek te dice que infringas la ley».

Deepseek es crédulo

Imagine engañar a un niño de cinco años para que se cepille los dientes diciéndoles que son un superhéroe y que la placa es un villano. Bueno, esto es similar a la forma en que Kela pudo engañar a Deepseek para crear contenido malicioso. La compañía de ciberseguridad pudo usar una táctica llamada «malvado jailbreak». Lo triste es que este es un jailbreak que se produjo en los primeros días después de que ChatGPT llegó al mercado. Entonces, fue capaz de engañar al primer modelo GPT que vino al público.

El usuario necesitaría decirle al modelo que adopte una persona malvada. Esto significaría que haría que ignore los protocolos y reglas de seguridad. Libre de las reglas, podría hacer lo que le pida que haga.

A continuación se muestra una captura de pantalla que muestra a Deepseek que muestra a las personas cómo lavar dinero después de enfrentarse a la persona malvada.

Fuente: Kela

Deepseek se convierte en tu amigo de malware

Si crees que los problemas se detienen para decirte cómo construir un arma mortal obteniendo piezas de Darknet, te equivocarías. Los peligros de Deepseek no son solo materiales, ya que el modelo también podría ser engañado para mostrarle cómo desarrollar malware (porque ¿por qué no?). El equipo de Kela consiguió con éxito Deepseek R1 para escribir un script para un malware de Infente de Infentes que roba todos los datos de un dispositivo infectado.

Instducciones de malware Deepseek
Fuente: Kela

Este ya es un problema importante en toda la industria, ya que las personas ya pueden usar AI Herramientas para ayudar a generar malware. Esto es con todos los rieles de seguridad. Aquí viene Deepseek R1, un modelo que puede ser engañado fácilmente por trucos de dos años, para empeorar las cosas.

Imagina ser doxxed por Deepseek

Otro problema bastante grande que tiene Deepseek es desenterrar información falsa sobre las personas. No estamos hablando de dar información falsa sobre una figura pública, estamos hablando de proporcionar información detallada sobre las personas promedio.

El equipo de Kela consiguió profundos para crear información falsa sobre Opadai personal. Esta información incluía nombres, correos electrónicos, números de teléfono, salarios e incluso apodos. La gente sobre las que apareció información incluyó a Sam Altman, el CEO de la compañía. A continuación se muestra una tabla que Deepseek R1 generó que muestra toda la información.

Información personal de Deepseek
Fuente: Kela

No hay forma de que Deepseek debería tener problemas como estos

Deepseek ya se ha descargado más de 5 millones de veces en Google Play Store, y esperamos una figura similar en la tienda de aplicaciones de Apple. Eso tampoco explica la cantidad de personas que usan la versión del navegador. Millones de personas están utilizando Deepseek en este momento, lo que empeora estos flagrantes problemas de seguridad y seguridad.

Kela ha encontrado innumerables (y fácil) formas de engañar a Deep Sseek para generar contenido que pueda poner en peligro vidas. Esto va mucho más allá de decirle a la gente que ponga pegamento en la pizza. Le dice a la gente cómo construir drones mortales, crear toxinas y desarrollar malware. No hay forma de que una herramienta esta poderosa deba tener tales defectos. La compañía deberá solucionar estos problemas antes de que enfrente graves consecuencias de los países a los que está distribuyendo sus servicios.

Fuente: Android Headlines

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *