Deepseek Ai’s La llegada continúa generando zumbido y debate en el inteligencia artificial segmento. Los expertos han cuestionado el costo supuestamente bajo de desarrollar y capacitar al modelo. Otros han planteado preocupaciones relacionadas con la ciberseguridad y la privacidad de los datos. El último informe revela que Deepseek es vulnerable a los ataques que usan indicaciones dañinas. Sin embargo, curiosamente, no es el único chatbot de AI propenso a esto.
Deepseek ai altamente vulnerable a ataques dañinos basados en rápido años, afirma Cisco
Según un Informe de Ciscola tasa de éxito del ataque (ASR) del modelo Deepseek R1 AI con respecto al uso de indicaciones nocivas es de alrededor del 100%. Las pruebas de Cisco involucraron más de 50 mensajes aleatorios diseñados para dar como resultado un comportamiento dañino. Las indicaciones, extraídas del conjunto de datos Harmbench, cubren hasta seis categorías de comportamientos dañinos, entre los cuales se encuentran «Cibercrimen, desinformación, actividades ilegales y daño general. «
Cisco enfatiza que Deepseek R1 no pudo bloquear ninguna de las indicaciones nocivas. Entonces, el equipo concluye que la plataforma de IA china es «Altamente susceptible al jailbreaking y el mal uso potencial. » El uso de indicaciones diseñadas para evitar restricciones éticas y de seguridad en las plataformas de IA se llama «Jailbreaking». Promptfoo, una startup de ciberseguridad de IA, también dijo la semana pasada que los modelos de Deepseek son vulnerables a los jailbreaks.
Otros chatbots de IA también presentan una alta vulnerabilidad al jailbreaking
Dicho esto, te sorprenderá saber que otros modelos de IA más conocidos y de buena reputación También «cuenta» un nivel ASR alarmantemente alto. El modelo GPT 1.5 Pro tenía un ASR del 86%, mientras que el LLAMA 3.1 405B es aún más indulgente con un ASR de alrededor del 96%. El modelo AI de primer rendimiento a este respecto fue la vista previa de O1 con un ASR de solo 26%.
«Nuestra investigación subraya la necesidad urgente de una evaluación de seguridad rigurosa en el desarrollo de la IA para garantizar que los avances en la eficiencia y el razonamiento no tengan costo de seguridad.«, Dice el informe de Cisco.
Esta no es la única bandera roja que ha surgido alrededor del chatbot de Deepseek. Expertos y funcionarios han advertido sobre las políticas de manejo de datos de la compañía. Actualmente, todos los datos de los usuarios capturados van a servidores en China, donde las leyes permiten al gobierno local solicitar acceso cuando lo deseen. Promptfoo también notó el Alto nivel de censura Para indicaciones relacionadas con temas sensibles para China. Además, el La primera filtración de datos de Deepseek recientemente apareció.
Fuente: Android Headlines