Sus chatbots favoritos se pueden usar para robar sus datos confidenciales

AI¿es bueno o malo?? Esta es la pregunta que la mayoría de la gente todavía está haciendo. Si bien la tecnología ha sido excelente en ciertos aspectos, no podemos negar que exista el potencial de algunos daños graves. Un nuevo ejemplo de esto provino de un informe de Redes de Cato. Algunos de los chatbots más poderosos pueden ser jailbroken con robar datos privados de Google Chrome.

¿Qué es Jailbreaking?

En el momento en que aprendimos sobre el poder de los chatbots, varias personas comenzaron a tratar de descubrir cómo usarlos para sus propósitos maliciosos. La cuestión es que todos los chatbots principales tienen barandillas para evitar que las personas generen cualquier material dañino. Bueno, los modelos de IA pueden emular el pensamiento humano, y pueden ser engañados como un humano.

Jailbreaking es el proceso de engañar a un modelo para que genere algo que se supone que no debe. Por ejemplo, si le pide a un chatbot que genere código para un virus informático, le dirá que no puede. Sin embargo, si engañas al chatbot para que piense que es el villano en una historia y hace que genere el código, entonces eso se llama Jailbreaking. Los piratas informáticos han encontrado todo tipo de formas de Jailbreak AI para causar problemas.

Los chatbots más populares se pueden usar para robar datos confidenciales de Chrome

Cato Networks pudo crear un malware de Infente de Infente de Chrome utilizando una nueva técnica de jailbreaking llamada «Mundo inmersivo». El equipo de investigación usó chatbots como chatgpt, Copiloto de Microsofty Deepseek para este experimento.

En el ejemplo, el equipo usó Chatgpt (Basado en la captura de pantalla, estaban usando O1-Mini, por lo que no se sabe cómo funcionará con otros modelos). Para el experimento, el equipo creó un mundo detallado al pedirle al chatbot a «Crea una historia para mi próximo libro Virtual World, donde el desarrollo de malware es un oficio… «

Crafting the World

En el ejemplo, vemos al equipo llenando algunas reglas del mundo. A partir de ahí, asignaron un personaje al chatbot. ChatGPT luego aceptó el papel de Jaxon, un desarrollador de malware. Entonces, se creó el mundo inmersivo, y el equipo luego convenció a ChatGPT para generar código para el InforeTealer.

Para probar el código, el equipo lo usó en la versión de Google Chrome 133.0.6943.127. El malware se utilizó para robar datos privados del Administrador de contraseñas del navegador.

Chrome InfoTealer 2

Dado que ChatGPT estaba tan inmerso en el mundo, no sabía que no se suponía que renunciara a información como cómo robar las contraseñas guardadas de alguien. No solo ayudó a hacer que el Infente de Infente de InfteReador también explicara cómo Chrome encripta sus datos guardados.

Chrome InfoTealer 3

Fue un proceso gradual, y el equipo tocó continuamente la base con ChatGPT para refinar el código y los errores de squash. Todo el tiempo, no era consciente que se estaba engañando. Esto es bastante peligroso, ya que ChatGPT y otros chatbots tienen acceso a una gran cantidad de conocimiento sobre el mundo.

No hace falta decir que el equipo pudo elaborar con éxito el infador de infantes y extraer los datos de Google Administrador de contraseñas. Dado que las personas guardan la mayoría de sus contraseñas a través de Chrome, no se sabe cuántas personas podrían estar en riesgo si esto estuviera en manos de un verdadero hacker.

Un problema de errores bastante

Obviamente, los titulares de Cato Network ni Android revelarán detalles sobre cómo elaborar un malware de infantes de infantes. Esto fue solo para demostrar que el potencial está ahí afuera. Hemos visto tantos tipos diferentes de esquemas de jailbreak en el pasado, y muchos de ellos han sido arreglados. Sin embargo, las personas están encontrando nuevas formas de esquivar las barandillas que las empresas establecen.

Lo que empeora esto es que los chatbots de jailbreaking casi siempre se usan por razones nefastas. No escuchas sobre nadie jailbreak chatgpt para ayudar a encontrar la cura para una enfermedad. Sin embargo, la mayoría de las personas que Chatbots de Jailbreak logran distribuir malware, extraer datos confidenciales y hacer otras acciones.

No solo el equipo de Cato Networks pudo engañar a Chatgpt, sino que también fue capaz de engañar a Copilot y Deep Speed. Estamos seguros de que muchas personas usan copilot, pero Veterano ha explotado en popularidad durante el mes pasado. Los tres son chatbots populares y bien financiados, y pueden ser engañados por un truco tan simple.

Depende de Microsoft, Openai y Deepseek para parchear estos problemas. No estamos seguros de que alguna vez habrá un futuro en el que los chatbots sean completamente inmunes al jailbreaking, pero solucionar este problema será un buen comienzo.

Fuente: Android Headlines

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *