Hoy, Ai Los servicios ya son parte de la corriente principal. Esto significa que cada vez más personas los usan activamente, integrándolos en su vida cotidiana. Sin embargo, al igual que al navegar por Internet, hay ciertas precauciones a tomar al usar IA que muchas personas pasan por alto. El resultado final será comprometer su propia seguridad de datos. En un nuevo desarrollo, un ciberseguridad la empresa ha encontrado un defecto en Chatgpt Eso podría haber permitido a los piratas informáticos robar información privada de la cuenta Gmail de un usuario.
La vulnerabilidad de ChatGPT encontró que podría haber expuesto los datos de Gmail
Para comenzar, Radware es el equipo que descubrió la vulnerabilidad. Operai ya envió un parche para él. Sin embargo, los hallazgos destacan un panorama de amenazas nuevo y complejo.
El equipo de ciberseguridad encontró el problema dentro de la función de «investigación profunda» de ChatGPT. Si no sabe, esta característica puede analizar grandes cantidades de información de aplicaciones conectadas como Gmail y Google Drive. Según Radware, un hacker podría haber elaborado un correo electrónico especial con instrucciones secretas. Si un usuario le pidió a ChatGPT que realizara una consulta de investigación profunda en su bandeja de entrada de Gmail, el chatbot podría ser engañado para escanear y filtrar datos confidenciales a un sitio web controlado por hackers. Estos datos pueden variar desde nombres hasta direcciones.
Lo que hace que esta vulnerabilidad sea particularmente notable es que es un ejemplo de un agente de IA que se manipula para robar datos (según lo informado por Bloomberg. Por lo general, los malos actores usan la IA como una herramienta para lanzar un ataque directo. El proceso fue difícil de ejecutar. Requirió un escenario muy específico. El usuario tendría que preguntarle a una consulta relacionada con un tema (como HR) que el correo electrónico malicioso fue diseñado para explotar.
La amenaza también fue difícil Para las herramientas de seguridad tradicionales para detectar. Radware señaló que las medidas de seguridad estándar no podían ver ni detener el envío de datos. Esto se debe a que la exfiltración de datos se originó en la propia infraestructura de OpenAI, y no del dispositivo o navegador del usuario.
La vulnerabilidad parcheada rápidamente, pero refleja una nueva categoría de amenaza
Operai fue notificado de la falla y la parchó en agosto antes de reconocerlo en septiembre. Un portavoz de la compañía declaró que la seguridad de sus modelos es una prioridad. También dijeron que dan la bienvenida a la investigación de la comunidad que les ayuda a mejorar su tecnología.
Afortunadamente, esta vulnerabilidad ya no es explotable. Pero, el descubrimiento apunta a una nueva categoría de riesgos de seguridad. A medida que los agentes de IA se vuelven más poderosos e integrados en nuestra vida diaria, asegurar que no sean un vector para el robo de datos será un desafío crítico para los desarrolladores y los profesionales de ciberseguridad por igual.
Fuente: Android Headlines