Hemos oído hablar de cómo AI podría reemplazar nuestros trabajos algún día. Ya estamos viendo cómo AI ha reemplazado los roles de los escritores y diseñadores gráficos. Pero, ¿qué pasaría si AI pudiera reemplazar a los cazadores de errores? Resulta que puede. De acuerdo a Googlees un cazador de bugs de ai gran sueño ha informado sus primeras vulnerabilidades.
Google AI Bug Hunter encuentra vulnerabilidades
Esto es según Heather Adkins, vicepresidente de seguridad de Google, que compartió las noticias En una publicación en x. Para aquellos desconocidos, Big Sleep es un cazador de insectos AI basado en Google LLM. Fue desarrollado por el departamento de DeepMind de Google junto con los piratas informáticos en el Proyecto Zero, otra división en Google dedicada a encontrar fallas de seguridad y vulnerabilidades.
Dicho esto, no estamos seguros de cuán grande tiene estas vulnerabilidades o cuán severos son. Esto se debe a que las vulnerabilidades aún no se han solucionado. Es una práctica estándar, incluso en el Proyecto Zero, donde Google ofrece a las empresas un período de gracia para solucionar los problemas antes de informarlo públicamente.
Sin embargo, la conclusión aquí es el hecho de que AI logró encontrar estas vulnerabilidades. En declaraciones a TechCrunch, la portavoz de Google, Kimberly Samra, dijo: «Para garantizar informes de alta calidad y procesables, tenemos un experto humano en el ciclo antes de informar, pero el agente de IA encontró y reproducido por la intervención humana».
Tomando lo bueno con lo malo
Es obvio que tener un AI Capaz de descubrir fallas de seguridad y vulnerabilidades es algo bueno. La IA no duerme, a diferencia de los humanos. Esto significa que puede estar constantemente en la búsqueda de fallas antes de que se convierta en un problema. Dicho esto, el gran sueño de Google no es el primero de su tipo. Hay otras herramientas de IA como RunSybil y Xbow.
De hecho, Xbow llegó a los titulares cuando llegó a la parte superior de las tablas de clasificación de los Estados Unidos en el Hackerone Programa de recompensas de errores. Pero antes de que nos emocionemos demasiado, todavía hay muchos problemas que deben resolverse. Ha habido varios informes en los que la IA ha informado de errores que resultaron ser alucinaciones.
Las alucinaciones son un problema de IA conocido, donde la IA simplemente inventa algo. Lo hemos visto suceder cuando le pides que proporcione información y extrae algo formado completamente desde el aire. Según Vlad Ionescu, cofundador y director de tecnología de Runsybil, le dijo a TechCrunch: «Ese es el problema con el que la gente se encuentra, es que estamos obteniendo muchas cosas que parecen oro, pero en realidad es solo una mierda».
Fuente: Android Headlines