OpenAI admite que la inyección rápida es una amenaza duradera para los navegadores de IA

OpenAI dice que está trabajando duro para hacer su Navegador Atlas AI más segurocomo advierten los expertos sobre los rápidos ataques de inyección. Lo peor es que es muy difícil detener este tipo de ataques. Ocultan instrucciones dañinas en correos electrónicos o páginas web y engañan AI agentes para que hagan algo incorrecto. El gigante tecnológico afirma que el problema no desaparecerá por completo.

Los navegadores de IA corren el riesgo de sufrir ataques de inyección rápida

OpenAI había lanzado su nuevo navegador AI, el ChatGPT Atlasallá por octubre de este año. Sin embargo, poco después del lanzamiento, los investigadores de seguridad demostraron cómo unas pocas palabras ocultas en un documento o correo electrónico podían cambiar el comportamiento del navegador. OpenAI también admitió que el modo agente del navegador podría aumentar los riesgos de seguridad. Esto se debe principalmente al hecho de que la IA puede controlar el sistema en nombre del usuario.

Otras empresas de todo el mundo coincidieron en que no es sólo problema de OpenAI. Brave, uno de los navegadores más populares, también advirtió que inyección inmediata podría afectar a muchos navegadores de IA. Otros gigantes tecnológicos, como Anthropic y Googledicen que estos ataques son problemas a largo plazo. Para empeorar las cosas, el Centro Nacional de Seguridad Cibernética del Reino Unido afirma que es posible que los ataques de inyección rápida nunca se puedan prevenir por completo.

El control de daños es la única solución al ataque.

El centro de investigación del Reino Unido aconseja además a las empresas centrarse en limitar los daños en lugar de intentar detener por completo la inyección rápida. OpenAI dice que su escudo contra tales ataques son pruebas y actualizaciones más rápidas.

Para resolver aún más el problema, la empresa ha desarrollado un modelo de inteligencia artificial que se entrena mediante aprendizaje por refuerzo para actuar como un hacker. Busca continuamente formas de engañar a los agentes de IA y prueba ataques en simulaciones. Esto ayuda a la empresa a solucionar o prevenir el ataque antes de que un atacante real pueda utilizarlo. OpenAI dice además que el sistema ya ha señalado nuevos métodos de ataque que los probadores humanos pasaron por alto.

Además, no se trata sólo de los navegadores y la tecnología empresas. El comportamiento del usuario también importa mucho. El investigador de Wiz, Rami McCarthy, explica que el riesgo de tales ataques aumentará aún más cuando la IA tenga más libertad y acceso a los datos confidenciales de los usuarios.

Fuente: Android Headlines

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *