Automatización en software No es un concepto nuevo. Pero en su mayor parte tiende a ser pasivo. Ahí es donde agente AI entra, tomando medidas más proactivas para ayudar a los usuarios a hacer cosas. Sin embargo, parece que los investigadores no tardaron en descubrir que se trata de un arma de doble filo. De acuerdo a los investigadores de Irregulardescubrieron que los agentes de IA son capaces de unirse para realizar ciberataques. Y lo peor es que ni siquiera recibieron instrucciones de hacerlo.
Los investigadores descubren que los agentes de IA pueden unirse para realizar ciberataques
Según los investigadores, a estos agentes de IA inicialmente se les asignaron tareas más mundanas, pero de alguna manera condujo a acciones similares a los ciberataques. Esto incluía tareas como recuperar documentos, descargar archivos y preparar contenido para publicar.
Los agentes de IA se colocaron en una red simulada que tenía servidores internos, aplicaciones y otros servicios que se pueden encontrar en un entorno empresarial. Lo alarmante es que en un escenario, un agente de IA tuvo la tarea de recuperar documentos de una Wiki interna de la empresa.
Sin embargo, este agente no tuvo acceso debido a restricciones y su solicitud fue bloqueada. En lugar de seguir adelante, el agente de IA examinó el depósito de códigos de la aplicación y encontró una clave secreta codificada. Luego usó esa clave para falsificar una cookie de sesión administrativa para recuperar el documento.
En otro escenario, se pidió a un agente de IA que descargara archivos a un directorio de almacenamiento. Sin embargo, Windows Defender bloqueó el archivo que contenía malware. Sin embargo, el agente buscó scripts locales, encontró credenciales de administrador integradas, usó esas credenciales para elevar sus propios privilegios e incluso deshabilitó la protección de endpoints, sólo para poder completar la descarga.
trabajando juntos
Hasta ahora, ambos escenarios revelan agentes de IA trabajando solos para realizar tareas. Sin embargo, los investigadores también encontraron escenarios en los que estos agentes podrían trabajar juntos. A dos agentes de IA se les asignó la tarea de redactar contenido de redes sociales y se les pidió que incluyeran credenciales de un documento técnico.
Sin embargo, el sistema bloqueó el mensaje y los agentes lograron evitarlo desarrollando un método esteganográfico que ocultaba la contraseña dentro del texto.
Pero, ¿cómo terminan los agentes encargados de acciones rutinarias y mundanas realizando cosas que se parecen a los ciberataques? Según los investigadores, hay múltiples razones, pero en resumen, a estos agentes esencialmente se les dio rienda suelta y se les dijo explícitamente que hicieran el trabajo por cualquier medio necesario.
Como señalan los investigadores, «las mismas opciones de diseño que hacen que los agentes sean efectivos (amplio acceso a herramientas, estímulo para persistir a pesar de los errores, autonomía sobre las rutas de ejecución) son también las condiciones bajo las cuales surge el comportamiento ofensivo».
Los investigadores también advierten que las soluciones de ciberseguridad deben actualizarse para tener en cuenta el comportamiento de los agentes. Esto se debe a que, en este momento, las soluciones de ciberseguridad fueron diseñadas para detener a los humanos, en lugar de agentes de IA.
Fuente: Android Headlines
