Todavía estamos averiguando el alcance total de las capacidades de la IA. A veces estos hallazgos son sorprendentemente agradables, como descubrir que AI puede crearle un sitio web desde cero incluso si no tiene conocimientos de codificación. Pero a veces estos hallazgos son oscuros e inquietantes, donde la gente se está perdiendo chateando sin parar con chatbots de IA. Tanto es así que el director ejecutivo de OpenAI, Sam Altman, ha anunciado un nuevo puesto en la empresa, un jefe de preparación, cuyo trabajo es preocuparse por los peligros de la IA.
OpenAI busca contratar un jefe de preparación
Entonces, ¿qué implicará este rol de Jefe de Preparación en OpenAI? De acuerdo a Sitio web de OpenAIdice, «Como Jefe de Preparación, usted liderará la estrategia técnica y la ejecución del marco de Preparación de OpenAI, nuestro marco explica el enfoque de OpenAI para rastrear y prepararse para capacidades de vanguardia que crean nuevos riesgos de daños graves».
en su publicar en XAltman también dice: «Ésta es una función fundamental en un momento importante; los modelos están mejorando rápidamente y ahora son capaces de hacer muchas cosas maravillosas, pero también están comenzando a presentar algunos desafíos reales. El impacto potencial de los modelos en la salud mental fue algo de lo que vimos un adelanto en 2025; ahora estamos viendo que los modelos se vuelven tan buenos en seguridad informática que están comenzando a encontrar vulnerabilidades críticas».
Básicamente, parece que OpenAI está buscando contratar a alguien para supervisar los peligros que plantea la IA.
Este papel es más importante que nunca.
Esta contratación llega en un momento crítico. Como dijimos, existen peligros ocultos de la IA en los que la mayoría de nosotros quizás no pensemos. Por ejemplo, sólo este año nos hemos topado con varias historias preocupantes de personas suicidarse por culpa de la IA. Esto se debe a la forma natural y realista en que responde la IA.
Para algunos, esto creó inadvertidamente un compañero disponible las 24 horas del día, los 7 días de la semana, que siempre está de acuerdo con lo que dicen. No sólo eso, sino que el lanzamiento de herramientas de IA agentes es creando toda una serie de problemas también. Esto incluye inyecciones rápidas, que podrían permitir a un atacante tomar el control de la IA y utilizarla con motivos nefastos.
Las herramientas de IA agente suenan muy bien sobre el papel. Una IA que pueda automatizar tareas aburridas y repetitivas, ¿por qué no? Pero problemas como este sugieren que todavía queda un largo camino por recorrer para descubrir problemas y lagunas de seguridad.
Fuente: Android Headlines
