OpenAI forma una junta de seguridad (más o menos) independiente

La seguridad es un tema candente para todas las empresas que desarrollan tecnología IA , y esto se aplica especialmente a una de las empresas de inteligencia artificial más grandes de la industria, ChatGPT fabricante OpenAI. Después de una extensa revisión de seguridad de los procesos y salvaguardas relacionados con la seguridad y la protección de la empresa, OpenAI ha estableció una junta de seguridad independiente. El caso es que no sabemos realmente hasta qué punto es independiente.

OpenAI AI ha experimentado menos drama que algunas de las empresas de tecnología más grandes, pero eso no quiere decir que no lo haya. Ha habido un poco de tensión en torno a la empresa y cómo maneja la seguridad. La antigua junta de supervisión de seguridad estaba formada por todas las personas asociadas con OpenAI. Imagínese darle a un niño la responsabilidad de imponerse un tiempo de espera si se porta mal.

Incluso hubo rumores de que la empresa negó computación y recursos a sus anteriores investigadores de seguridad. Uno de sus antiguos empleados básicamente dijo que la seguridad pasaría a un segundo plano frente a los nuevos y brillantes productos. Así pues, la cultura de seguridad en la empresa aún tiene un largo camino por recorrer.

OpenAI tiene una nueva junta de seguridad independiente

La revisión de 90 días terminó y cayó el martillo. OpenAI ha formado una nueva junta de supervisión independiente. Esta junta tendrá una influencia significativa sobre los productos de la compañía, incluida la capacidad de incluso retrasar el lanzamiento de un modelo si detecta alguna señal de alerta. Esto es similar a la junta de supervisión que tiene Meta, pero hay una diferencia bastante grande.

Lo que pasa con la junta de supervisión de Meta es que, si bien tiene “Meta” en el nombre, nadie en la junta está asociado con la empresa. La junta directiva de OpenAI , por otro lado, está compuesta exclusivamente por miembros de OpenAI. Estos miembros incluyen a Adam D’Angelo, Paul Nakasone y Nicole Seligman con Zico Kolter como presidente. Sam Altman no actuará en esta junta.

Según una publicación del blog de OpenAI la junta “será informada por los líderes de la compañía sobre las evaluaciones de seguridad para los principales lanzamientos de modelos y, junto con la junta en pleno, ejercerá supervisión sobre los lanzamientos de modelos, incluida la autoridad para retrasar un lanzamiento hasta que se aborden los problemas de seguridad”.

¿Independiente?

Queda la pregunta de si esto realmente podría considerarse una junta independiente. Necesita tener fuerzas externas que gobiernen los lanzamientos de IA si quiere una junta independiente. ¿Cómo podemos confiar en que una junta de personas directamente asociadas con OpenAI vigile adecuadamente la empresa? Si el próximo modelo de la compañía es un éxito, eso podría impulsar a OpenAI (y a los miembros de la junta directiva) a nuevas alturas, por lo que existe un incentivo para dejar la seguridad en el camino.

OpenAI ha tenido problemas en lo que respecta a la seguridad. Nuevamente, escuchamos quejas de que la compañía priva de computación a sus investigadores de seguridad, luego escuchamos que estableció una junta de supervisión del personal de OpenAI en mayo. Ahora, después de la revisión, ¡tenemos otra junta de supervisión de miembros de OpenAI! Sólo el tiempo dirá si la empresa realmente podrá mantenerse a salvo. De lo contrario, las consecuencias podrían ser graves.

Fuente: Android Headlines

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *