Los modelos de IA podrían estar intrigando contra nosotros, y nunca lo sabremos

AI Modelos como ChatGPT son software, lo que significa que siguen un conjunto específico de instrucciones. Pero a diferencia del software regular, como un procesador de textos, la IA es «inteligente». Los sistemas con IA pueden aprender y evolucionar. Pero podrían los modelos de IA evolucionar hasta el punto ¿Dónde podrían estar planeando contra nosotros sin nuestro conocimiento?

El esquema de los modelos de IA

La información habló con un investigador de OpenAi que sugirió que tal vez en un año más o menos, los modelos de IA podrían volverse tan inteligentes y evolucionados que ellos podría estar planeando contra nosotros, Y no seríamos los más sabios.

¿Cómo es esto posible, preguntas? Piense en su proceso de pensamiento actual. Si alguien le preguntara qué es 2+2, presentaría su secuencia de pensamiento de manera lógica. Sin embargo, el proceso crítico de AI no es tan blanco y negro.

Por ejemplo, el modelo R1 de Deepseek se analizó cuando se le pidió que resolviera un problema de química. Dio la respuesta correcta, pero el proceso crítico fue un montón de galimatías que los humanos podrían no poder entender. Esto se debe a que el proceso de pensamiento utilizado por los modelos AI es algo que no necesariamente necesita significar nada para los humanos; Solo necesita resolver el problema. Cómo llega allí realmente no importa, siempre que lo haga.

Esto significa que a medida que AIS continúa aprendiendo y evolucionando, podría llegar un punto en el tiempo en que están tramando algo a nuestros espaldas, y no podríamos decirlo. Dejando de lado el escenario de Terminator-esque, esto también presenta un problema para las compañías de IA.

Cuando el software no hace lo que se supone, los desarrolladores verifican los registros para ver lo que está sucediendo. Luego pueden identificar el error y volver al código para solucionarlo. Sin embargo, si el proceso es completamente ininteligible para los humanos, ¿cómo podrían encontrar los ingenieros de IA encontrar el problema y ajustar el modelo AI?

El llamado a la regulación

Los avances realizados en IA en los últimos años son saltos y límites por delante de lo que se ha hecho en el pasado. Este ritmo vertiginoso de desarrollo es impresionante pero también preocupante. Por eso es esencial regular la IA. De acuerdo, las reglas y regulaciones podrían reducir la velocidad del progreso, pero ¿realmente queremos correr hacia un futuro donde la IA ha superado a la humanidad?

Ya hemos visto evidencia de cómo AI puede asumir diferentes personajes basado en sus datos de entrenamiento. Esto significa que es posible que alguien programa una IA con una personalidad «malvada». También hemos visto estudios alarmantes en los que un modelo de IA estaba dispuesto a matar a los humanos en un escenario hipotético para evitar que se cierre.

Fuente: Android Headlines

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *