Ai sigue alucinando, pero bueno, suena muy seguro de eso

¿Cuánto puedes confiar en la IA? Cuando le hace una pregunta, le devuelve las respuestas de una manera tan segura que es difícil no tomarla en su palabra. De hecho, con cada actualización, los modelos de IA se están volviendo más inteligentes. Desafortunadamente, también parece que hay crecientes informes de alucinaciones de IA.

Las alucinaciones de IA están aumentando

Una investigación reciente realizada por el New York Times descubrió que las alucinaciones de IA están aumentando. Esto a pesar del hecho de que muchos modelos de IA se están volviendo más inteligentes. Muchos son mucho mejores para resolver problemas matemáticos que antes. Algunos son capaces de realizar investigaciones profundas, pero aún no pueden aclarar sus hechos.

El informe cita una instancia en la que un bot de IA que maneja el soporte técnico para una empresa llamada Cursor dijo a los clientes que ya no se les permitía usar el cursor en múltiples computadoras. Los cambios en las políticas son normales. Pero en este caso, estaban completamente equivocados. El cursor contactó a los clientes, informándoles que no existía dicho cambio de política.

De hecho, las pruebas ChatGPT de OpenAI han descubierto que sus modelos más nuevos, que se supone que son mejores, alucinan a un ritmo más alto que sus modelos más antiguos. Por ejemplo, el modelo O3 de OpenAI alucinó el 33% del tiempo al ejecutar la prueba de referencia Personqa. Eso es el doble que el modelo O1. ¿Y O4-Mini? Eso es aún peor, alucinado a una tasa del 48%.

Entonces, la pregunta es, ¿se pueden solucionar las alucinaciones? Según AMR Awadallah, director ejecutivo de Vacerara y ex ejecutivo de Google, no. Awadallah dice, «A pesar de nuestros mejores esfuerzos, siempre alucinarán. Eso nunca desaparecerá».

¿Qué son las alucinaciones?

Para aquellos que no están familiarizados con el concepto de alucinaciones de IA, es una instancia en la que un modelo de IA inventa hechos en el acto, aparentemente de la nada. Algunos han teorizado que algunos modelos de IA alucinan debido a la cantidad de razonamiento que tienen que hacer.

Los modelos de IA más simples dependen de predicciones de alta confianza, lo que significa que toman menos riesgos. Sin embargo, algunos modelos de IA que incorporan capacidades de razonamiento deben evaluar diferentes posibilidades. En algunos casos, incluso podrían tener que improvisar, lo que puede llevarlos a inventar las cosas.

Es por eso que, si usa AI para fines de investigación, probablemente sea una buena idea verificar ciertos hechos. Esto parece contradictorio, pero si está utilizando AI para investigar para el trabajo o la escuela, entonces quizás tomarse un poco más de tiempo para hacerlo bien será de gran ayuda.

El post Ai sigue alucinando, pero bueno, suena muy seguro de eso apareció primero en Titulares de Android.

Fuente: Android Headlines

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *