Las empresas de IA ven limitaciones a la hora de entrenar modelos más grandes

Ahora mismo estamos en un punto en el que AI Los modelos están empezando a mostrar signos de inteligencia humana. Las empresas invierten miles de horas y miles de millones de dólares en entrenar sus modelos, pero pronto se dieron cuenta de que cargar sus modelos con más datos no producirá los resultados que desean. Las empresas de IA son trabajando para pasar una cierta limitación con modelos de entrenamiento.

Nadie puede imaginar la gran cantidad de datos que se han introducido en los modelos de IA hasta este momento. Las empresas han extraído datos de numerosas fuentes, como sitios de noticias, YouTubeplataformas de redes sociales y muchos más. Estas empresas obtuvieron gran parte de estos datos sin nuestro conocimiento, y esto continúa hoy.

La táctica para construir mejores modelos de IA ha sido entrenarlos con cantidades de datos cada vez mayores, por lo que las empresas han encontrado nuevas formas de recopilar más. Por ejemplo, empresas como OpenAI, Meta y Google han estado firmando acuerdos de licencia con varias empresas de medios para utilizar sus datos.

Las empresas de IA están intentando superar la limitación entrenando modelos grandes

Miles de millones de personas en todo el mundo crean contenido en línea cada día. Por lo tanto, es inconcebible que todos los datos del mundo puedan usarse para entrenar modelos de IA. Sin embargo, según un informe, es posible que muchos de los datos de fácil acceso en el mundo ya se hayan utilizado para entrenar modelos.

Este es un problema bastante importante porque a medida que los modelos crecen, necesitarán más datos de entrenamiento. Si las empresas ya se encuentran con limitaciones de datos tan pronto, entonces no hay posibilidad de que alcancen la AGI (Inteligencia General Artificial).

Abierto AI y el cofundador de Safe Superintelligence, Ilya Sutskever, dijeron que la etapa de entrenamiento de modelos de IA se ha estancado. Los modelos de IA más grandes y ávidos de datos simplemente no están produciendo el tipo de resultados que buscan las empresas. Por lo tanto, llenar estos modelos con más y más datos simplemente no es lo que se debe hacer.

No son solo los datos

Hay otros factores que conducen a esta limitación. En primer lugar, la IA no sólo requiere datos, sino también energía. La ejecución de centros de datos masivos con miles de chips y servidores realmente puede aumentar la factura de la luz. Esta es una de las razones por las que Google, OpenAI y Meta están investigando la energía nuclear. Bueno, si las empresas quieren entrenar modelos más grandes, tendrán que tener en cuenta cuánta energía costará.

A continuación, como afirmó Reuters, es probable que el hardware que alimenta estos modelos falle debido a su funcionamiento constante. Bueno, a medida que los modelos aumentan de tamaño, la tensión sobre los chips y otros componentes no hará más que aumentar.

Como tal, empresas como OpenAI, Google y otras han sido trabajando en otras formas de mejorar sus modelos sin volcar datos en ellos. Por ejemplo, Noam Brown, un investigador de OpenAI, dijo: «hacer que un robot piense durante solo 20 segundos en una mano de póquer obtuvo el mismo rendimiento que ampliar el modelo 100.000 veces y entrenarlo 100.000 veces más.«

Por lo tanto, la ampliación podría no ser el camino hacia la AGI. Las empresas buscarán formas innovadoras de lograr una IA más inteligente. En este momento, no sabemos qué van a hacer otras empresas, pero estamos seguros de que el panorama de la IA no será el mismo.

Fuente: Android Headlines

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *