OpenAI tiene GPT, Google tiene Gemini y xAI tiene Grok. Todas las principales empresas de inteligencia artificial de la industria tienen sus modelos emblemáticos, y el de Meta es Llama. El miércoles Meta anunció su nuevo modelo de IA llamado Llama 3.2, y esta actualización le da al modelo un par de ojos.
Meta anunció algunas cosas bastante interesantes durante su evento de ayer, como su nuevas gafas orion. Los fanáticos de la compañía seguramente estarán emocionados de ver cómo la compañía quiere combinar IA y AR (realidad aumentada) de maneras creativas. Además, echamos un vistazo a la nueva Meta búsqueda 3un visor de realidad virtual más asequible de la empresa.
Meta anunció el nuevo modelo Llama 3.2 y puede entender imágenes
Uno de los pasos más grandes que un AI Lo que la empresa debe tomar es hacer que sus modelos sean multimodales. Esto significa que puede comprender y crear diferentes tipos de medios. Por tanto, un modelo que puede procesar tanto texto como vídeos se considera multimodal.
La capacidad de comprender imágenes le da al modelo algunas ventajas importantes. Para empezar, el modelo podrá ver un video en vivo y comprender lo que ve. Esto es algo que puede mejorar enormemente la experiencia de RA. Como señaló The Verge, los desarrolladores podrán utilizar el modelo al desarrollar aplicaciones AR que requieran una comprensión en tiempo real de su entorno.
Hay diferentes modelos asociados con Llama 3.2 y tendrán diferentes aplicaciones. Dos de ellos son modelos de visión: uno tiene 11 mil millones de parámetros y el otro 90 mil millones. Además de estos, hay dos modelos de sólo texto, uno con mil millones de parámetros y otro con 3 mil millones. Al igual que Gemini, los modelos Llama más pequeños están diseñados para implementarse en teléfonos.
Esto significa que Gemini podría tener cierta competencia en el futuro si estos modelos comienzan a intercambiar golpes. Sólo el tiempo dirá si meta El modelo será compatible con lo que Google ya ha establecido.
Fuente: Android Headlines