Meta Connect acaba de ocurrir y fue fantástico. Están dejando fuera a la competencia.
Primero que nada, comparten sus modelos con el mundo Open Source, lo que significa que cualquiera que pueda ejecutar estos modelos puede modificarlos y ejecutarlos por sí mismo, a diferencia de la competencia OpenAI y Google.
Además, finalmente lanzaron un modelo en el dispositivo que es diminuto (1 billón de parámetros) pero no requiere mucha potencia de procesamiento. Básicamente, lo que están hablando es de un pequeño modelo de IA que finalmente puede funcionar en tu dispositivo para que pueda decirte cómo cocinar galletas incluso si estás sin conexión a internet. Incluso podrías preguntarle cómo sobrevivir en una isla como Robinson Crusoe.
Hablando de modelos, Meta también anunció otro nuevo modelo para Llama 3.2, un modelo multimodal de 90 billones de parámetros. Es el primer modelo de código abierto que es nativamente multimodal. ¿Por qué nos importa la multimodalidad? Es simplemente una jerga de las empresas tecnológicas para decir que esta IA también puede ver imágenes. Ahora podemos usarlo para alimentar imágenes de gatos, y finalmente entenderá cuál gato es el más bonito. Qué difícil es actualmente ir a un refugio y adoptar un gato, si no puedes pedirle a la IA que lo elija por ti...
Ray-Ban Meta Glasses
Además de una demostración genial sobre cuán impresionantes son sus modelos, Meta mostró la aplicación de sus Modelos de IA. Sus gafas Ray-Ban Meta 🕶️ son de hecho una pieza maravillosa de ingeniería, ahora podrán ver e incluso recordar cosas que ya has visto.
Creo que este es el mejor dispositivo de hardware de IA que hemos visto hasta ahora para el consumidor promedio. Sí, son un poco caras a $320, pero a cambio obtienes unas gafas bastante elegantes, una cámara, auriculares y acceso directo a tus perfiles de Instagram y Facebook para que puedas subir fotos osadas sin usar tu teléfono móvil 👌. Honestamente, dado que los auriculares por sí solos cuestan más de $300 hoy en día, me parece una oferta bastante decente.