Logotipo horizontal de Diego C Martín colores invertidos, blanco y naranja para findo negro

Eche un vistazo a Meta’s Llama 3 con una versión pequeña disponible la próxima semana, antes del lanzamiento completo este verano.

Categorías:  Autor: Diego C Martin 
img-1

1. Meta puede lanzar la próxima versión de su modelo de lenguaje Llama 3 la próxima semana.
2. Llama 3 vendrá en varios tamaños, incluida una versión pequeña para un lanzamiento anticipado y un modelo completo de código abierto en julio.
3. Se espera que Llama 3 sea multimodal y tenga una variedad de tamaños, con menos controles de moderación que su predecesor.

Meta lanzará la próxima versión de su modelo de lenguaje grande, Llama 3, la próxima semana, y se espera que salga un modelo completo de código abierto en julio. La compañía está invirtiendo mucho en sistemas avanzados de inteligencia artificial, incluida la compra de GPU H100 de Nvidia para entrenar Llama y otros modelos. Llama 3 abarcará desde versiones pequeñas para competir con otros modelos como Claude Haiku y Gemini Nano, hasta modelos más grandes que pueden brindar respuestas completas y razonamientos similares a GPT-4 y Claude Opus.

Se espera que Llama 3 sea de código abierto y multimodal, capaz de comprender entradas tanto visuales como de texto. Vendrá en varios tamaños, desde 7 mil millones de parámetros hasta más de 100 mil millones de parámetros, más pequeños que los más de un billón de parámetros utilizados para entrenar GPT-4. Es probable que el nuevo modelo sea menos cauteloso que su predecesor, con menos controles de moderación y barreras de seguridad.

La decisión de Meta de lanzar una versión pequeña de Llama 3 anticipadamente puede ser parte de un calendario de lanzamiento consistente y generar entusiasmo en torno al próximo modelo de IA. Los modelos más pequeños como el Claude 3 Haiku de Anthropic ya muestran capacidades similares a las de modelos más grandes como el GPT-4. El espacio de modelos de IA está creciendo rápidamente y volviéndose competitivo, con nuevos modelos de empresas como DataBricks, Mistral y StabilityAI. Los modelos más pequeños también resultan atractivos para las empresas por su rentabilidad, facilidad de ajuste y potencial para ejecutarse en hardware local.

Enlace fuente

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Artículos de la misma categoría

crossmenu
linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram