MADRID, 29 Abr. (Portaltic/EP) -
Snowflake ha presentado su nuevo modelo de lenguaje de gran tamaño (LLM), Arctic, que es igual o más efectivo que el último modelo de Meta, Llama 3, en tareas empresariales como instrucción de SQL y generación de código, además de tener un coste de formación bajo.
La compañía de almacenamiento de datos en la nube ha recordado que habitualmente, construir herramientas impulsadas por Inteligencia Artificial (IA) utilizando LLM para empresas "es costoso y requiere muchos recursos". En base a ello, han trabajado en un sistema que reduzca significativamente el coste de la capacitación y la inferencia de los LLM, y para que sea una tecnología más accesible y rentable.
En este marco, los miembros del equipo de Snowflake AI Research han presentado Arctic, un LLM "de primer nivel" enfocado a su uso en empresas, que es "eficientemente inteligente y verdaderamente abierto", ya que, por un lado, sobresale en tareas como la generación, codificación e instrucción de SQL; y por otro, utiliza la licencia Apache 2.0.
Tal y como ha subrayado la compañía en un comunicado en su blog, las capacidades de Arctic están "a la par o mejor" que los modelos de IA recientemente presentados de Meta, Llama 3 8B y Llama 2 70B, en lo relacionado a las métricas empresariales de capacitación e inferencia, utilizando menos de la mitad del presupuesto de computación.
Concretamente, según ha dicho la tecnológica, a pesar de utilizar un presupuesto de computación 17 veces menor que Llama 3 70B, alcanza el mismo nivel de resultados en instrucción de SQL (puntuación de 79,0 de Arctic, frente a 80,2 de Llama 3 70B) y seguimiento de instrucciones, con una puntuación de 57,4 de Arctic, que supera a la puntuación de 43,6 que consigue el modelo de Meta.
Asimismo, Snowflake ha asegurado que, aunque utiliza menos presupuesto, lo hace "sin dejar de ser competitivo en cuanto a rendimiento general". Siguiendo esta línea, la tecnológica ha destacado que la "alta eficiencia de entrenamiento" de Arctic también permite a los usuarios y organizaciones entrenar modelos personalizados "de una manera mucho más asequible".
En este sentido, para lograr esta eficiencia en la capacitación, la compañía ha explicado que utiliza una arquitectura de transformador híbrido de Mezcla de Expertos (MoE) denso.
De esta forma, combina un modelo de transformador denso de 10B, con un MLP MoE residual de 128 x 3,66B, lo que, según ha dicho, da como resultado un total de 480B y 17B de parámetros activos "elegidos mediante una puerta de 2 niveles". Es decir, el modelo escoge y activa 17.000 millones de parámetros de entre sus 480.000 millones de parámetros a la vez, lo que asegura más eficiencia.
Además de todo ello, se trata de un LLM "verdaderamente abierto" debido a que Snowflake publica los pesos de Arctic a través de la licencia Apache 2.0, lo que permite compartir detalles sobre la investigación de la IA y la metodología de entrenamiento del modelo. Asimismo, permite utilizar Arctic tanto para fines comerciales como para investigación.
Con todo ello, Snowflake ha señalado que el LLM Arctic está disponible en las plataformas Hugging Face, Replicate y el catálogo de API de Nvidia. Además, estará disponible en Amazon AWS, Microsoft Azure, Lamini o Perplexity "en los próximos días".