MADRID, 21 Feb. (Portaltic/EP) -
Google ha lanzado dos nuevos modelos de Inteligencia Artificial (IA) de código abierto, Gemma 2B y 7B, diseñados para ayudar a los desarrolladores e investigadores a crear IA "de forma responsable", a partir de la misma tecnología utilizada en su IA multimodal Gemini.
El gigante tecnológico ha compartido su intención de hacer que la IA "sea útil para todos", en concreto, facilitando nuevos modelos de IA de código abierto, lo que garantiza que cualquier desarrollador pueda acceder a esta tecnología y experimentar con ella.
En este sentido, Google ha presentado su nueva familia de modelos de IA de código abierto Gemma, que se compone de dos modelos de distintos tamaños, Gemma 2B y Gemma 7B, diseñados para ayudar a los desarrolladores a generar IA de forma responsable. Cada tamaño se presenta con variantes entrenadas previamente y permiten tanto la investigación como el desarrollo.
Así lo ha detallado la compañía en un comunicado en su blog, en el que ha matizado que están desarrollados por Google DeepMind y otros equipos de la tecnológica, inspirados en su modelo de IA multimodal de mayor tamaño Gemini, ya que están construidos a partir de la misma investigación y tecnología, además de cque comparten componentes técnicos y de infraestructura.
De esta forma, según ha explicado, los modelos Gemma 2B y 7B son capaces de lograr "el mejor rendimiento de su clase" para sus tamaños, en comparación con otros modelos abiertos del sector. Concretamente, la compañía ha asegurado que su nueva familia de modelos "supera significativamente" a otros modelos más grandes "en puntos de referencia clave".
COMPATIBILIDAD DE USO
Siguiendo esta línea, los modelos Gemma pueden utilizarse a través de las herramientas para desarrolladores Kaggle y Hugging Face. También están optimizados para Google Cloud, con la plataforma de aprendizaje automático de la compañía, Vertex AI, que ofrece un amplio conjunto de herramientas MLOps con el que permite varias opciones de ajuste e implementación "con un solo clic", mediante optimizaciones de inferencia integradas. Incluso, Google se ha asociado con Nvidia para que Gemma sea compatible para las GPU de la compañía.
Además, Google ha especificado que son dos modelos capaces de ejecutarse directamente en un ordenador portátil o de escritorio, y también en dispositivos móviles y la nube, de cara a hacer sus capacidades de IA "ampliamente accesibles".
DESARROLLO DE IA RESPONSABLE
Asimismo, la compañía ha insistido en que se trata de una familia de modelos diseñada para crear IA de forma responsable. En este marco, ha asegurado que cumple con los estándares de Google para ofrecer resultados "seguros y responsables".
De cara a garantizar esta seguridad, Google ha detallado que ha utilizado técnicas automatizadas en los modelos previamente entrenados de Gemma para filtrar "cierta información personal y otros datos confidenciales" de los conjuntos de entrenamiento.
En el entrenamiento de los modelos también han utilizado aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF, por sus siglas en inglés) para que estén alineados con los comportamientos responsables de la empresa.
Con todo ello, tras su entrenamiento, Gemma ha sido evaluada por equipos rojos manuales, es decir, personal especializado que ha llevado a cabo pruebas adversas automatizadas y evaluado sus capacidades para actividades peligrosas.
Por otra parte, los desarrolladores podrán acceder a un kit de herramientas de inteligencia artificial responsable. Este kit dispone de funciones que permiten a los desarrolladores configurar barreras como, por ejemplo, limitar el uso de ciertas palabras por parte de la IA. También incluyen otras herramientas que facilitan a los desarrolladores analizar los comportamientos de los modelos para identificar problemas y corregirlos posteriormente.
Google ha detallado que Gemma ya está disponible para todos los desarrolladores a nivel global. Asimismo, los términos de uso de estos modelos permiten su uso comercial y la distribución responsable "para todas las organizaciones", sin importar su tamaño.
Sin embargo, según las declaraciones de la directora de Gestión de Producto de Google DeepMind, Tris Warkentin, a The Verge, actualmente los modelos funcionan de forma más adecuada para tareas en inglés, aunque esperan "colaborar con la comunidad" para abordar las necesidades de los desarrolladores en otros idiomas.