Meta y Amazon se unen a Frontier Model Forum para promover el desarrollo responsable de los modelos de IA de frontera

Inteligencia Artificial (IA).
Inteligencia Artificial (IA). - PIXABAY
Publicado: martes, 21 mayo 2024 12:36

   MADRID, 21 May. (Portaltic/EP) -

Meta y Amazon se han asociado con Frontier Model Forum (FMF) para colaborar con su experiencia y promover la seguridad en el desarrollo de la Inteligencia Artificial (IA) más avanzada, en concreto, de los modelos más sofisticados de frontera.

   La iniciativa Frontier Model Forum se lanzó en julio del pasado año impulsada por cuatro de las empresas más destacadas del panorama de IA avanzada, como son OpenAI, Anthropic, Google y Microsoft, para buscar formas de desarrollo seguro y responsable de los denominados modelos de IA de frontera y, así minimizar los potenciales riesgos que puedan suponer para el individuo y la sociedad.

   En concreto, tal y como compartió la organización en ese momento, los modelos de frontera son aquellos modelos de aprendizaje automático a gran escala que "superan las capacidades actualmente presentes en los modelos existentes más avanzados y pueden realizar una amplia variedad de tareas".

   Ahora, de cara a continuar progresando para que los modelos de IA de vanguardia sean seguros, las compañías Meta y Amazon se han unido a Frontier Model Forum para ofrecer su conocimiento y experiencia, además de colaborar en la investigación.

   "Cuanto más segura sea la IA de frontera, más útil y beneficiosa será para la sociedad", ha señalado la organización en un comunicado en su web, al tiempo que ha destacado que, con la experiencia y conocimiento de Amazon y Meta como miembros, podrán "avanzar en la ciencia y la práctica de la seguridad de la IA".

   Esto se debe a que las firmas que se convierten en miembros del FMF comparten sus lecciones aprendidas y colaboran para desarrollar entendimientos compartidos sobre cómo la IA de frontera "podría plantear riesgos para la seguridad pública", además de para evaluar y mitigar dichos riesgos. Tras ello, la FMF aprovecha dichos aprendizajes colectivos para informar tanto al público general como a los organismos y compañías del sector, sobre normas de seguridad de la IA.

   En este sentido se ha pronunciado el presidente de Asuntos Globales de Meta, Nick Clegg, quien ha recordado que la compañía liderada por Mark Zuckerberg lleva "mucho tiempo" comprometida con el crecimiento y desarrollo continuo de un ecosistema de IA "más seguro y abierto".

   Así, Clegg ha puntualizado que FMF permite a Meta continuar con esta iniciativa junto a más socios de la industria, con el foco puesto en "identificar y compartir las mejores prácticas para ayudar a mantener los productos y modelos seguros", ha sentenciado.

   Por su parte, el vicepresidente senior de Políticas Públicas Globales y asesor general de Amazon, David Zapolsky, ha señalado el compromiso de la compañía para continuar impulsando la innovación, al tiempo que implementar "las salvaguardias necesarias" para proteger a los consumidores, todo ello a través de un trabajo colectivo con socios de la industria.

   Con todo ello, FMF ha manifestado que, durante los próximos meses, seguirá reuniendo a "líderes de la industria" con la sociedad civil, así como investigadores académicos y formuladores de políticas para discutir un enfoque colectivo sobre los riesgos y mitigaciones la IA más sofisticada.

Leer más acerca de: