MADRID, 25 Sep. (Portaltic/EP) -
Microsoft ha presentado una nueva función de Corrección ligada al servicio Azure AI Content Safety que ayuda a resolver problemas de alucinación de Inteligencia Artificial (IA) en tiempo real, con capacidad de identificar, marcar y reescribir resultados de IA inexactos.
La tecnológica continúa trabajando en su compromiso de garantizar una IA de confianza, en el marco de su iniciativa 'Trustworthy AI', que está enfocado en ayudar a los clientes a usar y crear IA segura, "que vele por la privacidad y tenga los máximos niveles de protección".
En este sentido, Microsoft ha anunciado nuevas capacidades y funcionalidades para mejorar la protección y la privacidad de los sistemas de IA, de cara a que los clientes los aprovechen y mitiguen los riesgos que puede ocasionar esta tecnología.
Entre estas novedades, la tecnológica estadounidense ha presentado una nueva función de Corrección, con la que es capaz de identificar y resolver comportamientos de alucinación a la hora de utilizar modelos de IA. En concreto, esta herramienta puede detectar y rescribir el contenido incorrecto de los resultados de IA, de forma automática.
Tal y como ha detallado en un comunicado en su web, esta función de Corrección está integrada en el servicio Azure AI Content Safety, el conjunto de herramientas enfocadas a ofrecer una protección avanzada para lograr una IA responsable. Entre estas herramientas se encuentran funciones como la de detectar vulnerabilidades, bloquear mensajes maliciosos y el sistema de identificación de alucinaciones.
Así, esta nueva función de Corrección está basada en dicho sistema de identificación de alucionaciones para los reusltados de los modelos de lenguaje grandes (LLM) que, presentado en marzo de este año, utiliza una característica de 'conexión a tierra' diseñada para identificar alucinaciones basadas en texto para aplicaciones que utilizan documentos, como las que hacen resúmenes o funcionan como 'copilotos' de preguntas y respuestas.
Ahora, la Corrección se une a este conjunto de herramientas en versión preliminar, de manera que, una vez activada, escaneará los resultados de IA e identificará las imprecisiones en la información mostrada. Tras ello, procederá a rescribir la respuesta para corregir el error de forma automática.
Se ha de tener en cuenta que esta herramienta identificará los posibles fallos comparando los resultados de la IA con el material original del cliente en cuestión. Asimismo, cuando identifique un error, también ofrecerá información sobre por qué se trata de una respuesta incorrecta. Todo ello, se lleva a cabo antes de que el usuario final que utilice aplicaciones de IA pueda ver el fallo.
No obstante, aunque se trata de una herramienta de corrección, Microsoft ha detallado que no está extenta de cometer errores. Esto se debe a que, tal y como ha detallado un portavoz de Microsoft a TechCrunch, se basa en modelos de lenguaje pequeños y grandes para "alinear los resultados con los documentos de base". Por tanto, si estos modelos también tienen fallos, es posible que el error se traslade a la función de Corrección.
"Es importante tener en cuenta que la detección de la base no resuelve la 'precisión', pero ayuda a alinear los resultados de la IA generativa con los documentos de base", ha explicado el portavoz de Microsoft.
Igualmente, desde la compañía han resaltado la importancia de disponer de capacidad de corrección para sistemas de IA, dado que las preocupaciones sobre las alucinaciones "han frenado muchas implementaciones de GenAI en dominios de mayor importancia", así como han evitado una implementación más amplia de Copilots.
De esta forma, al disponer de la función Corrección, Microsoft confía en que las organizaciones podrán implementar interfaces conversacionales para sus clientes con mayor confianza.