Archivo - Imagen de la interfaz de un móvil Android con el Teléfono de Google, Mensajes, Play Store, Google Chrome, Cámara y el buscador de Google - DANIEL ROMERO/UNSPLASH - Archivo
MADRID, 7 Jun. (Portaltic/EP) -
Los desarrolladores que quieran que sus aplicaciones de inteligencia artificial (IA) generativa se distribuyan en Google Play Store deberán impedir la creación de contenidos no permitidos y facilitar herramientas de denuncia que ayuden a mejorar la herramienta.
Google ha actualizado sus políticas para incluir una específica para las aplicaciones que usan IA generativa, dado que esta tecnología es cada vez más accesible y los desarrolladores puedenincluirla "para aumentar la interacción y mejorar la experiencia de usuario".
La política se centra en concreto en las 'apps' que generan contenido, como los 'chatbots' o las herramientas que crean imágenes a partir de una descripción. A ellas se les exige que "prohíban o impidan la generación de contenido no permitido", como pueden ser imágenes de desnudos falsos o con manipulaciones que busquen engañar.
Asimismo, deben incluir funciones internas que permitan a los usuarios denunciar o notificar cuando detecten que la 'app' se usa para generar contenido no permitido u ofensivo, que, según Google, los desarrolladores deberán usar para "mejorar el filtrado y la moderación del contenido de sus aplicaciones".