MADRID, 16 Dic. (Portaltic/EP) -
El responsable de Insagram y Threads, Adam Mosseri, tiene claro que hay que tener en cuenta la fuente que difunde un contenido generado por inteligencia artificial (IA) para poder darle credibilidad.
Los contenidos generados por herramientas de inteligencia artificial se han vuelto tan realistas que en ocasiones cuesta distinguirlos de la realidad, lo que puede interferir en la percepción de las personas sobre los hechos. Empresas tecnológicas como Microsoft, Google y Meta han desarrollado una marca de agua que permite identificar estos contenidos que es, además, resistente a modificaciones.
Sin embargo, esta herramienta de transparencia no es suficiente, como entiende Adam Mosseri, ya que quién difunde un contenido es tan importante como el origen del mismo.
Ahora "se ha vuelto más importante considerar quién está diciendo algo que lo que está diciendo al evaluar la validez de una declaración", ha expresado en una hilo de publicaciones compartido en la red social Threads.
Mosseri recuerda así una lección que hace unos diez años compartió con él el inversor de capital riesgo Sam Lessin: "Cualquier afirmación debe evaluarse no solo por su contenido, sino también por la credibilidad de la persona o institución que la hace".
El directivo es consciente de que, aun etiquetando el contenido generado por IA, siempre habrá algo que se escape de su control, a lo que se añade que "no todas las interpretaciones erróneas se generarán con IA".
Por ello, cree que las plataformas de internet deben "proporcionar contexto sobre quién está compartiendo" ese contenido, para que el usuario pueda "evaluar por sí mismo cuánto quiere confiar" en ello.
"Cada vez será más importante que el espectador o lector tenga una mente perspicaz cuando consuma contenido que pretenda ser un relato o una grabación de la realidad. Mi consejo es que 'siempre' se tenga en cuenta quién es el que habla", concluye el responsable de Instagram.