L’essor de l’intelligence artificielle générative a bouleversé notre perception des images, ébranlant notre confiance en leur authenticité. Face à ce défi, l’industrie technologique doit agir de manière responsable pour garantir la transparence dans l’utilisation de ces outils. Dans cette optique, Google a annoncé une nouvelle fonctionnalité dans Google Photos visant à informer les utilisateurs lorsqu’une image a été modifiée à l’aide de l’IA.
Les Métadonnées : Un pas vers plus de transparence
À partir de la semaine prochaine, Google Photos indiquera clairement si une image a été éditée avec des outils d’intelligence artificielle. Comme l’explique John Fisher, directeur de l’ingénierie chez Google Photos, les photos éditées avec des outils tels que Magic Editor, Magic Eraser ou Zoom Enhance incluront désormais des métadonnées spécifiques. Ces métadonnées, basées sur les normes techniques de l’International Press Telecommunications Council (IPTC), seront visibles dans l’application, aux côtés d’informations telles que le nom du fichier, la localisation et l’état de la sauvegarde.
Cette fonctionnalité, rendue disponible à la fois sur l’application et le site web de Google Photos, représente un progrès notable. Auparavant, ces informations étaient peu accessibles pour les utilisateurs finaux, ce qui suscitait des inquiétudes quant à la transparence des modifications réalisées par l’IA.
Indications diversifiées et enjeux de fiabilité
Les nouvelles étiquettes ne se limiteront pas uniquement aux modifications effectuées par l’IA générative. Google prévoit également d’indiquer les compositeurs photos créés à partir de plusieurs images, grâce aux fonctionnalités Pixel telles que Best Take et Add Me. Cette diversification des indications est encourageante, bien qu’elle ne soit pas infaillible. En effet, des utilisateurs malintentionnés pourraient volontairement contourner ces métadonnées.
John Fisher précise que les efforts pour accroître la transparence autour des éditions par l’IA ne sont pas terminés. Google continuera à recueillir des retours et à évaluer des solutions supplémentaires pour renforcer cette transparence.
Un contexte de défiance et d’évolutions
La manipulation d’images n’est pas une nouveauté. Cependant, les outils d’IA de génération actuelle permettent de créer des faux convaincants avec peu d’effort ou de connaissance technique. Cette réalité soulève des inquiétudes sur la perception de la réalité des images, ce qui pousse certaines entreprises, comme Apple, à être prudentes quant à l’adoption de telles technologies.
L’initiative de Google de rendre visiblement accessible l’information d’édition par l’IA dans Google Photos est une avancée notable vers plus de transparence. Alors que la technologie continue d’évoluer, cette démarche pourrait représenter une norme pour d’autres plateformes et outils utilisant l’intelligence artificielle.
Avec cette mise à jour, Google montre sa volonté de répondre aux attentes des utilisateurs en matière de transparence, tout en s’engageant dans un processus d’amélioration continue. Pour en savoir plus sur cette fonctionnalité et d’autres évolutions, restez connectés à nos articles sur les dernières innovations technologiques.