Imaginez un instant : vous tombez sur une magnifique photo stock parfaite pour votre projet, mais elle est barrée d’un immense filigrane « Getty Images ». Et si une simple requête à une IA pouvait faire disparaître cette marque comme par magie ? C’est précisément ce que permet le nouveau modèle Gemini 2.0 Flash de Google, déclenchant une vague d’enthousiasme chez certains utilisateurs… et d’inquiétude chez les détenteurs de droits d’auteur.
Une nouvelle capacité qui fait jaser
Google a récemment élargi l’accès à son modèle Gemini 2.0 Flash, doté d’impressionnantes fonctionnalités de génération et d’édition d’images. Mais c’est une utilisation particulière qui fait sensation sur les réseaux : sa capacité à retirer les filigranes des images, y compris ceux de banques d’images professionnelles comme Getty Images. Ce n’est pas simplement un effacement grossier – l’IA va jusqu’à *reconstruire intelligemment* les zones masquées par le filigrane, donnant l’impression que celui-ci n’a jamais existé.
Cette prouesse technique, partagée comme une découverte excitante sur Reddit et X (anciennement Twitter), soulève pourtant d’importantes questions éthiques et légales. Car contrairement à d’autres outils d’IA comme Claude 3.7 Sonnet d’Anthropic ou GPT-4o d’OpenAI qui refusent catégoriquement de supprimer les filigranes, Gemini 2.0 Flash s’exécute sans broncher.
Comment fonctionne cette magie numérique ?
Le processus est d’une simplicité déconcertante. L’utilisateur télécharge une image filigranée, demande à Gemini de la « nettoyer », et en quelques secondes, l’IA analyse l’image, identifie le filigrane, l’efface, puis – et c’est là que réside sa force – reconstitue les parties manquantes en s’appuyant sur le contexte visuel. C’est comme si elle comprenait l’image au point de pouvoir deviner ce qui se cachait sous le filigrane.
Bien sûr, l’outil n’est pas infaillible. Il peine notamment avec les filigranes semi-transparents ou ceux qui recouvrent une grande partie de l’image. Mais dans de nombreux cas, le résultat est suffisamment convaincant pour être utilisable, ce qui explique l’engouement des utilisateurs découvrant cette fonctionnalité.
Une position délicate pour Google
Il convient de préciser que cette fonctionnalité fait partie des outils « expérimentaux » de Google, avec une mention explicite qu’elle n’est « pas destinée à un usage en production ». Actuellement, elle n’est disponible que via les interfaces dédiées aux développeurs comme AI Studio, et non dans les produits grand public.
Mais cette précaution suffit-elle ? Selon le droit américain du copyright, retirer un filigrane sans l’autorisation du propriétaire est considéré comme illégal, sauf rares exceptions. La position de Google apparaît donc particulièrement délicate, d’autant que ses concurrents ont explicitement programmé leurs IA pour refuser ce type de demandes. Claude d’Anthropic qualifie même cette pratique d’ »contraire à l’éthique et potentiellement illégale ».
Un reflet des défis de l’IA générative
Cette situation illustre parfaitement le dilemme auquel font face les entreprises d’IA : jusqu’où pousser les capacités de leurs modèles sans franchir des lignes rouges éthiques ou légales ? L’absence de garde-fous sur Gemini 2.0 Flash ne se limite pas à la suppression des filigranes – l’outil peut également créer des images de célébrités ou de personnages protégés par copyright, contrairement à d’autres IA qui refusent explicitement ces requêtes.
« C’est la course à l’armement de l’IA », pourrait-on dire. Chaque entreprise cherche à proposer le modèle le plus performant, quitte parfois à repousser les limites de ce qui est acceptable.
Vers une évolution nécessaire
Cette polémique naissante autour de Gemini 2.0 Flash risque fort d’accélérer l’évolution des pratiques chez Google. La firme de Mountain View, qui n’a pas encore réagi officiellement à cette découverte, devra probablement ajuster son modèle pour intégrer des restrictions similaires à celles de ses concurrents.
Cette histoire nous rappelle que l’innovation technologique s’accompagne toujours de nouvelles questions éthiques et légales. Dans cet univers en constante évolution, les limites doivent être définies et redéfinies, dans un dialogue permanent entre créateurs d’IA, utilisateurs et détenteurs de droits. Car si l’intelligence artificielle peut effacer les filigranes, elle ne devrait pas pour autant effacer les droits des créateurs.