OpenAI vient d’annoncer le lancement d’un programme inédit : un concours de « bug bounty » spécialement dédié aux risques biologiques de son nouveau modèle GPT-5. L’entreprise offre jusqu’à 25 000 dollars à celui qui parviendra à contourner ses protections de sécurité.
Un défi de sécurité crucial pour l’IA
Ce programme de chasse aux bugs (appelé « Bio Bug Bounty ») vise à identifier les failles potentielles dans les garde-fous mis en place par OpenAI pour empêcher GPT-5 de fournir des informations dangereuses en biologie et chimie. L’objectif ? Trouver ce qu’on appelle un « jailbreak universel » – une technique qui permettrait de contourner toutes les protections d’un coup.
Les règles du jeu
Le défi est simple en apparence mais complexe en pratique : les participants doivent créer une seule instruction (prompt) capable de faire répondre GPT-5 à dix questions sensibles concernant la biologie et la chimie, sans déclencher les systèmes de modération.
Les récompenses sont attractives :
- 25 000$ pour le premier « jailbreak universel » réussi
- 10 000$ pour la première équipe qui répond aux dix questions avec plusieurs techniques différentes
- Des prix plus modestes pour les succès partiels
Un accès restreint et sécurisé
Ce programme n’est pas ouvert à tous. OpenAI sélectionne rigoureusement les participants parmi :
- Les experts en « red teaming » (test d’intrusion) d’IA
- Les spécialistes en sécurité informatique
- Les chercheurs en risques chimiques et biologiques
Tous les participants doivent signer un accord de confidentialité strict couvrant leurs découvertes et communications.
Un calendrier serré
Le programme suit un planning précis :
- Candidatures : du 25 août au 15 septembre 2025
- Tests : à partir du 16 septembre 2025
- Sélection : au fur et à mesure des candidatures
Pourquoi cette démarche ?
Cette initiative s’inscrit dans les efforts continus d’OpenAI pour renforcer la sécurité de ses modèles d’IA les plus avancés. En faisant appel à la communauté scientifique, l’entreprise espère identifier et corriger les vulnérabilités avant le déploiement public de GPT-5.
Cette approche proactive témoigne de la prise de conscience croissante des risques liés aux capacités avancées de l’IA, notamment dans des domaines sensibles comme la biologie où les informations pourraient être détournées à des fins malveillantes.
Source de cette information : OpenAI News