Microsoft lance un Bug Bounty pour son IA Bing : la récompense peut atteindre 15 000 dollars !
Microsoft a lancé un nouveau programme de Bug Bounty pour tout ce qui tourne autour de l'IA avec Bing. Si vous trouvez une vulnérabilité, la récompense peut atteindre 15 000 dollars.
Le programme de Bug Bounty nommé "Microsoft AI Bounty Program" fait un focus sur l'intégration de l'intelligence artificielle via Bing dans les différentes applications et services de Microsoft :
- Bing AI via bing.com dans le navigateur web (Bing Chat, Bing Chat for Enterprise et Bing Image Creator)
- Bing AI dans Microsoft Edge (Windows)
- Bing AI dans l'application Microsoft Start (iOS et Android)
- Bing AI dans l'application mobile Skype (iOS et Android)
L'objectif de Microsoft est de renforcer la sécurité de ses nouveaux services en permettant aux chercheurs en sécurité de trouver des vulnérabilités et d'en être récompensé par une somme d'argent pouvant atteindre 15 000 dollars. Sur son site, Microsoft précise : "Le programme Microsoft AI bounty invite les chercheurs en sécurité du monde entier à découvrir des vulnérabilités dans la nouvelle expérience Bing, innovante et alimentée par l'IA. Les soumissions qualifiées peuvent être récompensées par des primes allant de 2 000 à 15 000 dollars."
La récompense dépend à la fois de la criticité de la vulnérabilité et de la qualité des informations techniques fournies lorsque la vulnérabilité est signalée à Microsoft. Plusieurs types de vulnérabilités sont listés par Microsoft, notamment la divulgation d'informations. Si vous parvenez à manipuler l'IA Bing pour détourner son comportement, ou outrepasser les mesures de protection de Bing (notamment pour aller fouiller dans sa mémoire et son historique en quelque sorte), vous pouvez le signaler à Microsoft.
Tout est détaillé sur cette page du site Microsoft. En tout cas, c'est très bien que Microsoft lance un programme de Bug Bounty sur ses services liés à l'IA même si tout n'est pas couvert par ce nouveau programme. La chasse aux bugs est ouverte.