21/01/2023 15:31

L'agence photo américaine Getty Images menace de poursuivre en justice l'éditeur de logiciel Stability AI, qui a utilisé ses clichés pour entraîner une intelligence artificielle génératrice d'images

L'agence photo américaine Getty Images a menacé de poursuivre en justice l'éditeur de logiciel Stability AI, qui a utilisé ses clichés pour entraîner une intelligence artificielle génératrice d'images. Getty distribue des photos d'illustration et d'actualité, dont des images de l'AFP.

"Stability AI a illégalement copié" sur internet "et retraité des millions d'images protégées par un droit de reproduction", a expliqué Getty dans une déclaration. L'entreprise n'a pas cherché à obtenir une licence adaptée à l'entraînement d'intelligences artificielles auprès de Getty, alors que celle-ci existe, a regretté l'agence photo.

Stability AI est l'auteur de Stable Diffusion, une intelligence artificielle qui permet de générer des images dans un style ou une inspiration donnée à partir d'un simple texte. Elle s'inscrit dans la même famille d'intelligences artificielles que Dall-E 2 de la start-up OpenAI, star des réseaux sociaux l'an dernier pour sa capacité à générer à la demande une très grande variété d'images. Stability AI, comme Dall-E 2, sont des intelligences artificielles dites "génératives", qui produisent de nouvelles images grâce à celles qui leur ont été présentées par leur auteur dans la phase d'entraînement.

Getty Images a indiqué qu'elle avait déjà commencé les premières démarches judiciaires pour porter le litige devant la Haute Cour de Londres. Stability AI fait déjà l'objet d'une action de groupe lancée aux Etats-Unis par trois artistes qui lui reprochent également une violation de leurs droits de reproduction. Les intelligences artificielles qui utilisent de grandes quantités de textes ou d'images sur internet pour se former posent un problème juridique inédit.

Ailleurs sur le web

Vos réactions

Portrait de Bob28
22/janvier/2023 - 09h42

Si il y a un petit billet à se faire, pourquoi se priver...