On est officiellement des nuls pour détecter les images IA
Bon, autant vous le dire tout de suite : on est tous nuls. Microsoft vient de publier une étude qui prouve scientifiquement que l’humanité entière est incapable de distinguer une vraie photo d’une image générée par IA. Avec 62% de réussite sur 287 000 tests, on fait à peine mieux qu’une pièce de monnaie. Voilà, c’est dit.
Le Microsoft AI for Good Lab a en effet eu la brillante idée de transformer notre incompétence collective en données scientifiques. Plus de 12 500 cobayes du monde entier ont participé à leur jeu “Real or Not”, et les résultats sont… comment dire… humiliants.
Le plus marrant dans cette histoire c’est que les trois images qui ont le plus trompé les participants étaient… de vraies photos ! Et les scores les plus catastrophiques (12%, 14% et 18% de bonnes réponses) concernaient des clichés authentiques de l’armée américaine. Donc apparemment, quand on voit des militaires dans des décors inhabituels avec des éclairages bizarres, notre premier réflexe c’est de crier au deepfake.
On est quand même légèrement meilleurs pour reconnaître les humains (65% de réussite) que les paysages (59%). En effet, notre cerveau, câblé depuis la préhistoire pour repérer les visages, nous donne un maigre avantage de 6%. C’est ça, notre superpouvoir face aux machines. Ouin.
Les images créées par GAN (Generative Adversarial Network) sont les championnes toutes catégories de la duperie. Avec seulement 55% de détection correcte, c’est pile ou face avec un léger biais. Les deepfakes qui montrent des profils ou qui insèrent des éléments IA dans de vraies photos sont d’ailleurs particulièrement vicieux.
Et pendant ce temps, les IA de détection, elles, cartonnent. Les meilleures atteignent 87% de réussite, et certaines techniques comme l’analyse PRNU montent à 95%, voire 98% avec l’ELA (Error Level Analysis). En gros, on a créé des IA pour faire des fausses images, puis d’autres IA pour les détecter, et nous au milieu on est juste… largués.
Ce qui devrait vraiment nous alerter, c’est la vitesse à laquelle ces outils progressent car l’étude précise que leurs résultats “surestiment probablement la capacité actuelle des gens à distinguer les images IA des vraies”. Traduction : depuis que l’étude a été menée, les générateurs d’images sont devenus encore meilleurs, et nous sommes probablement encore plus nuls qu’avant.
Les chercheurs nous rappellent aussi gentiment qu’avant, il fallait être un expert avec des heures de travail pour créer un fake convaincant et maintenant, n’importe quel andouille avec ChatGPT ou Midjourney peut pondre une image photoréaliste en tapant trois mots. Bref, l’époque où on pouvait dire “ça se voit que c’est faux, regarde les mains” est officiellement révolue.
Screenshot
Mais ne désespérez pas totalement car les scientifiques travaillent sur des solutions : watermarks invisibles, outils de détection automatique, métadonnées certifiées… Mais en attendant que ces technologies se démocratisent, on va devoir vivre avec cette réalité qui est qu’on ne peut plus faire confiance à nos yeux.
Alors, vous voulez tester votre nullité ?
Le quiz Real or Not est toujours en ligne. Préparez-vous psychologiquement car statistiquement, vous devriez faire moins bien qu’un lancer de pièce amélioré. Mais au moins, vous saurez précisément à quel point vous êtes nul. C’est déjà ça.
Perso, j’ai fait le test et je m’en sors mieux que 71% des gens. J’ai réussi avec un score de 80% alors je compte sur vous pour faire mieux que moi !
L’étude complète est disponible sur arXiv pour les curieux. Vous reprendrez bien un peu d’humilité avec votre café ?
Source : Windows Central
Source : korben.info