"Humaniser l'IA": quand des outils peu fiables cherchent à vous faire payer
Qu'il s'agisse d'une dépêche d'actualité sur l'Iran ou d'un classique de la littérature, le détecteur en ligne livre le même verdict: contenu généré par l'intelligence artificielle (IA). Il suggère ensuite d'"humaniser" le texte moyennant finances, des experts y voyant le ferment d'une escroquerie.
Alors que les fausses informations générées par l'IA se multiplient sur les réseaux sociaux, des outils se présentant comme des détecteurs de tromperie ajoutent une couche supplémentaire de confusion.
Des chercheurs soulignent que ces technologies douteuses peuvent facilement être utilisées à des fins malveillantes pour discréditer des contenus authentiques et ternir des réputations.
Des journalistes de l'AFP spécialisés dans l'investigation numérique ont identifié trois détecteurs censés dire à quel point un texte a été généré par l'IA.
Testés dans quatre langues différentes, ces outils ont conclu, à tort, que les textes étaient l'oeuvre de l'IA, et tenté de gagner de l'argent avec cette pseudo-découverte.
L'un d'eux, JustDone AI, a analysé un article sur la guerre au Moyen-Orient rédigé par des humains et conclu qu'il contenait "88% de contenu IA". Il a ensuite proposé de le remodeler pour effacer ces traces de fabrication numérique.
"Votre texte IA est en train d'être humanisé", affirme ainsi le site avant de diriger vers une page garantie "100% texte original", qui ne se dévoile qu'à condition de débourser jusqu'à 9,99 dollars.
Deux autres outils ### TextGuard et Refinely ### ont produit également des résultats erronés et cherché à en tirer profit.
L'AFP a contacté les trois sites.
"Arnaques"
"Notre système fonctionne à l'aide de modèles d'IA modernes, et les résultats qu'il fournit sont considérés comme fiables dans le cadre de notre technologie", a répondu TextGuard. "Nous ne pouvons ni garantir les résultats ni les comparer à ceux d'autres systèmes", a ajouté l'équipe technique du site.
JustDone a de son côté souligné qu'"aucun détecteur d'IA ne (pouvait) garantir une précision à 100%".
L'entreprise a reconnu que sa version gratuite "pouvait fournir des résultats moins précis" en raison de "la forte demande et de l'utilisation d'un modèle allégé conçu pour un accès rapide".
L'AFP a testé les outils avec plusieurs textes façonnés par la main de l'homme — en néerlandais, en grec, en hongrois et en anglais. Tous ont récolté l'étiquette l'IA, y compris des extraits d'un classique hongrois datant de 1916.
JustDone et Refinely semblaient fonctionner même sans connexion internet, ce qui laisse penser que leurs résultats pourraient découler d'un script plutôt que d'une véritable analyse technique.
"Ce ne sont pas des détecteurs d'IA, mais des arnaques visant à vendre un outil d'+humanisation+", a déclaré à l'AFP Debora Weber-Wulff, universitaire basée en Allemagne qui a mené des recherches sur les outils de détection.
Pour donner une patte plus humaine aux textes, a-t-elle expliqué, ces produits "génèrent souvent ce que nous appelons des +phrases torturées+", c'est-à-dire des alternatives absurdes.
Pas une "solution viable"
Ces outils peuvent aussi être utilisés pour discréditer.
Des influenceurs pro-gouvernement en Hongrie ont ainsi affirmé en début d'année qu'un document produit par l'opposition à l'occasion de la campagne électorale avait été entièrement créé par l'IA.
Pour étayer leur allégation, ils ont fait circuler sur les réseaux sociaux des captures d'écran montrant les conclusions de JustDone.
Les outils testés par l'AFP cherchent notamment à séduire des étudiants ou des chercheurs qui voudraient dissimuler ou repérer le recours à l'IA. Deux d'entre eux affirment que leurs utilisateurs sont issus d'universités prestigieuses, comme Cornell, dans le nord-est des Etats-Unis.
L'Université Cornell a cependant assuré à l'AFP n'entretenir "aucune relation formelle avec des entreprises fournissant des détecteurs d'IA", et estimé qu'il était "malheureusement peu probable" que ces outils "apportent une solution viable" au problème du recours abusif à cette technologie.
Il arrive aux fact-checkers, y compris ceux de l'AFP, d'utiliser des outils de détection à base d'IA, principalement pour vérifier si une image ou un son ont été manipulés. Ces instruments ne sont pas toujours fiables et sont toujours utilisés en complément d'autres méthodes d'investigation.
burs-ac/myl/bdx/




