Des lacunes dans l'identification du contenu généré par l'IA sur les réseaux sociaux


Temps de lecture :
5 minutes
Par La Presse Canadienne, 2025
MONTRÉAL — Les vidéos ou les images générées par l'intelligence artificielle (IA) se multiplient sur les réseaux sociaux. Mais ce contenu n'est pas toujours accompagné d'une mention indiquant le recours à l'IA.
L'évolution rapide de l'IA générative et le manque de surveillance des plateformes peuvent constituer des facteurs expliquant l'absence d'identification, selon deux experts.
Les plateformes ont des politiques concernant la publication de contenus créés ou modifiés par l'IA. Par exemple, TikTok encourage les créateurs à étiqueter leurs vidéos ou images générées totalement ou en grande partie par l'IA, tandis que Meta (Facebook et Instagram) oblige l’identification dans certaines circonstances.
Les deux entreprises indiquent également avoir des systèmes de détection de l'IA permettant d'ajouter automatiquement une étiquette mentionnant l'utilisation de la technologie.
Toutefois, la prolifération d'outils d'IA générative facilement accessibles complique la tâche, évoque Laurence Grondin-Robillard, doctorante en communication et professeure associée à l'Université du Québec à Montréal (UQAM).
Les vidéos ou les images créées à partir de logiciels d'IA générative fournis sur les réseaux sociaux peuvent facilement être identifiées par ces derniers.
«Mais si on a généré ailleurs notre vidéo et qu'on fait juste la téléverser sur la plateforme pour que ce soit ensuite diffusé, il est possible que ça passe outre les barrières», indique Mme Grondin-Robillard.
Avec une plus grande production générée par l'IA, il y a conséquemment davantage de contenus qui passent sous le radar de l'identification. «Il y a encore beaucoup d'erreurs», ajoute la spécialiste.
Les détecteurs ont du mal aussi à s'adapter à la performance des nouveaux générateurs qui imitent de mieux en mieux la réalité. «De plus, les outils actuels permettent de mélanger plusieurs types de contenu, authentiques et synthétiques, ce qui rend la détection plus difficile», mentionne la professeure associée.
Une autre ombre au tableau est apparue récemment. Des chercheurs de l'Université de Waterloo ont annoncé avoir développé un outil capable de supprimer rapidement les filigranes identifiant les contenus comme générés par l'IA.
Les filigranes représentent une signature ou un motif caché, invisible pour une personne, mais identifiable par un autre système. Selon l'un des chercheurs, la recherche montre que l'utilisation de filigranes ne constitue probablement pas une protection efficace contre les dangers posés par les contenus d'IA.
L'implication des plateformes
«Que tout soit identifié, c'est impossible», affirme Florent Michelot, professeur adjoint en technologie éducative à l'Université Concordia. D'après lui, l'identification par des algorithmes représente une partie de la solution, bien qu'imparfaite, puisque certaines choses «vont passer entre les mailles».
«On a fait une revue de la littérature le dernier mois sur les différents algorithmes pour identifier la désinformation textuelle et sur des images. Globalement, on est sur des niveaux de précisions qui sont entre 90 et 100 %», dit-il.
Pour ce qui est des vidéos, du travail reste à faire, précise le spécialiste. Bien que des algorithmes permettent une détection en amont, les réseaux sociaux doivent mener une veille et donner suite aux requêtes des utilisateurs.
«Lorsqu'on pousse auprès des plateformes des situations problématiques, généralement, ils disent: ‘‘il n'y a pas de problème’’», déplore M. Michelot.
Il note également que les équipes de veille de différentes plateformes ont «été réduites comme peau de chagrin».
À ses yeux, ces entreprises doivent montrer qu'elles mettent les efforts nécessaires en matière d'encadrement de l'IA. «Ce ne sera jamais parfait, mais il faut qu'elles nous montrent patte blanche», dit M. Michelot.
Une plus grande implication des plateformes est nécessaire pour s'assurer que les utilisateurs se conforment, estime aussi Mme Grondin-Robillard.
«Les étiquetages, ça devrait être obligatoire. Ça ne devrait pas être une simple suggestion et une question de morale pour l'utilisateur», affirme-t-elle.
«Lever un drapeau»
Les exemples de vidéos générées par l'IA qui trompent le public ne manquent pas, alors qu'elles proposent un réalisme de plus en plus convaincant.
Si certains contenus sont inoffensifs et plutôt sympathiques — comme un gorille qui parle avec un accent québécois — plusieurs autres véhiculent des stéréotypes et tombent dans la désinformation, expose Mme Grondin-Robillard.
«Il y a certains comptes qui sont toujours sur la même thématique. Et à force d'être répété et d'avoir du contenu proposé, ça peut rentrer dans la tête des gens, générer des images et reproduire ces idées véhiculées. C'est un problème», s'inquiète-t-elle.
Dans un contexte où beaucoup de jeunes s'informent de manière régulière sur les réseaux sociaux, qui hiérarchisent le contenu, l'identification devient cruciale sur le plan démocratique, dit M. Michelot, car cette pratique est un principe de base.
«Si on doit avoir un débat éclairé, il faut qu'on puisse avoir des sources d'informations qui sont crédibles», affirme-t-il.
En s'assurant d'une mention IA, «ça lève un drapeau sur la véracité de la vidéo», évoque Mme Grondin-Robillard.
«C'est sûr que ça ne corrige pas le tir (sur l'information véhiculée), mais au moins, ça amène les gens à pousser la réflexion sur le contenu qu'ils viennent de voir.»
Encore faut-il que la mention soit bien mise en évidence. Selon la professeure associée à l'UQAM, un simple mot-clic #IA ou #AI sous une vidéo ne suffit pas.
«Les mots-clics, c'est juste mis à la fin de la publication. Je peux ne pas déployer le texte pour voir son entièreté, souligne-t-elle. L'idéal, c'est vraiment une étiquette qui est apposée par la plateforme, qui, sans prendre tout l'espace de l'écran, est visible facilement.»
Comment détecter l'IA?
En l'absence d'une mention, il existe quelques trucs pour savoir si on regarde ou non du contenu produit avec l'IA.
Comme la technologie offre une qualité graphique des plus réalistes, il faut maintenant s'attarder à des détails très spécifiques qui donnent une image de perfection, comme les cheveux.
«Nos cheveux ne sont jamais parfaits. Ceux du côté de l'intelligence artificielle, ils sont souvent trop parfaits, ils sont trop bien coiffés», mentionne Mme Grondin-Robillard.
Autre indice: parfois, des outils d'IA générative laissent en filigrane un logo.
Mme Grondin-Robillard propose également de faire une capture d'écran et de procéder ensuite à une recherche inversée sur Google ou un autre moteur de recherche. Les résultats peuvent donner des indications sur la provenance de l'image.
«La meilleure solution, ça reste le croisement des sources, dit M. Michelot. Allez voir, par exemple, sur Google Actualités, s'il y a quelque chose qui corrobore cette information. Allez sur des sites comme Snopes, qui identifie la désinformation, puis il y a une page spécifique générée par IA.»
— Avec des informations d'Anja Karadeglija
Frédéric Lacroix-Couture, La Presse Canadienne