La validation de contenu est-elle la prochaine industrie de croissance ?

Vous avez probablement déjà vu la fausse vidéo de Barack Obama traitant Donald Trump de “crétin total et complet”. La voix n’est peut-être pas tout à fait juste, mais le clip – qui a pris 56 heures à une équipe de professionnels de la vidéo chez BuzzFeed pour créer – illustre de façon frappante la menace naissante des deepfakes, c’est-à-dire des vidéos numériques modifiées qui peuvent pratiquement faire dire n’importe quoi.

La technologie Deepfake est déjà utilisée pour insérer des visages de célébrités dans la pornographie, et il n’est pas difficile de voir des implications dangereuses pour la politique. Mettre de fausses déclarations dans la bouche d’acteurs étatiques pourrait facilement déclencher une controverse internationale, une panique boursière ou même une guerre pure et simple. Loin de la science-fiction, la menace est si réelle que la DARPA, l’agence de défense américaine responsable de la technologie militaire émergente, a déjà mis sur pied un laboratoire médico-légal officiel pour détecter les contrefaçons.

Les vidéos falsifiées, bien sûr, ne sont pas la seule menace sur le front des fausses nouvelles. L’élection présidentielle américaine de 2016 a fourni une illustration convaincante du pouvoir des vieux titres et des articles de presse bidons, diffusés sur les médias sociaux, pour influencer le cours des événements dans le monde. Depuis, nous avons pris l’habitude de remettre en question les histoires douteuses qui se répandent dans nos aliments, et de nous laisser prendre au jeu à l’occasion. (Le fait que le vrai journalisme soit maintenant confondu par certains politiciens avec de fausses nouvelles n’aide pas. En fin de compte, nous ne savons pas du tout à qui et à quoi nous pouvons faire confiance, si tant est qu’il y ait quoi que ce soit d’autre à faire.

Les médias sociaux sont au cœur de nombre de ces défis. C’est le premier endroit où les gens reçoivent leurs nouvelles de nos jours et, malheureusement, l’un des endroits les plus vulnérables à la manipulation. En tant que personne qui a fait carrière dans les médias sociaux, je trouve cela alarmant. J’ai une foi inébranlable dans le pouvoir des canaux sociaux de créer des liens et d’ouvrir le dialogue. Des réseaux comme Facebook et Twitter font maintenant partie de la plomberie de l’Internet et ne vont pas disparaître. Mais la diffusion de faux contenus – non seulement des théories de conspiration farfelues et facilement rejetées, mais aussi des vidéos convaincantes capables de faire faire une double prise aux experts – est une menace croissante.

Image result for Is content validation the next growth industry?

Comment restaurer la confiance dans le contenu en ligne dans ce climat ? Pour moi, la voie à suivre n’est pas seulement une modification de l’algorithme ou un nouvel ensemble de règlements. Ce défi est beaucoup trop complexe pour cela. Nous parlons, à la base, de la confiance dans ce que nous voyons et entendons en ligne, de la confiance dans les données brutes qui éclairent les décisions des individus, des entreprises et de pays entiers. Le temps d’un pansement est révolu depuis longtemps. Au lieu de cela, nous parlons peut-être de la prochaine industrie de croissance de l’ère numérique : la validation du contenu.

L’industrie florissante de la validation de contenu
Il est intéressant de noter que nous assistons déjà à une vague d’activité dans ce domaine, alors que la course aux armements entre faussaires et détectives s’accélère. Le phénomène Deepfake, en particulier, a inspiré une réponse technologique croissante, décrite récemment par Kaveh Waddell d’Axios. La startup Truepic, qui vient d’attirer plus de 10 millions de dollars de financement de la part de sociétés comme Reuters, s’est fixé pour objectif de repérer des détails comme la réflectivité des yeux et le placement des cheveux, qui sont presque impossibles à imiter parmi les milliers d’images dans une vidéo. Gfycat, la plateforme d’hébergement gif-hosting, utilise des outils à intelligence artificielle qui vérifient les anomalies pour identifier et retirer les clips offensants sur son site.

Sur le plan académique et de la recherche, les scientifiques de Los Alamos construisent des algorithmes qui traquent des éléments visuels répétés, signe révélateur d’une manipulation vidéo, tandis que les chercheurs de SUNY Albany ont développé un système qui surveille les schémas de clignement vidéo. La DARPA et son équipe d’experts médico-légaux des médias, quant à eux, recherchent les incohérences dans l’éclairage des visages générés par l’IA.

Trickier, cependant, est toujours en train de signaler les articles d’actualité faux et biaisés – le genre de contenu qui est facile à faire et qui a le plus de chance de trouver son chemin dans nos flux sociaux. Il n’y a pas besoin d’un tour de passe-passe technique, juste une capacité démodée de dire des mensonges convaincants et d’utiliser le langage pour manipuler les préjugés et les émotions des lecteurs eux-mêmes. C’est peut-être pour cette raison que ces fausses histoires semblent éviter la détection des machines et nécessitent souvent une intervention humaine directe pour les détecter.

Facebook, malgré toute sa sophistication technique, a eu recours à un partenariat avec une armée croissante de vérificateurs de faits humains pour vérifier le contenu de sa plateforme à la suite de Cambridge Analytica et des crises électorales de 2016. Les messages signalés comme faux par les utilisateurs (ou par apprentissage machine) sont transmis à l’un des 25 partenaires de vérification des faits dans 14 pays, dont Associated Press, PolitiFact et Snopes. Le contenu jugé faux est, à son tour, rétrogradé par Facebook, ce qui l’abaisse dans le flux d’informations, réduisant évidemment le nombre de visites futures de plus de 80 %.

Ce manuel, cette approche fragmentaire, laisse certes beaucoup à désirer : Les normes varient selon l’organisation qui vérifie les faits, et même les histoires manifestement fausses peuvent devenir virales avant que Facebook n’ait l’occasion de les rétrograder. De plus, l’échelle à elle seule frustre l’intervention humaine : Toutes les 60 secondes sur Facebook, 510 000 commentaires sont affichés et 136 000 photos sont téléchargées, selon une estimation. Il n’est pas étonnant qu’il n’y ait pas assez de vérificateurs de faits pour examiner toutes les fausses allégations.

L’avenir de la confiance
Existe-t-il une meilleure façon de régler ce problème ? Il doit y en avoir une. Est-ce que ce sera facile ? Non, non. Et c’est là que l’ingéniosité et les débouchés commerciaux doivent se conjuguer. Par exemple, pouvons-nous trouver un moyen de tirer parti de l’autorité du domaine – les scores de classement des moteurs de recherche qui servent d’approximation de la ” fiabilité ” – pour vérifier le contenu partagé sur les médias sociaux ? (Un point de vente comme le New York Times, par exemple, qui a une autorité de domaine de 99/100, serait considéré comme hautement fiable. Cette approche est évolutive mais, certes, loin d’être parfaite, puisque l’autorité de domaine est en grande partie fondée sur les liens hypertextes plutôt que sur l’exactitude des faits.

Ou pouvons-nous nous inspirer du protocole HTTPS ? Le symbole de verrouillage de confiance à côté de la barre d’adresse de nos navigateurs offre l’assurance instantanée que les sites que nous visitons – comme les banques ou les magasins en ligne – sont sécurisés et que nos données sensibles sont en sécurité. Il n’est pas difficile d’imaginer à quel point ce concept serait utile dans le monde du contenu : J’imagine un joli petit insigne sur des vidéos, des photos et des histoires qui ont été vérifiées comme étant vraies et correctes du point de vue des faits, et non des faux. Le défi est que HTTPS n’est qu’une assurance de cryptage. La garantie de l’exactitude des données est une question plus épineuse et beaucoup plus complexe d’un point de vue technique et humain.

Et la chaîne de blocage ? L’idée d’un registre immuable stocké dans le nuage, retraçant l’origine de tout le contenu jusqu’à sa source, semble définitivement attirante. Les utilisateurs pourraient comparer des versions de vidéos ou d’images pour vérifier s’il n’y a pas de modifications, et les filigranes serviraient de signe de qualité. Mais là aussi, la question est de savoir si cela peut s’appliquer au contenu textuel, où l’intention de tromper laisse moins de traces techniques.

Leave a Reply

Your email address will not be published. Required fields are marked *