Le métaverse de Facebook pourrait être contourné par des contrefaçons profondes et d’autres désinformations si ces organisations à but non lucratif ne réussissent pas

Le scientifique de la réalité virtuelle de Mark Zuckerberg, simplement surnommé Meta, a lutté avec un certain nombre de problèmes allant des problèmes technologiques à la difficulté à retenir les employés. Cela ne signifie pas qu’il ne sera pas bientôt utilisé par des milliards de personnes. Meta a rencontré un nouveau problème. L’environnement virtuel dans lequel les utilisateurs peuvent créer leurs propres conceptions de visage est-il le même pour tout le monde ? Ou les entreprises et les politiciens auront-ils plus de flexibilité pour changer leur apparence ?

Rand Waltzman est scientifique en chef de l’information à l’Institut RAND à but non lucratif. Et il a averti la semaine dernière que les leçons apprises par Facebook en personnalisant son fil d’actualités et en autorisant des informations très ciblées pourraient être utilisées pour augmenter son taux d’identification. Dans cette définition, les haut-parleurs peuvent être personnalisés pour donner un son plus fiable à chaque membre du public. En utilisant la technologie deepfake qui crée des vidéos réalistes mais fausses, un haut-parleur peut être modifié pour contenir 40 % des fonctionnalités des membres du public sans que ce public ne le sache.

Meta a déjà pris des mesures pour résoudre le problème. Mais d’autres entreprises n’hésitent pas. Le New York Times et CBC Canada ont lancé le projet Origin il y a deux ans pour développer une technologie permettant de prouver que le message provenait de sa source. Project Origin, Adobe, Intel et Sony font désormais partie de l’Alliance for Content Creation and Originality. Certaines premières versions, y compris celles qui suivent la source d’information en ligne, de Project Origin sont déjà disponibles. Maintenant la question est : Qui va l’utiliser ?

“Nous pouvons fournir des informations détaillées pour vérifier la source des informations qu’ils reçoivent”, déclare Bruce MacCormack, conseiller principal de CBC Radio-Canada pour les initiatives de sensibilisation à la désinformation et cofondateur de Project Origin. “Facebook doit décider de la quantité qu’il consommera et utilisera dans son système, et trouver comment l’intégrer à ses algorithmes et à ses systèmes, ce dont nous n’avons aucune idée.”

Project Origin, fondé en 2020, est un programme qui permet aux téléspectateurs de déterminer et de prouver si les informations sont censées provenir d’une source d’information fiable. Cela signifie qu’il n’y a pas de manipulation. Au lieu de s’appuyer sur la blockchain ou toute autre technologie de registre distribué pour suivre le mouvement des informations sur Internet, comme cela pourrait être possible dans les futures versions de ce qu’on appelle Web3, la technologie étiquette les informations avec des données sur leur origine et ce qui se déplace avec elle. telle qu’elle est copiée et propagée. Il a dit qu’une première version du programme de développement a été mise à la disposition des membres et peut maintenant être utilisée.


Cliquez sur par ici Pour souscrire à SME CryptoAsset & Blockchain Advisor


Les problèmes de méta-désinformation sont plus que de simples fausses nouvelles. Afin de réduire les chevauchements entre les solutions Project Origin et d’autres technologies similaires qui ciblent différents types de tromperie – et pour s’assurer que les solutions sont compatibles – l’organisation à but non lucratif a lancé la Coalition for Content Creation and Authenticity, en février 2021, pour valider l’authenticité d’un certain nombre de types de propriété intellectuelle. Adobe figure sur la liste Blockchain 50 et gère la Content Originality Initiative. Cette initiative, annoncée en octobre 2021, démontrera que les NFT créés avec le logiciel sont bien créés par l’artiste.

“Il y a environ un an et demi, nous avons décidé que nous avions vraiment la même approche, et nous travaillons dans la même direction”, explique MacCormack. “Nous voulions nous assurer d’arriver à un seul endroit. Nous n’avons pas construit deux ensembles de technologies concurrentes.”

Meta reconnaît les deepfakes. Le manque de confiance dans l’information est un problème. MacCormack et Google ont cofondé le partenariat sur l’intelligence artificielle. Ce groupe, MacCormack et IBM Tips, a été lancé en septembre 2016. Il vise à améliorer la qualité de la technologie utilisée pour fabriquer des deepfakes. En juin 2020, les résultats du Deep Fake Detection Challenge mené par le réseau social ont été publiés. Ces résultats ont montré que les programmes de détection des contrefaçons ne réussissaient qu’à 65 %.

Résoudre le problème n’est pas seulement un problème éthique, mais il affectera un nombre croissant de bénéfices des entreprises. McKinsey Research a constaté que l’investissement dans le métaverse pour le premier semestre 2022 a déjà doublé. Ils ont également prédit que d’ici 2030, l’industrie vaudra 5 000 milliards de dollars. Ce boom pourrait se transformer en crash.

MacCormack déclare que la profondeur des logiciels contrefaits s’améliore plus rapidement que le temps d’exécution. L’une des raisons pour lesquelles ils ont mis davantage l’accent sur la capacité des informations à prouver qu’elles provenaient de la source. “Si vous mettez les outils de détection dans la nature, juste par la nature du fonctionnement de l’IA, cela améliorerait les contrefaçons. Et ils amélioraient les choses très rapidement, au point où le cycle de vie de l’outil ou le La durée de vie de l’outil serait inférieure au temps qu’il faut pour déployer l’outil, ce qui signifie que vous ne pouvez pas du tout y entrer. Le marché.”

Selon McCormack, le problème ne fera qu’empirer. La semaine dernière, un concurrent novice du Dall-E de Sam Altman, appelé Stable Diffusion, qui permet aux utilisateurs de créer des images photo-réalistes dès qu’elles sont décrites, a ouvert son code source pour que quiconque puisse l’utiliser. Selon MacCormack, cela signifie que ce n’est qu’une question de temps avant que les garanties mises en place par OpenAI pour empêcher la création de certains types de contenu soient contournées.

“C’est un peu comme la non-prolifération”, dit McCormack. “Une fois qu’il y en a, il y en a. Ainsi, le fait que ce code ait été déployé sans garantie signifie que l’on s’attend à ce que le nombre de cas d’utilisation malveillante commence à s’accélérer considérablement au cours des deux prochains mois.”

Leave a Reply

Your email address will not be published.