fausses-vidéos-pornos-facebook-2018

Depuis que Facebook a finalement admis avoir un faux problème d’actualité, il essaie maintenant de le réparer le problème. Il a embauché des milliers de personnes pour aider à bloquer les fausses annonces, il s’est engagé à travailler avec des organisations tierces de vérification des faits et c’est occupé à construire des algorithmes pour détecter les fausses nouvelles. Mais même s’il tente de se défendre contre les publicités frauduleuses et les faits inventés, une autre fausse menace potentielle se profile à l’horizon: une fausse vidéo générée artificiellement.

De fausses vidéos pornos sur Facebook

Motherboard a récemment découvert une nouvelle tendance inquiétante sur Reddit, où les utilisateurs créent des clips pornographiques générés par l’I.A. est utilisant des visages de célébrités. Cette nouvelle a d’abord été rapportée il y a un mois lorsque l’utilisateur de Reddit « deepfakes » a posté une vidéo du visage de Gal Gadot swappée sur le corps d’une star du porno (il a depuis créé plus de faux porno avec d’autres célébrités). Selon Motherboard, la vidéo a été créée avec des algorithmes d’apprentissage automatique, des bibliothèques open-source facilement accessibles et des images de Google, des photos et des vidéos YouTube.

Mais alors que c’était juste l’utilisateur qui simulait des vidéos pornographiques, maintenant il y a une application qui aide des dizaines de milliers d’autres à le faire la même, pas seulement avec des célébrités, mais avec des gens ordinaires. Motherboard signale que l’application peut être utilisée par des personnes sans formation technique ou expérience de programmation. Le créateur de l’application, qui s’appelle « deepfakeapp », a expliqué à Motherboard qu’il souhaitait éventuellement rationaliser l’interface utilisateur afin que les utilisateurs puissent « sélectionner une vidéo sur leur ordinateur, télécharger un réseau de neurones corrélé à un certain visage d’une bibliothèque accessible au public et échangez la vidéo avec un visage différent en appuyant sur un bouton. » Bien que les fausses vidéos qui en résultent ne soient pas parfaites, certaines d’entre elles semblent étrangement réalistes.

Inutile de dire que cela a des conséquences effrayantes. Non seulement cela ouvre la porte à une nouvelle forme de vengeance pornographique, où un ex vindicatif pourrait claquer votre visage sur une vidéo x-rated. Il ouvre également une boîte de Pandore de peurs où rien sur Internet ne sera jamais plus véritable. Après tout, les fausses nouvelles sont déjà largement lues et partagées sur des plateformes de médias sociaux comme Facebook et Twitter. Il ne faut pas beaucoup d’imagination pour penser à un monde où les états-nations étrangers pourraient utiliser l’I.A. pour créer et diffuser des vidéos de politiciens ou de personnalités publiques qui disent des choses qu’ils n’ont jamais dites. Ce serait de fausses nouvelles qui pourraient nuire à leur réputation.

Lors d’une récente table ronde sur l’I.A. à San Francisco, un groupe d’experts de diverses entreprises technologiques de Bay Area a été interrogé sur la manière dont ils pouvaient se prémunir contre de telles pratiques malveillantes. Li Fan, directeur de l’ingénierie de Pinterest, a déclaré que, dans le cas spécifique où des visages de célébrités seraient utilisés, bloquer ces vidéos ne serait pas trop difficile. C’est parce que nous pourrions exécuter un algorithme de correspondance faciale pour filtrer les bases de données bien définies des visages de célébrités. »

«Là où cela devient vraiment difficile, c’est quand on joue a un jeu du chat et de la souris», a-t-elle dit. « Il y aura toujours des hackers et des fraudeurs qui déjouerons ces algorithmes, c’est vraiment un jeu où nous devons continuer à nous améliorer. » Andrew Bolwell, responsable de HP Tech Ventures, a suggéré que la meilleure défense pour un pirate d’I.A. est un défenseur d’I.A. « Bien que la défense s’améliore, l’attaque s’améliore et il est vraiment difficile d’imaginer une réponse efficace à cela, qui couvrirait tous les cas de fausses porno. »

Joaquin Quinonero Candela, directeur de l’apprentissage automatique appliqué chez Facebook, a expliqué que : « Je suis confiant que nous pourrons concevoir des algorithmes pour détecter le contenu contrefait », faisant écho aux sentiments du reste du panel, et est également d’accord avec le commentaire que « l,I.A. est la meilleure défense ». Mais il a également convenu que la facilité croissante et l’efficacité des algorithmes d’imitation présentent un problème important et constitue un problème qui, en ce moment, ne semble pas prêt de disparaître.

[via engadget]