Dans cet article, je vais vous parler d’un sujet très important. Ce sujet a des potentialités explosives pour la société tout entière. Le Deepfake, c’est peut-être fun mais c’est potentiellement dangereux. Certains même le qualifient de fausse bonne idée. Je vais vous expliquer pourquoi.

Mais bien avant, qu’est-ce que le deepfake ?
Deepfake est une technologie qui permet de transposer à l’identique le visage d’une personne sur le corps d’une autre personne sur une photo ou dans un vidéo ou bien de « fake » la voix d’une personne. Bien fait, c’est ultra réaliste et extrêmement puissant. Les applications de deepfake utilisent des technologies de « deep learning » (apprentissage profond), d’intelligence artificielle et de machine learning pour aboutir à ce niveau de perfection. Terre à terre, on se sert d’un apprentissage profond par la machine pour faire du faux.

Je vais vous raconter une anecdote sur ce que le deepfake a fait un Rana Ayyub, une journaliste indienne qui dénonçait beaucoup dans ses écrits la corruption et la mauvaise gouvernance en Inde. Elle a reçu naturellement des menaces de diverses formes. Mais un jour d’avril 2018, alors qu’elle était assise dans un café avec des amis, elle voit une vidéo qui va la choquer et la marquer à jamais. Une vidéo pornographique d’elle qui dure un peu plus de 2 minutes. Elle n’en revenait pas. Elle n’en croyait ses yeux. Ce n’est pas elle et elle sait que ce n’est pas son corps qui est la vidéo. Mais c’est son visage sur la vidéo. Devenue virale en 48 heures, la vidéo a été partagée plus de 40.000 fois. Ses comptes des médias sociaux inondés de messages d’injures, de désapprobation, et d’indignation en raison entre autres de ses convictions, de son métier et du fait qu’elle est musulmane, etc. Certaines publications affirmaient qu’elle était disponible pour ceux qui la désiraient. Pire, les commanditaires de cet acte ont rendu public ses contacts et même l’adresse de son domicile. Je vous laisse imaginer la suite.
Marquons une petite pause. Demandons-nous comment allons-nous nous sentir si nous étions à sa place ? Voilà ce que le deepfake peut faire.
Vous allez me dire mais ce truc est loin de nous. Cela ne peut pas nous arriver. Et bien si. De nos jours, des individus avec une simple application de modification et de montage photo ou Photoshop créent de fausses images et diffusent, lancent des fakes news, créent de la fausse rumeur, etc. Des individus soit à la recherche du buzz ou de l’envi de nuire créent des intox, des canulars qu’ils attribuent à des personnalités. C’est relayé et bien partagé sur les médias sociaux. Les études montrent qu’un canular à 10 fois plus de chance d’être partagé qu’une vraie information.
Quelles sont les risques de deepfake pour nos sociétés. Je m’excuse par avance pour les scénarii que je vais dépeindre dans les lignes à venir. Mais c’est pour l’intérêt de l’éducation digitale.
Imaginez-vous qu’un individu fasse un deepfake avec votre visage entrain de faire des choses dont on ne vous imagine pas faire.
Imaginez-vous qu’un deepfake monte le patron de l’association des Transporteurs et des Chauffeurs du Burkina, côte à côte entrain de demander à tous les chauffeurs de garer les engins et de ne pas rouler jusqu’à satisfaction d’une plateforme revendicative.
Imaginez-vous au soir des élections présidentielles de 2020 un deepfake d’un candidat se déclare vainqueur et appelle ses militants à sortir dans la rue pour protéger sa victoire ; et qu’au même moment un deepfake d’un autre candidat conteste cette annonce et appelle ses militants à sortir pour éviter la main basse sur les élections.
Imaginez-vous… Imaginez-vous… Imaginez-vous…
Oui tout ceci est peut être de la fiction. Une conception de l’esprit. Mais malheureusement, le deepfake et les médias donnent les outils et les plateformes pour fabriquer et répandre l’intoxication et la haine. Le deepfake crée des méfiances sur la société. De la même façon il nous trompe à croire profondément à du faux, il peut aussi nous amener à ne pas croire des fois à ce qui peut être vrai (ça commence à se mélanger dans ma tête. lol). Pire, certains peuvent utiliser le sentiment de faux créé autour du deepfake pour camoufler leur propres erreurs ou méfaits. Exemple : un politicien fait une déclaration et s’il se sent coincé un jour par cette déclaration, il peut balayer du revers de la main en disant de ne pas croire à ces deepfake.
En tant qu’être humain, on a tendance à croire à ce qui est audio et visuel ; surtout visuel (photo et vidéo). D’ailleurs c’est la raison pour laquelle dans l’histoire, la télévision a tant été un outil de domination culturelle (soft power), un outil qui a modifié des perceptions et en a créé ; et la télévision est encore si puissante. On a tendance à partager ce qui est négatif, provoquant et dramatique. Prenez par exemple les groupes Facebook de dénonciations ou d’appréciations. Quand c’est pour dénoncer ce qui est soit disant mauvais, les réactions et les commentaires se comptent par centaines. Mais quand c’est bon, ils se font rares. Un autre exemple. Quand vous écoutez les émissions interactives des radios où les auditeurs appellent pour apprécier ou dénoncer, faites l’exercice de noter ce qui est appréciation et dénonciation.
Notre réaction face à ce qui est visuel altère très souvent notre jugement pour se dire si ce qu’on voit est vrai ou peut être faux. C’est ce mécanisme qu’exploite le deepfake.
Cependant, la bonne nouvelle est que les plateformes de médias sociaux sont entrain de prendre des mesures pour contrer le partage de deepfake. Ils développent des systèmes d’intelligence artificielle capable de détecter et bannir en amont les deepfake. WeChat en Chine par exemple bloque le partage de lien contenant du deepfake. Facebook a lancé une compétition contre les vidéos deepfake.
Mais selon certains analystes, le perfectionnement de la technique de deepfake va atteindre des niveaux où les ordinateurs et les autres dispositifs d’intelligence artificielle ne pourront pas distinguer un deepfake d’une vidéo authentique. C’est en ce moment que l’être humain doit plus que jamais être humain sur les médias sociaux.
Que pouvons-nous faire ? Que devons-nous faire ?
Avant de partager, il faut mettre du bon sens. Vérifier les informations, les sources. Évaluer leur potentiel de création de troubles sociaux. Se demander « qu’est-ce que je gagne en partageant ceci ? », « qu’est-ce que la société burkinabé et l’humanité en général gagne si je relaye cette information ? », « quelles peuvent être les conséquences à court, moyen ou long terme ? », etc.
Il faut appliquer par exemple le test des 3 passoires de Socrates.

Il faut aussi que la loi évolue !
La loi doit être capable de sanctionner ceux qui créent ces deekfake, ceux qui les partagent et les plateformes qui les hébergent. Les textes de droit en la matière doivent pouvoir évoluer ; même si ce n’est pas au rythme de l’évolution technologique, ces textes doivent être capable au bon moment de prendre en compte les réalités du moment.

Que les médias donne de la voix aux victimes !
Des fois, les rumeurs et le fake se durcissent lorsqu’ils sont relayés par les médias classiques et de sources sures. Du coup, ils peuvent être confortés et faire encore plus de mal. Les médias devraient intensifier le factchecking et donner une contre-exposition en investiguant pour rétablir la vérité et la réalité et en permettant aux victimes de s’exprimer.
Nous sommes tous de potentiels créateurs de deepfake et nous sommes tous de potentielles victimes de deepfake. Mais je pense que nous avons plus de chance d’être victime de deepfake que d’en être auteur. Nous devons donc travailler à assainir cet espace commun et partagé qu’est le Web et plus spécifiquement les plateformes de médias sociaux.
Merci pour le temps que vous avez pris pour lire cet article.
N’oubliez pas de souscrire à notre Newsletter

Rejoignez le Groupe WhatsApp du Kiosque Digital du Burkina et recevez les articles via WhatsApp. https://chat.whatsapp.com/IIYgrK0vCUmLn2t8mYlJs8
B. Zorom
Très enrichissant, j’ai beaucoup apprécié cet article.
J’aimeAimé par 1 personne