Ceci est un post traduit par IA.
Technologie Deepfake et intention humaine
- Langue de rédaction : Coréen
- •
- Pays de référence : Tous les pays
- •
- Technologies de l'information
Choisir la langue
Texte résumé par l'IA durumis
- La Chine a mis en œuvre une réglementation globale limitant la création de Deepfakes, prenant des mesures plus strictes que l'Union européenne et les États-Unis. Cela semble être un effort pour réprimer les opinions dissidentes liées aux récentes protestations de la feuille blanche.
- La technologie Deepfake suscite des controverses éthiques, en particulier pour la création de contenu ciblant des personnalités influentes, ce qui soulève des inquiétudes quant à son potentiel d'abus.
- Il est plus important de réglementer la technologie Deepfake que d'analyser le contexte de création du contenu et son processus de diffusion. En changeant notre façon de voir les humains dans une perspective systémique et en mettant en place des programmes éducatifs au niveau des communautés, nous pouvons résoudre le problème.
La Chine a mis en œuvre une réglementation globale pour limiter la création de « deepfakes » à partir du 10 février.
Ceci fait partie des mesures visant à empêcher l’opinion publique anti-régime liée aux récentes manifestations du papier blanc, ce qui est intéressant car il s’agit d’une mesure d’interdiction réelle par opposition à l’Union européenne ou aux États-Unis, qui n’ont mis en œuvre que des recommandations au niveau consultatif en raison de violations de la liberté de la presse. Bien sûr, ces mesures prises par la Chine sont possibles en raison du système de censure d’Internet appelé « Great Firewall » qui est en place depuis plus de 20 ans, mais le fardeau du respect de la transparence et de la divulgation d’informations est si lourd que l’efficacité interne et externe est susceptible d’être remise en question de manière persistante.
Les technologies associées aux deepfakes ont toujours appelé à la nécessité d’étiqueter les contenus synthétiques, mais la limite est qu’il n’existe aucun moyen clair de garantir cela. De plus, comme le dit l’expression « Internet est éternel », une fois que le contenu créé est diffusé, il est extrêmement difficile de l’effacer complètement. De plus, même après la suppression du contenu, la conscience collective des téléspectateurs ne disparaît pas, comme en témoigne l’exemple du contenu « Voices of April » qui critiquait la politique de confinement à Shanghai qui a eu un impact sur les manifestations du papier blanc.
Historiquement, il est impossible d’empêcher la technologie de s’infiltrer dans la société. Les statistiques indiquent que 95 % des vidéos deepfakes sont pornographiques, les fausses déclarations de reddition du président ukrainien au début de l’invasion de la Russie et les apparitions publicitaires de Bruce Willis, atteint d’aphasie, sont des exemples réels et dangereux de la manière dont la technologie deepfake peut avoir un impact sur l’ensemble de la société. Cependant, ce que nous devons vraiment craindre, ce n’est peut-être pas la manière dont cette technologie est réglementée. De nouvelles façons de manipuler la réalité existent depuis toujours, et se concentrer sur les technologies les plus récentes est toujours un jeu perdant. Au contraire, nous devons nous concentrer sur les raisons pour lesquelles ces productions sont créées et la manière dont elles se propagent, c’est-à-dire nous concentrer sur les facteurs sociaux qui sous-tendent la diffusion de faux récits.
« La technologie deepfake est moralement discutable, mais pas intrinsèquement mauvaise. »
Adrienne de Ruiter, éthicienne et philosophe politique, a affirmé dans ses recherches que « l’expression sans consentement », « l’acte de tromper intentionnellement le public » et « l’intention malveillante » rendent les produits de cette technologie immoraux. Elle a ainsi révélé que les créateurs et le public, c’est-à-dire les personnes, et non la technologie, sont les entités à craindre. En particulier, les contenus deepfakes ciblés à petite échelle, qui ciblent des personnes ayant une influence sociale relativement importante, comme les célébrités ou les politiciens, rendent la régulation de l’expression des intentions des créateurs inévitablement difficile.
Quelles sont alors les solutions à envisager ? On peut en proposer deux principales.
Premièrement, nous devons reconnaître et accepter que nous sommes des êtres dans un monde de caméras et de systèmes de reconnaissance. L’auteur de cet article, comme vous qui le lisez, passe la plupart de son temps devant un téléphone portable et un ordinateur portable équipés de caméras.Du point de vue du système, le comportement humain est une matière brute pour les algorithmes..
Les caméras qui vérifient si un enfant est bien soigné existent pour garantir une relation idéale entre les parents et les nounous, mais elles sont aussi des entités non humaines qui apprennent et exécutent des intentions visant à limiter les humains. La conscience que nous vivons avec ces nouvelles entités peut nous aider à gérer et à contrer les intentions immorales liées aux deepfakes.
Deuxièmement, une éducation relative à ces questions doit être créée et diffusée au niveau communautaire. Nous avons tendance à chercher un sentiment d’appartenance dans des liens faibles au sein du système numérique. Ceci est lié à l’absence de sentiment d’appartenance aux groupes sociaux renforcée par la pandémie, et au désir de croire que nous sommes connectés à des personnes invisibles en fonction de nos goûts ou de nos intérêts. La vérification de TikTok à répétition jusqu’à 2 h du matin, les accès fréquents à Wikipédia, qui n’est pas censé être précis, la vérification constante des stories sur Instagram et la négligence des groupes de discussion d’équipe qui ne présentent pas un grand intérêt en sont des exemples.
Les deepfakes ont tendance à stimuler le sentiment d’appartenance issu de ces liens faibles, mais comme il n’y a pas de véritable intérêt pour les personnes concernées, il est relativement facile de dissiper l’influence des contenus associés. Bien qu’il soit difficile pour un individu de vérifier l’authenticité d’un contenu deepfake visant à ternir la réputation d’un homme politique, un projet qui a permis à un parti de distinguer le vrai du faux a prouvé qu’un programme éducatif basé sur l’optique, les valeurs et les pratiques de la communauté pouvait constituer une solution efficace. Cela signifie également que les entreprises de services de plateformes qui partagent des contenus deepfakes peuvent créer des opportunités stratégiques en élaborant et en proposant des solutions communautaires uniques à leurs utilisateurs.
Il existe des exemples positifs d’utilisation de la technologie deepfake, comme le film « Fast and Furious » qui a utilisé la technologie deepfake pour ressusciter Paul Walker à partir de la performance de son frère qui a été doublée et sur laquelle son visage a été superposé. Mais dans la vie réelle, il arrive aussi qu’une personne se fasse détruire la vie par une fausse vidéo de relations sexuelles visant une journaliste.
Il faut se rappeler que les acteurs du cinéma sont actuellement les personnes les plus protégées de la technologie deepfake. La société actuelle n’a pas encore de réponse à la question de savoir quelles mesures peuvent être prises lorsque la cible est une personne ordinaire. Avant d’attendre une réglementation juridique, il serait peut-être judicieux de commencer par une prise de conscience de nous-mêmes, qui vérifions par amusement les contenus deepfakes sur des plateformes sociales comme TikTok.
*Cet article est la version originale de l’article publié le 14 février 2023 dansla chronique du journal électronique .
Références