Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

Ceci est un post traduit par IA.

Byungchae Ryan Son

Technologie Deepfake et intention humaine

Choisir la langue

  • Français
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar

Texte résumé par l'IA durumis

  • La Chine a mis en œuvre une réglementation globale limitant la création de Deepfakes, prenant des mesures plus strictes que l'Union européenne et les États-Unis. Cela semble être un effort pour réprimer les opinions dissidentes liées aux récentes protestations de la feuille blanche.
  • La technologie Deepfake suscite des controverses éthiques, en particulier pour la création de contenu ciblant des personnalités influentes, ce qui soulève des inquiétudes quant à son potentiel d'abus.
  • Il est plus important de réglementer la technologie Deepfake que d'analyser le contexte de création du contenu et son processus de diffusion. En changeant notre façon de voir les humains dans une perspective systémique et en mettant en place des programmes éducatifs au niveau des communautés, nous pouvons résoudre le problème.

La Chine a mis en œuvre une réglementation globale pour limiter la création de « deepfakes » à partir du 10 février.


Ceci fait partie des mesures visant à empêcher l’opinion publique anti-régime liée aux récentes manifestations du papier blanc, ce qui est intéressant car il s’agit d’une mesure d’interdiction réelle par opposition à l’Union européenne ou aux États-Unis, qui n’ont mis en œuvre que des recommandations au niveau consultatif en raison de violations de la liberté de la presse. Bien sûr, ces mesures prises par la Chine sont possibles en raison du système de censure d’Internet appelé « Great Firewall » qui est en place depuis plus de 20 ans, mais le fardeau du respect de la transparence et de la divulgation d’informations est si lourd que l’efficacité interne et externe est susceptible d’être remise en question de manière persistante.


Les technologies associées aux deepfakes ont toujours appelé à la nécessité d’étiqueter les contenus synthétiques, mais la limite est qu’il n’existe aucun moyen clair de garantir cela. De plus, comme le dit l’expression « Internet est éternel », une fois que le contenu créé est diffusé, il est extrêmement difficile de l’effacer complètement. De plus, même après la suppression du contenu, la conscience collective des téléspectateurs ne disparaît pas, comme en témoigne l’exemple du contenu « Voices of April » qui critiquait la politique de confinement à Shanghai qui a eu un impact sur les manifestations du papier blanc.


Historiquement, il est impossible d’empêcher la technologie de s’infiltrer dans la société. Les statistiques indiquent que 95 % des vidéos deepfakes sont pornographiques, les fausses déclarations de reddition du président ukrainien au début de l’invasion de la Russie et les apparitions publicitaires de Bruce Willis, atteint d’aphasie, sont des exemples réels et dangereux de la manière dont la technologie deepfake peut avoir un impact sur l’ensemble de la société. Cependant, ce que nous devons vraiment craindre, ce n’est peut-être pas la manière dont cette technologie est réglementée. De nouvelles façons de manipuler la réalité existent depuis toujours, et se concentrer sur les technologies les plus récentes est toujours un jeu perdant. Au contraire, nous devons nous concentrer sur les raisons pour lesquelles ces productions sont créées et la manière dont elles se propagent, c’est-à-dire nous concentrer sur les facteurs sociaux qui sous-tendent la diffusion de faux récits.

« La technologie deepfake est moralement discutable, mais pas intrinsèquement mauvaise. »


Adrienne de Ruiter, éthicienne et philosophe politique, a affirmé dans ses recherches que « l’expression sans consentement », « l’acte de tromper intentionnellement le public » et « l’intention malveillante » rendent les produits de cette technologie immoraux. Elle a ainsi révélé que les créateurs et le public, c’est-à-dire les personnes, et non la technologie, sont les entités à craindre. En particulier, les contenus deepfakes ciblés à petite échelle, qui ciblent des personnes ayant une influence sociale relativement importante, comme les célébrités ou les politiciens, rendent la régulation de l’expression des intentions des créateurs inévitablement difficile.


Quelles sont alors les solutions à envisager ? On peut en proposer deux principales.


Premièrement, nous devons reconnaître et accepter que nous sommes des êtres dans un monde de caméras et de systèmes de reconnaissance. L’auteur de cet article, comme vous qui le lisez, passe la plupart de son temps devant un téléphone portable et un ordinateur portable équipés de caméras.Du point de vue du système, le comportement humain est une matière brute pour les algorithmes..

Les caméras qui vérifient si un enfant est bien soigné existent pour garantir une relation idéale entre les parents et les nounous, mais elles sont aussi des entités non humaines qui apprennent et exécutent des intentions visant à limiter les humains. La conscience que nous vivons avec ces nouvelles entités peut nous aider à gérer et à contrer les intentions immorales liées aux deepfakes.


Deuxièmement, une éducation relative à ces questions doit être créée et diffusée au niveau communautaire. Nous avons tendance à chercher un sentiment d’appartenance dans des liens faibles au sein du système numérique. Ceci est lié à l’absence de sentiment d’appartenance aux groupes sociaux renforcée par la pandémie, et au désir de croire que nous sommes connectés à des personnes invisibles en fonction de nos goûts ou de nos intérêts. La vérification de TikTok à répétition jusqu’à 2 h du matin, les accès fréquents à Wikipédia, qui n’est pas censé être précis, la vérification constante des stories sur Instagram et la négligence des groupes de discussion d’équipe qui ne présentent pas un grand intérêt en sont des exemples.


Les deepfakes ont tendance à stimuler le sentiment d’appartenance issu de ces liens faibles, mais comme il n’y a pas de véritable intérêt pour les personnes concernées, il est relativement facile de dissiper l’influence des contenus associés. Bien qu’il soit difficile pour un individu de vérifier l’authenticité d’un contenu deepfake visant à ternir la réputation d’un homme politique, un projet qui a permis à un parti de distinguer le vrai du faux a prouvé qu’un programme éducatif basé sur l’optique, les valeurs et les pratiques de la communauté pouvait constituer une solution efficace. Cela signifie également que les entreprises de services de plateformes qui partagent des contenus deepfakes peuvent créer des opportunités stratégiques en élaborant et en proposant des solutions communautaires uniques à leurs utilisateurs.


Il existe des exemples positifs d’utilisation de la technologie deepfake, comme le film « Fast and Furious » qui a utilisé la technologie deepfake pour ressusciter Paul Walker à partir de la performance de son frère qui a été doublée et sur laquelle son visage a été superposé. Mais dans la vie réelle, il arrive aussi qu’une personne se fasse détruire la vie par une fausse vidéo de relations sexuelles visant une journaliste.


Il faut se rappeler que les acteurs du cinéma sont actuellement les personnes les plus protégées de la technologie deepfake. La société actuelle n’a pas encore de réponse à la question de savoir quelles mesures peuvent être prises lorsque la cible est une personne ordinaire. Avant d’attendre une réglementation juridique, il serait peut-être judicieux de commencer par une prise de conscience de nous-mêmes, qui vérifions par amusement les contenus deepfakes sur des plateformes sociales comme TikTok.


*Cet article est la version originale de l’article publié le 14 février 2023 dansla chronique du journal électronique .


Références

Byungchae Ryan Son
Byungchae Ryan Son
찾아가 관찰하고 경청하는 일을 합니다.
Byungchae Ryan Son
L'ambiguïté face à la confidentialité numérique La controverse sur la protection des données personnelles entourant TikTok révèle des inquiétudes quant à la collecte et à l'utilisation des données des utilisateurs. Pour répondre aux exigences des utilisateurs en matière de confidentialité, les entrepri

10 mai 2024

Le « corps » à l’ère de l’IA : comment le considérer ? Sora, le nouveau service de génération de vidéo IA d’OpenAI, produit des vidéos d’un réalisme étonnant à partir d’entrées de texte. Les vidéos de démonstration, comme une personne mangeant un hamburger ou une personne marchant dans une rue japonaise, ress

16 mai 2024

Le monde imprégné par l'IA générative : Théorie de la dissonance et processus Les progrès de la technologie d'IA générative soulèvent de nouvelles questions sur la compétitivité des créateurs dans les domaines de l'art, de la publicité et des médias. Cet article souligne qu'en raison de l'évolution rapide de l'environnement numériq

9 mai 2024

L'IA de génération d'images, une technologie révolutionnaire et ses défis réels L'IA de génération d'images est une technologie révolutionnaire qui permet de créer des images réalistes à partir de simples entrées de texte. Elle est utilisée dans divers domaines tels que l'art, le design et le marketing, mais elle pose également des p
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan

6 mai 2024

[Colonne d'Heoung-Joo Heo] TikTok au bord de l'expulsion des États-Unis La Chambre des représentants américaine a adopté un projet de loi interdisant TikTok, ce qui menace l'application de son expulsion des États-Unis. Le monde politique américain affirme que TikTok constitue une menace pour la sécurité nationale et la sécuri
허영주
허영주
허영주
허영주
허영주

26 juin 2024

Les malentendus et les vérités sur les textes écrits par l'IA générative Google exclut des résultats de recherche le contenu de faible qualité, y compris le contenu généré par l'IA. Même si vous utilisez l'IA, la qualité du contenu est importante, et le simple copier-coller peut être considéré comme de faible qualité. En d'aut
durumis official blog
durumis official blog
Image FAQ de Durumis
durumis official blog
durumis official blog

21 février 2024

Les risques de TikTok, TikTok est-il vraiment dangereux ? Avec la popularité de TikTok, nous examinons de près les risques associés à l’utilisation de TikTok, tels que l’algorithme personnalisé, le défilement infini, la dépendance, les problèmes de confidentialité et de sécurité, et nous fournissons des conseils
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

13 avril 2024

Mon avenir personnel à court terme L'IA transformera considérablement l'avenir des développeurs. Bien que l'IA puisse automatiser des tâches simples telles que la création de prototypes et le développement front-end, les développeurs compétents se concentreront sur la résolution de problèm
Mark Ball Blog
Mark Ball Blog
Image de l'avenir selon mes réflexions personnelles
Mark Ball Blog
Mark Ball Blog

26 mars 2024

[Colonne de Heoyoung Ju] La dualité de la « short form », une dépendance semblable à la drogue La dépendance à la « short form », qui vous fait passer de 34 minutes à 34 heures de visionnage, 3 méthodes pour une habitude de visionnage saine. Cet article est publié dans le journal Women's Economy.
허영주
허영주
허영주
허영주
허영주

14 juin 2024