![translation](https://cdn.durumis.com/common/trans.png)
これはAIが翻訳した投稿です。
言語を選択
durumis AIが要約した文章
- 中国は、ディープフェイクの制作を制限する包括的な規制を施行し、欧州連合や米国とは異なる強力な措置を講じています。 これは、最近の白紙運動に関連する反体制的な世論を抑制するためと考えられます。
- ディープフェイク技術は倫理的な論争を引き起こしており、特に社会的影響力が大きい人物を対象としたコンテンツ制作の場合、 悪用される可能性が高いため懸念されています。
- ディープフェイク技術の規制よりも、コンテンツ制作の背景と拡散過程を分析することがより重要です。 システムの観点から人間を見る認識の転換と、コミュニティ単位の教育プログラムを通じて問題を解決していくことができます。
中国は10日から、「ディープフェイク」制作を制限する包括的な規制を実施した。
これは、最近の白紙の抗議運動と関連する反体制的な世論を抑えるための措置の一環であり、言論の自由の侵害などを理由に、 勧告レベルにとどまっている欧州連合や米国とは対照的な、実質的な禁止措置であるという点で興味深い。 もちろん、中国のこのような措置は、20年以上運用されてきた万里の長城と呼ばれるインターネット検閲システムがあるために 可能になった部分があるが、透明性と情報公開の遵守に対する負担は非常に大きいため、国内外の有効性に対する疑問は 今後も提起される可能性が高い。
ディープフェイク関連技術は初期から、合成コンテンツのラベル付けの必要性を訴えてきたが、実際にそれを保証する方法は不明確であるという 限界が明確であった。また、インターネットは永遠であるという表現からもわかるように、制作されたコンテンツが拡散した場合、 完全に削除することは非常に難しい。さらに、コンテンツが削除された後でも、視聴者の集団意識は消えないという点は、 上海のロックダウン政策を批判した「4月の声」コンテンツの事例からも確認されている。
歴史的に、技術が社会に浸透することは防ぎようがない。世界中のディープフェイク動画の95%がポルノであるという統計、 ロシアの侵攻初期のウクライナ大統領の偽の降伏宣言動画、失語症を患うブルース・ウィリスの広告出演など、 社会全体に影響を与えるディープフェイク技術の危険な現実的な事例は明らかである。 しかし、私たちが本当に警戒すべきなのは、当該技術の規制方法かもしれない。事実を操作する新しい方法は常に存在しており、 常に最新の技術に注目することは、結果的に常に負けるゲームになる。 むしろ私たちが注目すべきなのは、関連する制作物がなぜ制作され、どのように拡散されるのか、つまり、虚偽の物語の拡散を 支える社会的要因に注目することである。
「ディープフェイク技術は倫理的に疑わしいが、本質的に間違っているわけではない。」
倫理学者であり政治哲学者でもあるアドリアン・ド・レイター(Adrienne de Ruiter)は、彼女の研究を通じて、 「同意のない者の表現」、「視聴者を意図的に欺く行為」、そして「有害な意図」が、当該技術の成果物を非倫理的に しているという意見を述べている。 これは、当該技術と分離された制作者と視聴者、つまり人間の意図こそが警戒すべき主体であることを明らかにしている。 特に、芸能人や政治家など、社会的な影響力が比較的大きい対象に対するマイクロターゲット化されたディープフェイク コンテンツは、制作者の意図の発現を規制することが難しい。
では、今後、関連する代替案はどのように構築していくべきだろうか?大きく2つの方向に示唆される。
第一に、私たちは、カメラと認識システムの世界における存在であることを認識し、受け入れる必要がある。 この文章を書いている私も、この文章を読んでいるあなたも、カメラが搭載された携帯電話やノートパソコンの前で、 日常生活の大半を過ごしている。システムの視点から、人間の行動はアルゴリズムのための物質である。
子供をきちんと面倒を見ているかを確認するカメラは、親とベビーシッターの理想的な関係のために存在するが、 人間が人間を制限しようとする意図を学習し、実行する非人間的な主体でもある。 私たちがこれらの新しい主体と共に生活しているという意識は、ディープフェイクと関連した非倫理的な意図の管理と対応に役立つ。
第二に、コミュニティ単位の関連する教育が生成され、拡散される必要がある。 私たちは、デジタル体系内の弱い結びつきの中で、所属感を求める傾向がある。 これは、パンデミックによって強化された、社会集団からの所属感の欠如と関連して、好みや関心事などで、 目に見えない誰かとつながっていると感じたいという現象である。 深夜2時まで続くTikTokの確認、正確性を期待しないウィキペディアへの頻繁なアクセス、インスタグラムの継続的なストーリーの確認、 関心の薄いグループチャットの放置などが、その例である。
ディープフェイクは、これらの弱い結びつきからの所属感を刺激する傾向があるが、当該主体に対する深い関心が ないという点で、関連するコンテンツの影響力解体も比較的容易である。 政治家の信用を落とすためのディープフェイクコンテンツの真偽を確認することは、個人としては難しいが、 政党の単位では嘘を見抜いたプロジェクトの結果は、コミュニティの視点、価値観、慣習に基づいた教育プログラムが 効果的な代替案になる可能性を示している。 これは、ディープフェイクコンテンツが共有されるプラットフォームサービス企業が、ユーザー向けの独自のコミュニティ対応策を 策定し、提案することで、戦略的な機会を生み出すことができることを意味する。
事故で亡くなったポール・ウォーカーを、実の弟の代役演技に顔だけ合成して復活させた映画「ワイルド・スピード」のような、 ディープフェイク技術の肯定的な活用事例がある一方で、ある女性ジャーナリストを標的にした偽の性的関係動画によって、 一人の人生が台無しになる事例も、現実で起きている。
映画業界の俳優たちは、現在、ディープフェイク技術から最も保護されている人々であることを覚えておく必要がある。 対象が一般人になった場合、どのような対応が可能なのか、現在の社会はまだ答えられないようだ。 法的規制への期待の前に、TikTokなどのソーシャルチャンネルで、ディープフェイク関連コンテンツを面白半分で確認する 私たち自身に対する自覚こそが、最も必要な最初のステップではないだろうか。
*この記事は、23年2月14日付け電子新聞署名コラム 掲載された内容の原本です。
References