Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar

Выход из системы

translation

Это сообщение переведено AI.

Byungchae Ryan Son

Технология Deep Fake и человеческие намерения

  • Язык написания: Корейский
  • Базовая страна: Все страны country-flag

Выбрать язык

  • Русский
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar

Текст, резюмированный ИИ durumis

  • Китай ввел всеобъемлющие правила, ограничивающие создание Deep Fake, что является более жесткой мерой, чем меры, принятые Европейским союзом и США. По-видимому, эта мера направлена на подавление антиправительственных настроений, связанных с недавними протестами с пустыми листами бумаги.
  • Технология Deep Fake вызывает этические споры, особенно в отношении создания контента, в котором фигурируют влиятельные люди. Это вызывает опасения, связанные с возможным злоупотреблением.
  • Важно не столько регулировать технологию Deep Fake, сколько анализировать контекст создания контента и его распространение. Необходимо изменить восприятие, рассматривая человека с точки зрения системы, и решить проблему с помощью образовательных программ на уровне сообщества.

Китай ввел всеобъемлющие правила, ограничивающие создание «глубоких подделок», с 10 января.


Это часть мер по пресечению инакомыслия, связанного с недавними протестами «белого листа», и представляет собой интересный случай, поскольку это фактический запрет, в отличие от рекомендаций, которые ограничиваются Европейским союзом и США, которые ссылаются на нарушение свободы слова. Конечно, такие меры Китая стали возможными благодаря существованию «Великого файервола», системы интернет-цензуры, работающей уже более 20 лет, но огромные обязательства по обеспечению прозрачности и раскрытия информации делают этот вопрос весьма спорным.


Технологии, связанные с «глубокими подделками», с самого начала говорили о необходимости маркировки синтетического контента, но не было четкого метода его обеспечения. Кроме того, как свидетельствует выражение «интернет вечен», созданный контент практически невозможно полностью удалить, когда он распространяется. Кроме того, даже после удаления контента коллективное сознание зрителей не исчезает, что было подтверждено примером «голосов апреля», критикующих политику изоляции в Шанхае, которая повлияла на протесты «белого листа».


Исторически сложилось, что внедрение технологий в общество невозможно остановить. Статистика показывает, что 95% «глубоких подделок» в мире являются порнографическими. Примеры реального воздействия «глубоких подделок» на все общество очевидны: фальшивое заявление о капитуляции президента Украины в начале российского вторжения, а также реклама с участием Брюса Уиллиса, страдающего дизартрией. Но, возможно, нам действительно следует опасаться не способов регулирования этой технологии. Новые методы фальсификации реальности существовали всегда, и сосредоточение внимания на самых современных технологиях всегда приводит к проигрышу. Вместо этого мы должны обратить внимание на то, почему создаются эти произведения, и как они распространяются, то есть сосредоточиться на социальных факторах, лежащих в основе распространения ложной информации.

«Технологии «глубоких подделок» вызывают этические сомнения, но по своей сути не являются чем-то плохим».


Адриан де Рёйтер, этик и политолог, в своем исследовании утверждает, что «использование чужого образа без его согласия», «умышленное обман зрителей» и «злонамеренные намерения» делают результаты этой технологии безнравственными. Таким образом, она выявила, что именно намерения людей, то есть создатели и зрители, должны быть в центре внимания. В частности, для контента «глубоких подделок», направленного на такие влиятельные фигуры, как знаменитости или политики, крайне сложно регулировать проявление намерений создателей.


Как же нам двигаться дальше в поисках решений? Можно предложить два основных направления.


Во-первых, мы должны осознавать и признавать, что мы существуем в мире камер и систем распознавания. Я, автор этих строк, и вы, читающий эти строки, проводим большую часть своей повседневной жизни перед мобильными телефонами и ноутбуками с камерами.С точки зрения системы, человеческое поведение – это материал для алгоритма.

Камера, которая следит за тем, чтобы ребенок был в безопасности, нужна для идеальных отношений между родителями и няней, но она также является нечеловеческим субъектом, который учится и выполняет намерения ограничить человека. Осознание того, что мы живем вместе с этими новыми субъектами, может помочь нам управлять и реагировать на безнравственные намерения, связанные с «глубокими подделками».


Во-вторых, необходимо создавать и распространять соответствующее образование в масштабах сообщества. Мы склонны искать чувство принадлежности в слабых связях в цифровой системе. Это связано с отсутствием чувства принадлежности к общественным группам, усиленным пандемией, и желанием верить, что мы связаны с кем-то невидимым, основанным на вкусах или интересах. Примеры этого: просмотр TikTok до 2 часов ночи, частые посещения Википедии, где точность не ожидается, постоянный просмотр историй в Instagram, необработанные групповые чаты, где вам неинтересно.


«Глубокие подделки» имеют тенденцию стимулировать чувство принадлежности от этих слабых связей, но отсутствие глубокой заинтересованности в объекте делает ослабление влияния такого контента относительно легким. Проверка правдивости «глубокой подделки» политиков для снижения их доверия была затруднена для отдельного человека, но результаты одного проекта, в котором политическая партия смогла отличить ложь, доказали, что образовательные программы на основе точки зрения, ценностей и практик сообщества могут быть эффективным решением. Это также означает, что компании, предоставляющие платформенные услуги, где распространяется «глубокая подделка», могут создать стратегические возможности, разработав и предложив уникальные решения для сообщества пользователей.


С одной стороны, есть примеры позитивного использования технологии «глубокой подделки», например, фильм «Форсаж», в котором Пола Уокера, погибшего в автокатастрофе, «воскресили» путем наложения его лица на лицо его брата, который играл его роль. С другой стороны, в реальности есть примеры того, как чья-то жизнь рушится из-за поддельного видео сексуального характера, созданного для конкретной женщины-журналиста.


Важно помнить, что актеры киноиндустрии в настоящее время являются наиболее защищенными от технологии «глубоких подделок». Сегодняшнее общество не может ответить на вопрос, как реагировать, если объектом станет обычный человек. Пожалуй, прежде чем ожидать правового регулирования, нам необходимо осознать самих себя, которые развлекаются, просматривая «глубокие подделки» в социальных сетях, таких как TikTok.


*Эта статья основана на оригинальной статье, опубликованной 14 февраля 2023 года вколонке газеты «Электроника» .


Ссылки

Byungchae Ryan Son
Byungchae Ryan Son
찾아가 관찰하고 경청하는 일을 합니다.
Byungchae Ryan Son
"Тело" в эпоху ИИ: взгляд на человеческое тело за пределами экрана Прекращение лицензионного соглашения между UMG и TikTok вызвало дискуссию о развитии технологий ИИ и социальных изменениях, которые оно вызывает. Дарвиновская теория эволюции предсказывает независимость ИИ и предостерегает от потенциальных опасностей, но

16 мая 2024 г.

Неясность в отношении цифрового конфиденциальности Споры вокруг TikTok, касающиеся конфиденциальности, подчеркивают озабоченность по поводу сбора и использования данных пользователей. Компании должны отвечать на запросы пользователей о конфиденциальности, предоставляя четкие и краткие политики конфиденциа

10 мая 2024 г.

'AI эры' тело: как его рассматривать Новый сервис создания AI-видео Sora от OpenAI создает видеоролики с потрясающим реализмом по текстовому запросу. Демонстрационные видеоролики, такие как человек, кушающий гамбургер, или человек, идущий по японской улице, выглядят как рекламные ролики или

16 мая 2024 г.

Понимание мифов и реальности о статьях, написанных с помощью ИИ Google исключает из результатов поиска контент низкого качества, включая контент, сгенерированный ИИ. Качество контента имеет решающее значение, даже если вы используете ИИ, простое копирование и вставка может считаться низкокачественным контентом. То ест
durumis official blog
durumis official blog
Изображение с часто задаваемыми вопросами Durumis
durumis official blog
durumis official blog

21 февраля 2024 г.

Генерация изображений с помощью ИИ: революционная технология и реальные проблемы Генерация изображений с помощью ИИ — это революционная технология, которая позволяет создавать реалистичные изображения по текстовому описанию. Она применяется в различных областях, таких как искусство, дизайн и маркетинг, но также вызывает проблемы, связ
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan

6 мая 2024 г.

[Колонка Хё Ёнчжу] TikTok на грани запрета в США Палата представителей США приняла закон о запрете TikTok, что поставило под угрозу существование приложения в стране. Американские политики утверждают, что TikTok представляет угрозу национальной безопасности и защите данных, опасаясь чрезмерного влияния
허영주
허영주
허영주
허영주
허영주

26 июня 2024 г.

Семинар Wegofair «Меры борьбы с поддельной продукцией и практические аспекты подачи жалоб» завершен успешно 29 мая Wegofair провел в IP Campus (Сеульское отделение Корейского агентства по интеллектуальной собственности) семинар «Меры борьбы с поддельной продукцией и практические аспекты подачи жалоб», посвященный поиску реальных решений проблемы поддельной прод
피플게이트 Peoplegate
피플게이트 Peoplegate
Wegofair_поддельная продукция_поддельные товарные знаки
피플게이트 Peoplegate
피플게이트 Peoplegate

10 июня 2024 г.

[허영주 칼럼] Ютуб и даже «Морковный рынок» — как секты используют современные платформы Узнайте о 3 общих признаках сект, процессе промывания мозгов, современных методах вербовки и способах защитить себя от сектантства. Написано на основе статьи для женского экономического журнала.
허영주
허영주
허영주
허영주
허영주

18 июня 2024 г.

7 способов защитить себя от мошенничества и фишинга Появление новых видов киберпреступлений, использующих даже технологии ИИ, требует особой осторожности при использовании платежных сервисов P2P. Существуют различные методы мошенничества, такие как фишинг, кража данных банковских счетов, продажа поддельных
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

30 марта 2024 г.