Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

Esta é uma postagem traduzida por IA.

Byungchae Ryan Son

Tecnologia Deepfake e Intenção Humana

  • Idioma de escrita: Coreana
  • País de referência: Todos os países country-flag

Selecionar idioma

  • Português
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar

Texto resumido pela IA durumis

  • A China implementou regulamentações abrangentes para restringir a produção de Deepfakes, tomando medidas mais fortes do que a União Europeia e os Estados Unidos, o que parece ser um esforço para reprimir a dissidência relacionada aos recentes protestos de papel em branco.
  • A tecnologia Deepfake levanta controvérsias éticas, particularmente preocupante com o potencial de abuso na criação de conteúdo direcionado a figuras influentes na sociedade.
  • Em vez de regular a tecnologia Deepfake, é mais importante analisar o contexto de produção e a difusão do conteúdo, mudando a forma como vemos os humanos do ponto de vista do sistema, e resolvendo os problemas através de programas educativos em nível comunitário.

A China implementou regulamentos abrangentes para restringir a criação de "deepfakes" a partir de 10 de fevereiro.


Isso faz parte de uma série de medidas para impedir a opinião pública dissidente associada aos recentes protestos em branco e é interessante porque é uma proibição real, em contraste com a União Europeia ou os EUA, que, com base na violação da liberdade de imprensa, por exemplo, limitaram suas medidas a recomendações. Claro, essa medida da China é possível devido ao sistema de censura da Internet, conhecido como Grande Firewall, que opera há mais de 20 anos. No entanto, a pressão para garantir a transparência e o cumprimento da divulgação de informações é enorme, então é provável que as dúvidas sobre sua eficácia interna e externa persistam.


Desde o início, as tecnologias relacionadas a "deepfakes" têm defendido a necessidade de rotular o conteúdo sintetizado, mas é claro que há uma lacuna clara em relação a como garantir isso. Além disso, como a frase "A Internet é para sempre" indica, é extremamente difícil apagar completamente o conteúdo criado uma vez que ele se propaga. Além disso, mesmo após a exclusão do conteúdo, a consciência coletiva dos espectadores não desaparece, como pode ser visto no caso do conteúdo "Vozes de Abril", que criticava a política de bloqueio de Xangai, que teve um impacto nos protestos em branco.


Historicamente, a tecnologia tem sido impossível de impedir de se infiltrar na sociedade. Estatísticas indicam que 95% dos vídeos de "deepfakes" no mundo são pornográficos, o vídeo falso da rendição do presidente ucraniano no início da invasão russa e o endosso de Bruce Willis, que sofre de afasia, para um anúncio são exemplos concretos e perigosos do impacto da tecnologia de "deepfakes" em toda a sociedade. No entanto, o que realmente devemos ter cuidado é o método de regulamentação dessa tecnologia. Novas formas de manipular a verdade sempre existiram, e focar na tecnologia mais recente é, no final das contas, um jogo sempre perdido. Em vez disso, devemos nos concentrar no motivo pelo qual essas produções são feitas e como elas se espalham, ou seja, nos fatores sociais que sustentam a disseminação de narrativas falsas.

“A tecnologia "deepfake" é eticamente questionável, mas não inerentemente errada.”


Em sua pesquisa, a ética e filósofa política Adrienne de Ruiter argumenta que a "expressão sem consentimento de alguém", o "ato de enganar propositalmente os espectadores" e a "intenção prejudicial" são o que tornam as saídas dessa tecnologia imorais. Ela revelou que são as intenções das pessoas, separadas da tecnologia, que devem ser observadas, tanto o criador quanto o espectador, ou seja, a pessoa. Em particular, no caso de "deepfakes" direcionados a pessoas com grande influência social, como celebridades ou políticos, é difícil regular a expressão das intenções dos criadores.


Então, como devemos construir alternativas relacionadas a isso no futuro? Podem ser apresentadas duas grandes direções.


Primeiro, devemos reconhecer e admitir que somos seres no mundo dos sistemas de câmera e reconhecimento. Eu, que estou escrevendo este artigo, e você, que está lendo, passamos a maior parte do nosso dia a dia na frente de telefones celulares e laptops com câmeras.Do ponto de vista do sistema, o comportamento humano é material para algoritmos.

As câmeras que verificam se as crianças estão sendo bem cuidadas existem para o bem do relacionamento ideal entre pais e babás, mas também são entidades não humanas que aprendem e executam a intenção de restringir humanos. A consciência de que estamos vivendo com essas novas entidades pode nos ajudar a gerenciar e lidar com as intenções imorais associadas a "deepfakes".


Segundo, a educação relacionada a isso deve ser criada e disseminada em nível comunitário. Somos propensos a buscar pertencimento em conexões fracas dentro de sistemas digitais. Isso se refere à ausência de pertencimento a grupos sociais, que foi intensificada pela pandemia, e ao desejo de acreditar que estamos conectados a pessoas invisíveis por meio de gostos e interesses. Verificação do TikTok repetidas vezes até as 2 da manhã, acesso frequente a wikis, que não são esperados para serem precisos, verificação constante de histórias no Instagram e abandono de salas de bate-papo em grupo com pouco interesse são exemplos disso.


"Deepfakes" tendem a estimular o senso de pertencimento dessas conexões fracas, mas, como não há um grande interesse nas entidades em questão, a desconstrução da influência de seu conteúdo também é relativamente fácil. Verificar a autenticidade de um conteúdo "deepfake" para minar a credibilidade de um político era difícil para um indivíduo, mas um projeto que distinguia o falso do verdadeiro em nível de partido mostrou que um programa educacional baseado nas perspectivas, valores e práticas da comunidade pode ser uma alternativa eficaz. Isso significa que as empresas de serviços de plataforma que compartilham conteúdo "deepfake" também podem criar oportunidades estratégicas, estabelecendo e propondo medidas de resposta específicas da comunidade para seus usuários.


Há exemplos de uso positivo da tecnologia "deepfake", como o filme "Velozes e Furiosos", que ressuscitou Paul Walker, que morreu em um acidente, usando a face de seu irmão sobre uma dublê, mas também há casos reais em que a vida de uma jornalista é arruinada por um vídeo falso de sexo que a tinha como alvo.


Vale lembrar que os atores da indústria cinematográfica são os mais protegidos atualmente da tecnologia "deepfake". No entanto, a sociedade ainda não consegue responder como lidar com isso quando o alvo são pessoas comuns. Antes da expectativa de regulamentação legal, talvez a primeira etapa seja a conscientização de nós mesmos, que verificamos conteúdo "deepfake" no TikTok e outras redes sociais por diversão.


*Este artigo é a versão original do artigo publicado emColuna assinada no jornal eletrônico em 14 de fevereiro de 2023.


Referências

Byungchae Ryan Son
Byungchae Ryan Son
찾아가 관찰하고 경청하는 일을 합니다.
Byungchae Ryan Son
A ambiguidade em direção à privacidade digital A controvérsia sobre privacidade em torno do TikTok revela preocupações sobre a coleta e o uso de dados do usuário. As empresas devem responder às demandas dos usuários por privacidade, fornecendo políticas de privacidade claras e concisas, e oferecendo r

10 de maio de 2024

O mundo permeado pela IA Generativa: Teoria da Dissonância e Processo O avanço da tecnologia de IA Generativa levanta novas questões sobre a competitividade dos criadores nas áreas de arte, publicidade e mídia. Este artigo destaca a necessidade dos criadores de enfatizarem uma perspectiva rica do mundo real e o valor do pro

9 de maio de 2024

O 'corpo' na era da IA: Como devemos encará-lo? O novo serviço de geração de vídeo de IA da OpenAI, Sora, cria vídeos com realismo surpreendente a partir da entrada de texto. Os vídeos de demonstração, como uma pessoa comendo um hambúrguer ou andando pelas ruas do Japão, parecem cenas de comerciais ou

16 de maio de 2024

[Coluna de Heoyoung Ju] TikTok em risco de ser expulso dos EUA A Câmara dos Representantes dos EUA aprovou uma lei que proíbe o TikTok, colocando a plataforma em risco de ser expulsa dos Estados Unidos. O cenário político americano argumenta que o TikTok é uma ameaça à segurança nacional e à proteção de dados, expres
허영주
허영주
허영주
허영주
허영주

26 de junho de 2024

IA de geração de imagens: tecnologia inovadora e desafios na realidade A IA de geração de imagens é uma tecnologia inovadora que permite criar imagens realistas a partir de apenas texto. Ela é utilizada em diversas áreas como arte, design e marketing, mas também apresenta problemas como direitos autorais, preconceito e geraç
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan

6 de maio de 2024

Mal entendidos e verdades sobre textos escritos por IA generativa O Google exclui dos resultados de pesquisa conteúdo de baixa qualidade, incluindo conteúdo gerado por IA. Mesmo que você use IA, a qualidade do conteúdo é importante, e o simples copiar e colar pode ser considerado de baixa qualidade. Em outras palavras,
durumis official blog
durumis official blog
Imagem de FAQ do durumis
durumis official blog
durumis official blog

21 de fevereiro de 2024

O futuro breve, na minha opinião A IA causará grandes mudanças no futuro dos desenvolvedores. A IA substituirá tarefas simples, como a criação de protótipos e o desenvolvimento de front-end, mas desenvolvedores habilidosos se concentrarão na resolução estratégica de problemas e na geraçã
Mark Ball Blog
Mark Ball Blog
Imagem do futuro na minha opinião
Mark Ball Blog
Mark Ball Blog

26 de março de 2024

[Coluna de Heo Yeong-ju] A natureza dupla do 'Short Form', que é viciante como uma droga O vício do short form, que leva à visualização por 34 horas depois de assistir por 34 minutos, apresenta três métodos para um hábito de visualização saudável. Este é um artigo publicado no jornal econômico feminino.
허영주
허영주
허영주
허영주
허영주

14 de junho de 2024

Riscos do TikTok, o TikTok é realmente perigoso? Com a popularidade do TikTok, os riscos associados ao seu uso, como algoritmos personalizados, rolagem infinita, vício, problemas de privacidade e segurança, são examinados em detalhes. O artigo também fornece dicas para uso seguro. Descubra os problemas
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

13 de abril de 2024