Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

Esta es una publicación traducida por IA.

Byungchae Ryan Son

Tecnología Deepfake e intención humana

Seleccionar idioma

  • Español
  • English
  • 汉语
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar

Texto resumido por la IA durumis

  • China ha implementado una regulación integral que limita la creación de Deepfakes, adoptando una medida más enérgica que la Unión Europea y los Estados Unidos. Esto parece ser un intento de reprimir la disidencia relacionada con las recientes protestas en blanco.
  • La tecnología Deepfake genera controversia ética, particularmente cuando se trata de la creación de contenido dirigido a figuras con gran influencia social, ya que existe un alto riesgo de abuso.
  • En lugar de regular la tecnología Deepfake, es más importante analizar el contexto de creación y la difusión del contenido. Es necesario cambiar la perspectiva de la visión del ser humano desde el punto de vista del sistema e implementar programas educativos a nivel comunitario para abordar el problema.

China ha implementado un amplio conjunto de regulaciones para restringir la creación de “deepfakes” desde el pasado 10 de enero.


Esto se considera como una medida para detener las opiniones disidentes relacionadas con las recientes protestas en blanco, y es interesante ya que es una medida de prohibición real en comparación con la Unión Europea o los Estados Unidos, que se limitan a recomendaciones basadas en la violación de la libertad de prensa, entre otras. Por supuesto, esta medida china parece posible gracias al sistema de censura de Internet llamado “Gran Cortafuegos”, que lleva operando más de 20 años, pero la presión por cumplir con la transparencia y la divulgación de información es enorme, por lo que es probable que las dudas sobre la eficacia interna y externa se planteen continuamente.


La tecnología relacionada con los deepfakes ha planteado la necesidad de etiquetar el contenido sintético desde el principio, pero el límite es claro en el sentido de que no hay un método claro para garantizarlo. Además, como indica la expresión “Internet es para siempre”, una vez que el contenido creado se difunde, es extremadamente difícil eliminarlo por completo. Además, se ha confirmado que la conciencia colectiva de los espectadores no desaparece después de que se elimina el contenido, como se vio en el caso del contenido “Las voces de abril”, que criticó la política de bloqueo de Shanghai que afectó las protestas en blanco.


Históricamente, es imposible evitar que la tecnología se integre en la sociedad. Las estadísticas indican que el 95% de los vídeos de deepfakes del mundo son pornográficos, el vídeo falso de la rendición del presidente ucraniano al principio de la invasión rusa, la aparición en anuncios de Bruce Willis, que padece afasia, son ejemplos claros del peligro real de la tecnología deepfake, que tiene un impacto en toda la sociedad. Sin embargo, lo que realmente deberíamos tener cuidado es con la forma en que se regula la tecnología. De hecho, siempre ha existido una nueva forma de manipular la verdad, y siempre es un juego perdido centrarse en la tecnología más moderna. En cambio, debemos centrarnos en por qué se crea ese contenido y cómo se difunde, es decir, en los factores sociales que sustentan la difusión de narrativas falsas.

“La tecnología deepfake es éticamente cuestionable, pero no intrínsecamente errónea.”


Adrienne de Ruiter, ética y filósofa política, ha argumentado en su investigación que la “expresión de personas que no han dado su consentimiento”, “el acto de engañar deliberadamente a los espectadores” y “la intención dañina” hacen que los resultados de esta tecnología sean inmorales. Esto indica que la intención de las personas, es decir, los creadores y los espectadores, que están separados de la tecnología, son los que deben vigilarse. En particular, el contenido deepfake dirigido a personas con un gran impacto social, como los artistas o los políticos, es mucho más difícil de regular en cuanto a la expresión de la intención del creador.


Entonces, ¿cómo debemos crear soluciones para el futuro? Se pueden sugerir dos direcciones principales.


En primer lugar, debemos reconocer y aceptar que somos seres dentro del mundo de las cámaras y los sistemas de reconocimiento. Tanto el autor de este artículo como tú, que lo estás leyendo, pasamos la mayor parte de nuestra vida diaria delante de teléfonos móviles y portátiles equipados con cámaras.Desde el punto de vista del sistema, el comportamiento humano esmateria para algoritmos.

Las cámaras que comprueban si se está cuidando bien a un niño existen para una relación ideal entre padres y niñeras, pero también son entidades no humanas que aprenden y ejecutan la intención de restringir a los humanos. La conciencia de que convivimos con estas nuevas entidades puede ayudar a gestionar y responder a las intenciones inmorales relacionadas con los deepfakes.


En segundo lugar, es necesario que se generen y difundan programas educativos a nivel comunitario. Tenemos una tendencia a buscar la pertenencia dentro de las conexiones débiles dentro de los sistemas digitales. Esto está relacionado con la falta de pertenencia a las comunidades sociales intensificada por la pandemia, y con el deseo de creer que estamos conectados con personas invisibles por gustos o intereses. Un ejemplo de ello es comprobar repetidamente TikTok hasta las 2 de la madrugada, acceder con frecuencia a la Wikipedia, que no espera precisión, comprobar constantemente las historias de Instagram y dejar de lado los chats grupales de poca relevancia.


Los deepfakes tienden a estimular la pertenencia a partir de estas conexiones débiles, pero la falta de un interés profundo en el sujeto hace que también sea relativamente fácil desmantelar la influencia de ese contenido. Si bien era difícil para un individuo verificar la autenticidad de un contenido deepfake con el fin de desprestigiar a un político, un proyecto que identificó la falsedad desde la perspectiva de un partido demostró que un programa educativo basado en la perspectiva, los valores y las prácticas de una comunidad puede ser una solución eficaz. Esto significa que las empresas de servicios de plataforma que comparten contenido deepfake también pueden crear oportunidades estratégicas estableciendo y proponiendo estrategias de respuesta comunitarias únicas para los usuarios.


Hay casos de uso positivo de la tecnología deepfake, como la película "Fast & Furious", en la que el fallecido Paul Walker fue revivido mediante la combinación de su rostro con la actuación de su hermano, pero también se está produciendo en la realidad el caso de una periodista que ha sido víctima de un vídeo falso de relaciones sexuales y cuya vida se ha arruinado.


Es necesario recordar que los actores de la industria cinematográfica son los más protegidos de la tecnología deepfake en la actualidad. La sociedad actual aún no puede responder a la cuestión de cómo se puede responder cuando el objetivo es una persona normal. Antes de esperar una regulación legal, la primera medida necesaria es la concienciación personal sobre el uso de contenido relacionado con deepfakes como entretenimiento en redes sociales como TikTok.


*Este artículo es la versión original del artículo publicado el 14 de febrero de 2023 en la columna firmada de The Electronic Times. ⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠


Referencias

Byungchae Ryan Son
Byungchae Ryan Son
찾아가 관찰하고 경청하는 일을 합니다.
Byungchae Ryan Son
La ambigüedad hacia la privacidad digital La controversia sobre la privacidad que rodea a TikTok pone de manifiesto las preocupaciones sobre la recopilación y el uso de datos de los usuarios. Las empresas deben responder a las demandas de privacidad de los usuarios proporcionando políticas de pr

10 de mayo de 2024

'Cuerpo' en la era de la IA: ¿cómo verlo? El nuevo servicio de generación de video de IA de OpenAI, Sora, crea videos de realismo asombroso a partir de entradas de texto. Los videos de demostración de una persona comiendo una hamburguesa, una persona caminando por las calles de Japón, etc., se pa

16 de mayo de 2024

Un mundo impregnado de IA generativa: Teoría de la disonancia y proceso El avance de la tecnología de IA generativa plantea nuevas preguntas sobre la competitividad de los creadores en los campos del arte, la publicidad y los medios. Este artículo destaca la necesidad de que los creadores enfaticen perspectivas ricas del mund

9 de mayo de 2024

IA generadora de imágenes, su tecnología innovadora y los desafíos del mundo real La IA generadora de imágenes es una tecnología innovadora que crea imágenes realistas a partir de la entrada de texto. Se utiliza en una variedad de campos, como arte, diseño y marketing, pero también presenta problemas como la propiedad intelectual, los
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan

6 de mayo de 2024

Malentendidos y verdades sobre los artículos escritos por IA generativa Google excluye de los resultados de búsqueda el contenido de baja calidad, incluido el contenido generado por IA. Incluso si utiliza la IA, la calidad del contenido es importante, y la simple copia y pegado puede considerarse de baja calidad. En otras pal
durumis official blog
durumis official blog
Imagen de preguntas frecuentes de durumis
durumis official blog
durumis official blog

21 de febrero de 2024

[Columna de Heoyoung Joo] La dualidad de las 'formas cortas' adictivas como las drogas La adicción a las formas cortas, que te hace ver 34 horas seguidas después de querer ver 34 minutos, te presentamos 3 métodos para un hábito de visualización saludable. Es un artículo publicado en el periódico de economía femenina.
허영주
허영주
허영주
허영주
허영주

14 de junio de 2024

[Columna de Heoyoung Ju] TikTok en peligro de ser expulsado de Estados Unidos La Cámara de Representantes de Estados Unidos aprobó una ley para prohibir TikTok, lo que ha puesto a la plataforma en riesgo de ser expulsada de Estados Unidos. Los políticos estadounidenses argumentan que TikTok es una amenaza para la seguridad nacional
허영주
허영주
허영주
허영주
허영주

26 de junio de 2024

Parte donde un inversor individual es más ventajoso que Private Equity: el efectivo se utiliza lo más rápido posible, pero no es necesario utilizarlo todo Private Equity tiende a invertir rápidamente los fondos del fondo para obtener altos rendimientos, lo que puede llevar a acuerdos descabellados. En particular, Blind Fund no tiene un destino de inversión establecido, por lo que las inversiones rápidas son
고집스런가치투자
고집스런가치투자
고집스런가치투자
고집스런가치투자

3 de abril de 2024

Riesgos de TikTok, ¿es TikTok realmente peligroso? Con la popularidad de TikTok, examinamos en detalle los factores de riesgo asociados con el uso de TikTok, como los algoritmos personalizados, el desplazamiento infinito, la adicción, los problemas de privacidad y seguridad, y proporcionamos consejos para
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

13 de abril de 2024