DOLAR
OFICIAL $816.08
COMPRA
$875.65
VENTA
BLUE $1.18
COMPRA
$1.20
VENTA

We Are the World: el video viral que desafía los límites entre la realidad y la inteligencia artificial

Un deepfake hiperrealista muestra a líderes mundiales como Donald Trump, Vladimir Putin y Volodímir Zelenski cantando juntos la icónica canción de 1985. La pieza, generada íntegramente con inteligencia artificial, reaviva el debate sobre los límites de esta tecnología, su impacto en la percepción de la realidad y los riesgos que implica en la era de la posverdad.

La inteligencia artificial ha dejado de ser una promesa futurista para convertirse en una fuerza capaz de transformar nuestra percepción del mundo. La reciente viralización de un video en el que líderes políticos como Donald Trump, Vladimir Putin y Volodímir Zelenski aparecen cantando We Are the World es una muestra inquietante de hasta dónde ha llegado esta tecnología. El nivel de realismo es tal que, sin un análisis detallado, resulta casi imposible discernir que se trata de un deepfake.

Este fenómeno no es un caso aislado. En los últimos meses, imágenes falsas pero hiperrealistas han circulado masivamente, como la famosa foto del Papa Francisco con una campera blanca de diseño o la reciente campaña de una reconocida marca deportiva, que vistió digitalmente a figuras históricas ya fallecidas. La pregunta es inevitable: si la inteligencia artificial puede generar imágenes y videos indistinguibles de la realidad, ¿cómo podremos confiar en lo que vemos?

Para comprender el alcance de este fenómeno, conversamos con dos expertos en tecnologías emergentes: Agustina Paz y Facundo Badillo, co-founders de NeXthumans, un programa inmersivo dirigido a líderes y diseñado para conocer y experimentar cómo las últimas tendencias en ciencia y tecnología exponencial y su convergencia están cambiando la manera en que vemos al mundo y cómo esto puede impactar hoy mismo en la empresa.

-El video de "We Are the World" con los principales líderes mundiales ha sorprendido a muchos. ¿Qué tan avanzada está la IA en la creación de este tipo de contenidos y qué tan difícil es distinguir lo real de lo artificial hoy en día?

-Agustina: La IA generativa ya no es solo una tecnología impresionante; es un fenómeno cultural que está redefiniendo nuestra relación con la realidad. Hoy, no solo se pueden clonar voces o hacer videos hiperrealistas, sino que las herramientas para hacerlo son cada vez más accesibles. Esto plantea un problema más profundo: pronto no vamos a saber si quien nos llama o nos hace una videollamada es realmente la persona que conocemos o una versión sintética creada con IA. No es solo un tema de desinformación, sino de identidad y confianza en las interacciones digitales y sobre todo la potencialidad de las estafas que ya son un tema diario y que a muchos, no importa la edad, nos pueden agarrar desprevenidos aunque haya personas mas vulnerables que otras.


 

-¿Qué impacto podría tener en un futuro la IA generativa en áreas como la educación, la política y la justicia? ¿Estamos preparados para un mundo en el que la evidencia audiovisual ya no sea confiable?

-Agustina: Más que preguntarnos si estamos preparados, deberíamos preguntarnos cómo podemos prepararnos. En educación, la IA puede ser una herramienta poderosa para personalizar el aprendizaje, pero también cambia por completo la manera en que evaluamos el conocimiento. Ya no tiene sentido centrarnos en respuestas perfectas o en la memorización, porque cualquier alumno con acceso a IA puede generar contenido impecable en segundos. El desafío está en diseñar nuevas formas de evaluación que prioricen el pensamiento crítico, la capacidad de análisis y la creatividad, en lugar de solo medir cuánto contenido recuerdan los estudiantes. La IA debería ser vista como un aliado para desarrollar habilidades más profundas, no como una trampa que pone en riesgo la enseñanza tradicional.

En ese contexto, Agustina explica: “En política, la manipulación de videos y audios puede cambiar por completo la dinámica electoral y la opinión pública. Un deepfake bien hecho podría dañar la reputación de un candidato o influir en una elección antes de que se pueda desmentir. Además, en sociedades polarizadas como las de nuestra región, donde la información ya circula de manera fragmentada, esto podría profundizar aún más las divisiones”.

“En justicia, el problema es aún más delicado. Las pruebas audiovisuales han sido históricamente un pilar en investigaciones judiciales, pero si cualquier video puede ser manipulado, ¿cómo validamos la evidencia? Vamos a necesitar sistemas de certificación digital que permitan rastrear la autenticidad de un archivo desde su origen. De lo contrario, corremos el riesgo de que los deepfakes no solo sean usados para fabricar pruebas falsas, sino también para desacreditar pruebas reales”, sostiene.

AGUSTINA PAZ FACUNDO BADILLO

-Hay algunos casos que han llamado mucho la atención, como la famosa imagen del Papa Francisco con una campera blanca o la reciente campaña de una famosa marca deportiva con figuras históricas recreadas digitalmente. Estos ejemplos han generado un debate ético. ¿Crees que la tecnología está avanzando más rápido de lo que podemos regularla?

-Agustina: Siempre ha sido así: la tecnología avanza exponencialmente y la regulación lo hace de manera más lenta y fragmentada. Lo que estamos viendo ahora es que la IA está impactando ámbitos que antes considerábamos seguros: desde la identidad de figuras públicas hasta la construcción de narrativas históricas. Pero más que una carrera entre tecnología y regulación, la clave está en generar nuevos marcos de confianza. No se trata solo de leyes, sino de desarrollar mecanismos que permitan validar lo que consumimos y compartimos. El problema es que seguimos intentando regular el mundo digital con modelos lineales, mientras la IA y otras tecnologías avanzan de forma exponencial.

 

-En términos técnicos, ¿qué herramientas y modelos de IA permiten crear estos deepfakes tan realistas y cómo han evolucionado en los últimos años?

-Agustina: Los avances en redes neuronales han hecho que los deepfakes pasen de ser una novedad a una tecnología accesible y extremadamente realista. Lo que hace posible esto son dos tipos de modelos principales: las GANs (Generative Adversarial Networks) y los transformers. Para explicarlo de forma más sencilla, imaginemos a dos inteligencias artificiales compitiendo entre sí: una genera imágenes falsas (como un falsificador de billetes) y la otra trata de detectar si son reales o no (como un detective). Cuanto más juegan entre ellas, mejor se vuelve la falsificadora hasta que es casi imposible distinguir su trabajo de la realidad. Así funcionan las GANs, que permiten generar rostros, videos y hasta voces de personas que nunca existieron.

Y añade: “Hoy, herramientas como Sora, Runway, HeyGen y ElevenLabs pueden crear videos, audios y textos hiperrealistas con solo unos clics. Lo más impresionante es que esta tecnología ya no es exclusiva de expertos: cualquier persona con acceso a estas herramientas puede generar contenido que antes requería estudios de cine o edición profesiona”.

 

-Los deepfakes ya se están utilizando en cine, publicidad e incluso política. ¿Cuáles son los límites de su aplicación y qué riesgos representa esto para la sociedad?

-Agustina: El problema con los deepfakes no es solo que puedan usarse para engañar, sino que pueden generar un fenómeno aún más complejo: la duda sistemática sobre lo que es real. Si cualquier video puede ser falso, ¿cómo validamos la verdad? En nuestra región, donde la comunicación política y la confianza en las instituciones ya son temas sensibles, esto puede tener un impacto profundo. Pero al mismo tiempo, la capacidad de adaptación que tenemos en Latam nos puede dar una ventaja para generar soluciones innovadoras. No se trata solo de definir límites, sino de aprender a convivir con esta nueva realidad sin perder el sentido crítico.

 

-¿Crees que las plataformas y redes sociales deberían tomar medidas más estrictas para detectar y etiquetar estos contenidos o estamos ante una nueva era en la que cada usuario deberá aprender a identificar lo falso de lo real?

-Agustina: Es un equilibrio. Las plataformas tienen una responsabilidad, pero no podemos depender solo de ellas. Si bien es clave que existan mecanismos para detectar y etiquetar contenidos generados con IA, también es importante que cada usuario desarrolle una nueva alfabetización digital. En nuestra región, estamos acostumbrados a las "avivadas" y a leer entre líneas. Esa capacidad puede volverse clave en esta nueva era. No se trata solo de dudar de todo, sino de aprender a validar la información con nuevas herramientas y criterios.

 

-¿Cómo imaginas el impacto de la IA en la generación de contenido en los próximos cinco o diez años? ¿Veremos un punto en el que sea imposible confiar en cualquier imagen o video sin verificación oficial?

-Agustina: No podemos predecir el futuro con certeza, pero sí identificar señales débiles y pensar en distintos escenarios. Uno posible es que el contenido generado por IA sea tan perfecto que toda la información digital necesite verificación constante. En ese caso, podríamos ver soluciones como blockchain para certificar la autenticidad de imágenes y videos, o marcas de agua invisibles integradas por defecto en cualquier contenido original. Otro escenario es que logremos un equilibrio: las plataformas etiquetan automáticamente lo que fue creado o modificado con IA, y al mismo tiempo la gente desarrolla mejores herramientas para distinguir lo real de lo manipulado. En este contexto, la educación en validación digital se vuelve clave.

En ese sentido, Agustina Paz precisa: “Pero también hay un tercer escenario, quizás el más disruptivo, donde la sociedad deja de preocuparse tanto por si algo es real o sintético y pasa a enfocarse en quién lo difunde y con qué intención. En lugar de obsesionarnos con la autenticidad, aprendemos a interpretar el contenido dentro de un marco más amplio de confianza y reputación digital”.

 

-Existen preocupaciones sobre el uso malintencionado de estos videos, desde fake news hasta suplantación de identidad. ¿Qué herramientas de detección y regulación están en marcha para frenar estos riesgos?

-Facundo: El problema no es solo que esta tecnología existe, sino lo fácil que es usarla. Antes, hacer un video falso creíble requería equipos profesionales, ahora con un par de clics cualquier persona puede generar un deepfake que parece real. Para frenar esto, hay dos frentes: detección y regulación. En la parte técnica, se están desarrollando herramientas que analizan patrones invisibles al ojo humano para detectar si un video fue manipulado con IA. También se está probando el uso de blockchain para registrar la autenticidad de archivos desde su origen, como si fueran “sellos de garantía” digitales. En cuanto a regulación, la Unión Europea está marcando el camino con su Ley de IA, mientras que EE.UU. y China tienen enfoques distintos, más centrados en la seguridad nacional.

 

-Históricamente, el ser humano ha confiado en la imagen como prueba de veracidad. Con el avance de la IA generativa, esa confianza parece estar en crisis. ¿Estamos entrando en una era de escepticismo absoluto o es posible desarrollar nuevas formas de validar la autenticidad de la información?

-Facundo: En mi opinión, no es que vayamos a una era de paranoia total, pero sí a un mundo donde la validación se vuelve parte de la rutina. Antes, si veías una foto o un video, confiabas en que era real porque modificarlo era difícil. Ahora, con la IA, eso cambió. Algo parecido pasó con Internet en sus comienzos: al principio, todo era más anárquico, cualquiera podía copiar y pegar contenido sin control. Con el tiempo, se sumaron herramientas como firmas digitales, rastreo de fuentes y derechos de autor, que hicieron más difícil plagiar o manipular información sin que se notara. Con la IA va a pasar lo mismo.

AGUSTINA PAZ FACUNDO BADILLO


-Dado que la IA avanza constantemente, ¿crees que la legislación y las normas de protección de datos pueden adaptarse con la misma rapidez? ¿O siempre estaremos un paso atrás en este terreno?

-Facundo: Las leyes siempre corren detrás de la tecnología, pero hay maneras de acortar la brecha. Una de ellas es el sandbox regulatorio, que básicamente es un "campo de pruebas" donde se testean nuevas normativas sin aplicarlas de lleno, permitiendo ver su impacto antes de regular de manera definitiva. Esto ya se usa en fintech (por ejemplo, en el Reino Unido y Singapur para probar nuevos métodos de pago), en protección de datos (como en la Unión Europea con el GDPR, la ley que protege la privacidad online de los ciudadanos europeos) y hasta en inteligencia artificial, para ver cómo ciertos algoritmos afectan la seguridad o la salud antes de darles luz verde.

 

-En el caso del video de "We Are the World", muchos lo tomaron con humor, pero ¿qué pasaría si se usara la IA para generar discursos falsos de líderes mundiales en momentos de crisis? ¿Cuán vulnerable es la opinión pública a este tipo de manipulaciones?

-Facundo: Siempre existieron las fake news, pero con la IA el problema es la velocidad y la credibilidad. Un video falso de un líder mundial diciendo algo grave en el momento justo puede generar caos antes de que alguien logre desmentirlo. El problema no es solo la tecnología, sino cómo la sociedad reacciona a la información. Vivimos en un mundo donde la gente lee titulares y reacciona antes de verificar. Si no nos entrenamos para dudar, chequear fuentes y poner en contexto lo que vemos, cualquier herramienta de detección va a ser insuficiente.


-Si tuviera que darle un consejo a la sociedad sobre cómo afrontar esta nueva era digital donde lo falso y lo real se entremezclan, ¿qué recomendaría?

-Facundo: Primero, desarrollar pensamiento crítico. No podemos asumir que todo lo que vemos o escuchamos es real solo porque parece convincente. Segundo, aprender a detectar señales débiles. Muchas veces, los cambios más importantes no se ven de golpe, sino en pequeños detalles que pocos notan. Saber anticiparse es más importante que saber reaccionar. Tercero, entender que la IA no es solo un problema, sino también una herramienta. No se trata solo de defenderse de la desinformación, sino de aprender a usar la IA para mejorar la validación de información, optimizar procesos y generar nuevas oportunidades.

“El futuro no se trata sólo de inteligencia artificial, sino de inteligencia humana aumentada. La pregunta no es qué tan rápido avanza la tecnología, sino qué tan rápido podemos adaptarnos a ella”, sentencia.



Dejá tu comentario