«¿Qué tan cierto es que Venezuela es un país tan pobre?», pregunta un presentador rubio, en inglés, en un reportaje de la crisis venezolana. Pero no es periodista, ni tampoco humano: se trata de un avatar generado por inteligencia artificial, cada vez más utilizada para desinformación.
Piezas subtituladas de un noticiario ficticio, «House of News Español», favorables al chavismo gobernante y cuestionadas por servicios de verificación, aparecieron como publicidad en redes sociales y desataron polémica en este país.
No es el único caso.
Ya otro medio falso, «Wolf News», usó este tipo de tecnología para difundir también vídeos propagandísticos, que una investigación de la empresa especializada Graphika atribuyó en febrero a actores chinos alineados con el Estado.
Un video manipulado en el que el presidente de Estados Unidos, Joe Biden, advertía sobre una «amenaza» de «naturaleza extraterrestre» desbordó en febrero redes sociales y servicios de mensajería.
Y el año pasado corrió un montaje en el que se ve inhalar cocaína al gobernante de Ucrania, Volodimir Zelenski, así como un rap de Eminem contra el primer mandatario de México, Andrés Manuel López Obrador.
Todo se hizo con IA, según verificaciones digitales de la AFP.
«Cada vez más regiones empiezan a referirse a los ‘deep fakes’ y a los audiovisuales generados por IA como una amenaza», dice a la AFP Shirin Anlen, especialista en tecnología de medios de la ONG Witness.
«Expulsado inmediatamente»
Los avatares de los videos de «House of News» provienen del programa de creación mediante inteligencia artificial Synthesia. La empresa reportó la cuenta que los divulgaba en YouTube, que eliminó esos contenidos.
«Si pretendes ser un periodista, pretendes dar noticias, serás vetado», declara a la AFP Laura Morelli, portavoz de Synthesia, que sin mencionar al usuario dijo que éste «infringió» sus «condiciones y políticas» y «fue identificado y expulsado inmediatamente».
Los presentadores de «House of News», Noah, rubio, y Daren, de tez negra, forman parte del catálogo de 93 avatares de Synthesia. Lo mismo ocurre en «Wolf News» con sus presentadores Alex y Jason.
Synthesia también fue usado en enero para crear videos de supuestos estadounidenses apoyando un golpe de Estado en Burkina Faso.
Morelli, no obstante, asegura que este tipo de mal uso de la plataforma es una excepción.
A estos programas «los puede usar cualquiera que tenga unos mínimos conocimientos», advierte Eduardo Mosqueira, doctor en informática y profesor de la Universidad de Coruña, en España. Asegura que no es difícil identificar si un video es falso, pero sí determinar su origen. «Si han sido mínimamente cuidadosos supongo que es imposible».
«Soy un robot»
La televisora estatal venezolana VTV reprodujo uno de los videos de «House of News» que reportaba millonarias ganancias con la Serie del Caribe, torneo internacional de béisbol invernal que volvió al país después de nueve años.
«Son números que da a conocer este medio de comunicación en Estados Unidos y buena parte de Latinoamérica», dijo el presentador Barry Cartaya.
No hay cifras oficiales.
El presidente venezolano Nicolás Maduro enfurece ante cualquier insinuación de que la producción está ligada a su gobierno.
«No es la inteligencia artificial, es la inteligencia popular», fustigó el mandatario a finales de febrero. «Yo soy un robot», siguió irónicamente, imitando una voz metálica y haciendo mímica de movimientos mecanizados.
En uno de los videos de «Wolf News» se critica la inacción de Estados Unidos ante la violencia armada. En otro, se subraya la importancia de la «cooperación entre grandes potencias», China y Estados Unidos.
«Es la primera vez que vemos que una operación alineada con el Estado utiliza imágenes de vídeo generadas por inteligencia artificial para crear contenido político engañoso», dijo a la AFP Jack Stubbs, vicepresidente de inteligencia de Graphika, autor del estudio que vinculó los videos a redes que buscaban promover los intereses del Partido Comunista Chino.
Mentira repetida
Meta, casa matriz de Facebook, desmantela redes de cuentas falsas, incluida una en Cuba, que creaba identidades irreales «para publicar críticas a opositores al gobierno», dice Ben Nimmo, líder global de Inteligencia sobre Amenazas de la firma, en una videoconferencia con la AFP.
«Algunas de estas cuentas utilizan fotos de perfil que probablemente se generaron utilizando inteligencia artificial, es decir, fotos de personas que no existen», indica. «Esta es una táctica usada cada vez más a menudo».
Mosqueira estima que «cada vez es más fácil programar bots en las redes sociales que se hagan pasar por personas reales y que lancen los mensajes que quieres que calen en el público».
El experto alerta sobre el alto impacto de los «deep fakes», incluso cuando se demuestra su falsedad.
«Ya conoceréis la famosa frase atribuida a (el propagandista nazi Joseph) Goebbels de que una mentira repetida adecuadamente 1.000 veces se convierte en una verdad».
Fuente: AFP