{ "@context": "http://schema.org", "@type": "BreadcrumbList", "itemListElement": [ { "@type": "ListItem", "position": 1, "item": { "@id": "/noticias", "name": "Noticias Univision" } } ] }
null: nullpx
elDetector

La inteligencia artificial y su uso para desinformar: ejemplos de lo que vimos en 2024

Políticos como Donald Trump y Joe Biden, personalidades como Elon Musk y los eventos climáticos extremos que azotaron el país, entre otros temas, fueron utilizados por los desinformadores para difundir falsedades valiéndose de la tecnología.
Publicado 6 Ene 2025 – 10:50 AM EST | Actualizado 6 Ene 2025 – 10:50 AM EST
Comparte
Default image alt
El uso de la inteligencia artificial para desinformar fue habitual en 2024. Crédito: Arlene Fioravanti Müller (Arte) / elementos de iStock.

El 2024 acaba de terminar, y con él un año en el que el uso de la inteligencia artificial (IA) para desinformar en redes sociales dio un paso adelante en cuanto a importancia. Eventos como las elecciones de Estados Unidos, sus candidatos y quienes les apoyaron, como es el caso de Elon Musk; así como los eventos climáticos extremos, entre otros temas, fueron objeto de esta nueva forma de generar falsedades.

La capacidad de los programas de IA para crear cualquier contenido también alimentó teorías de gigantes indios, robots dando conciertos o empresas aliándose con el diablo para sacar merchandising con la figura de Satanás.

¿Quieres verificar algo? Envíalo a nuestro chat de WhatsApp +1 (305) 447-2910 o pincha aquí:


Repasemos algunos ejemplos junto con algunas pautas para detectar si una publicación de la que tenemos dudas fue o no generada con IA.

Trump, Biden y Musk

El evento del año, sin duda, fueron las elecciones presidenciales. Los candidatos que se presentaron, sobre todo tras el cambio en la opción demócrata en mitad de campaña, estuvieron en el centro de la desinformación. En la disputa entre republicanos y demócratas por el voto de las llamadas minorías y el apoyo de celebridades, vimos como Donald Trump reposteó varias fotos generadas con IA en las que supuestamente aparecían respaldándole seguidores de la cantante Taylor Swift, quien, finalmente,dio su apoyo a la demócrata Kamala Harris.

Otro ejemplo fue el de las imágenes que circularon y en las que Trump, supuestamente, aparecía rodeado de personas afroamericanas en la entrada de una casa o en un salón, esta última en un ambiente navideño. Como verificamos, ambas instantáneas no eran reales.

Por su parte, Joe Biden, durante gran parte de la campaña candidato demócrata, sufrió una suplantación de su voz en un video que recorrió las redes y en el que, supuestamente, habría dicho en una entrevista con el comediante Conan O’Brien que el presidente de Argentina, Javier Milei, habría cedido a que EEUU tuviera una base en la Patagonia, en el sur de ese país, “sin pedir nada a cambio”.

“Ama a Estados Unidos”, habría dicho también Biden sobre Milei. En realidad, como verificamos en elDetector, la voz de Biden fue generada con IA a partir de la conversación original que el presidente estadounidense y el presentador sostuvieron en diciembre de 2023, y que además ocurrió cuatro meses antes de que se anunciara, en abril de 2024, el proyecto de la base conjunta en el sur de Argentina.

Elon Musk, quien se convirtió durante la campaña en un firme defensor de Trump y que una vez que el republicano ganó las elecciones fue nombrado como uno de los directores del Departamento de Eficiencia Gubernamental, también fue víctima de la desinformación con IA: se dijo que tenía una novia que era un robot. Sin embargo, las imágenes en las que aparecía junto a la supuesta humanoide no eran reales, como concluimos en elDetector.

También la presentadora del Noticiero Univision, Ilia Calderón, se vio afectada por una creación con IA. La periodista apareció en varios videos en redes sociales en los que parecía ofrecer un programa de alivio de deudas de tarjetas de crédito. La misma Calderón desmintió a elDetector que ella hubiese grabado tal segmento en el noticiero haciendo esos ofrecimientos.

Desastres naturales

El paso de huracanes por Florida y el terremoto en Taiwán fueron algunos de los desastres naturales que, durante el año 2024, fueron utilizados para desinformar con creaciones generadas con IA.

El huracán Milton, que azotó ampliamente Florida en octubre dejó, en teoría, la impactante imagen de la inundación de Walt Disney World de Orlando. En la supuesta foto aparecía un castillo de techos con picos azules rodeado, junto a los locales comerciales de sus cercanías, de altos niveles de agua. Sin embargo, tras pasar la imagen por la herramienta de detección de IA TrueMedia, resultó que había sido creada con esa tecnología.

Sobre el fuerte terremoto de magnitud 7.4 que vivió la isla de Taiwán en abril, y que dejó más de una decena de muertos, verificamos una foto en la que se veía lo que parecía ser el centro de una ciudad con varios edificios destruidos y en los que trabajaban los equipos de rescate. Pasamos la supuesta instantánea por varias aplicaciones de detección de IA con resultado positivo.

Gigantes en Wyoming, una Cajita Feliz diabólica y otras rarezas

Las posibilidades de los programas de IA han facilitado que la creación de cualquier idea que se pase por la cabeza pueda llevarse a término. Al menos en cuanto a representarla en imágenes. Así, en elDetector hemos desmentido que un video con supuestas fotos de gigantes en Wyoming fuese la prueba de que personas de ese tamaño existieran.

También circuló en redes sociales una foto de la que decían que era una promoción de McDonald’s de su Cajita Feliz (el menú para niños de esta franquicia de comida rápida) y que se presentaba con un pan de hamburguesa de color negro y la palabra Baphomet (símbolo del ocultismo) junto a un juguete de un carnero con grandes alas negras y cachos rojos. Las imágenes fueron generadas con programas de IA.

La aparente foto del concierto de un robot de armazón y cabellos trenzados largos negros en lo que parecía ser un estadio en el que, según publicaciones en redes sociales, “bailó, cantó y hasta rapeó” circuló por Internet levantando opiniones a favor y en contra. Sin embargo, las herramientas de detección de IA ya comentadas en otras verificaciones revelaron que era eso: una creación digital y que tal evento en realidad no ocurrió.

La serie Los Simpson, cuyas supuestas predicciones ya habíamos verificado anteriormente, esta vez habrían acertado con el desplome del puente Francis Scott Key, en Baltimore, tras recibir el impacto de un barco carguero el 26 de marzo. En la imagen que circuló de ese episodio premonitorio de la serie animada se veía a Bart y Lisa Simpson observando el choque de un navío contra un puente desde una baranda.

Una vez más, las herramientas de análisis de creaciones con IA delataron la imagen: fue creada con esa tecnología y, por tanto, era falso que en un capítulo de Los Simpson se predijo tal accidente.

Consejos para identificar imágenes creadas con IA

Hasta ahora hemos hablado de algunas de las verificaciones de publicaciones que utilizaron la IA para desinformar. Como comentamos, existen varios programas que ayudan a detectar si una imagen o sonido ha sido generado con esa tecnología. Además, a pesar de que esta avanza a pasos agigantados, todavía comete algunos fallos que pueden delatar que una imagen fue creada artificialmente. Estas son algunas recomendaciones de qué hacer cuando tengas dudas de si lo que estás viendo es IA o no:

  • Buscar la foto en medios de prestigio para verificar que el suceso que se ilustra es cierto.
  • Compara la consistencia entre ellas, cuando las imágenes forman parte de una serie.
  • Revisa las manos. Los programas de IA tienen problemas para generarlas de forma correcta.
  • Observar los detalles de la ropa, el pelo o los lentes y sus acabados. Las herramientas de IA todavía fallan al crear los contornos detallados.
  • Analiza la coherencia para ver si el fondo de la imagen guarda relación con la misma.

elDetector opera de forma independiente con el financiamiento de instituciones que puedes ver aquí y que no tienen ningún poder de decisión sobre nuestro contenido. Nuestra línea editorial es autónoma.

¿Viste algún error o imprecisión? Escríbenos a [email protected] o a través de nuestra cuenta de X (Twitter) @eldetectoruni. Tras verificar tu solicitud, haremos la corrección que corresponda en un plazo no mayor de 48 horas.

Lee aquí nuestra metodología y política de corrección. Seguimos el Código de Principios de la International Fact-Checking Network (IFCN), que puedes ver aquí traducido al español. Escribe a la IFCN llenando este formulario si consideras que no estamos cumpliendo ese código.

Envíanos al chat de WhatsApp +1 (305) 447-2910 lo que quieras que verifiquemos :

Loading
Cargando galería
Comparte
Widget Logo