Por Sabrina Djansezian y Joaquín Agüero

En un mundo saturado de noticias, sobrevivir no solo implica cuidar nuestra salud física, sino también nuestra capacidad de discernir entre información real y desinformación. El viernes 25 de abril, en representación de LAIA, participamos del evento Media Party University en la Universidad Nacional de Lomas de Zamora. Allí coordinamos un taller en donde retomamos las problemáticas planteadas en la charla que brindamos el año pasado en RLab, en el marco del Aaron Swartz Day, y mostramos cuán sencillo resulta crear noticias falsas mediante el uso de IA generativa. Además, debatimos acerca de las herramientas disponibles para identificar fake news y protegernos de la manipulación. 

Aquí puede verse la charla que dimos en RLab:

¿Qué son las fake news?

En pocas palabras, las fake news son noticias falsas cuyo propósito es manipular o engañar al público. Pero no todas las noticias falsas son iguales: varían en su grado de manipulación y en cómo buscan afectar nuestras percepciones.

La escalera de la desinformación

Inspirándonos en el trabajo de Claire Wardle, cofundadora de First Draft (una organización sin fines de lucro pionera en investigar el campo de la desinformación), entendemos las fake news como parte de una escala que comienza con fenómenos más bien inofensivos, como la sátira, y evoluciona hacia herramientas más maliciosas de manipulación. Podríamos esquematizarlo así:

  • Sátira: memes que ridiculizan personajes públicos, como “Milei y la motosierra”. Sabemos que no son reales, pero aun así influyen en la opinión pública.
  • Descontextualización: imágenes o videos que, fuera de su contexto original, cuentan una historia falsa. Por ejemplo: imágenes antiguas usadas para falsear revueltas en París.
  • Propaganda y polarización: mensajes diseñados para dividir y manipular opiniones políticas.
  • Desinformación intencionada: noticias con cierto grado de verdad que distorsionan la realidad, como llamar “mafioso” a alguien basándose en hechos parciales.
  • Fake news: noticias 100 % falsas que se instalan para manipular. 

Sesgos cognitivos: ¿por qué caemos en la trampa de las fake news?

Nuestro cerebro tiene atajos inconscientes, llamados sesgos cognitivos, que nos hacen más proclives a creer en ciertas informaciones. Distinguimos tres tipos: el sesgo emocional, la validación por autoridad y el sesgo de confirmación. Dentro del primero, podemos incluir las noticias que apelan a nuestras emociones para parecer más creíbles. La validación por autoridad refiere a que si algo está respaldado por una institución (por ejemplo, el “MIT”), tendemos a creerlo sin cuestionarlo. En cuanto al sesgo de confirmación, si una noticia refuerza nuestras creencias, solemos aceptarla sin corroborar la información. Los creadores de fake news conocen estos sesgos y diseñan sus mensajes para aprovecharlos. Esto nos obliga a consumir información de manera más reflexiva y crítica. 

Para evitar la manipulación de las fake news, es importante contrastar la información con varias fuentes confiables. También son muy útiles las herramientas de fact-checking: plataformas como FactCheck o Maldita.es pueden ayudarnos a confirmar la veracidad de una noticia. Sin embargo, todavía están lejos de brindar respuestas completamente confiables. En el taller de Media Party pusimos a prueba estos “checkers” y mostramos cómo fallan en la identificación de contenido generado de manera sintética. 

La era de los datos: fake news y su impacto en un mundo saturado de información

El volumen de datos que generamos y consumimos diariamente es abrumador. En cada segundo, se publican más de 6000 tweets, se envían aproximadamente 140000 mensajes de WhatsApp, y se comparten cerca de 267 videos en TikTok, lo que lleva a 23 millones de videos por día. Y estos números siguen creciendo: se estima que el contenido de video supondrá el 82% de todo el tráfico de internet en el transcurso de este año (Cisco Visual Networking Index, 2024), lo cual plantea desafíos significativos en cómo filtramos, procesamos y validamos la información.

En medio de esta saturación informativa, herramientas como ChatGPT, Claude, Gemini o Llama, por nombrar solo algunos modelos de IA generativa, pueden crear textos coherentes y convincentes en cuestión de segundos, pero esto también abre la puerta a nuevas formas de manipulación. Así, nos exponemos a textos falsos sumamente creíbles: las fake news generadas por IA son cada vez más difíciles de identificar, debido a la coherencia y calidad del contenido. A su vez, las tecnologías de clonación de voz posibilitan que alguien “diga” algo que nunca dijo, y los modelos de generación de imágenes avanzaron a tal punto que generan contenido hiperrealista, con mejoras constantes en la duración y coherencia.

Filtros burbuja y micro-targeting

Uno de los mayores facilitadores de la desinformación son los filtros burbuja: crean entornos en los que las personas solo ven contenido que refuerza sus creencias. Imaginemos que alguien busca videos sobre la NASA en YouTube. La plataforma analiza este interés y comienza a recomendar contenido relacionado. Si el usuario interactúa con estos videos, YouTube intensifica el enfoque y muestra más material similar. Sin embargo, el algoritmo puede recomendar contenido que distorsione la realidad. Si el usuario hace clic en estos videos, el filtro burbuja se fortalece y se limita así la exposición a puntos de vista diferentes.

El micro-targeting, por otra parte, es una práctica mediante la cual se analizan determinadas características de las personas, se las agrupa en comunidades específicas, con intereses en común, y se les envía contenido diseñado para influir en sus decisiones. Esto plantea preguntas éticas importantes: ¿cómo protegemos nuestra privacidad cuando nuestros datos son utilizados para moldear nuestras creencias? ¿Tenemos la preparación suficiente para enfrentarnos a un mundo donde la desinformación personalizada sea la norma?

Un nuevo nivel: los deep fakes

En la actualidad, las fake news alcanzaron con los deep fakes  una evolución preocupante. Se trata de imágenes, videos o audios creados mediante diversas técnicas de aprendizaje profundo (deep learning) que manipulan nuestra percepción visual y auditiva, y dificultan así, aún más, la distinción entre lo real y lo falso. Estas herramientas permiten crear imágenes o videos hiperrealistas de personas en situaciones que nunca ocurrieron y alterar contextos de videos reales para cambiar su mensaje. Aunque contamos con algunos recursos para detectarlos, es un recordatorio de cómo la tecnología amplifica los riesgos de la desinformación.

¿Qué tan realista es un deep fake?

Durante nuestra charla, invitamos a los asistentes a diferenciar imágenes reales de aquellas generadas por inteligencia artificial. Aunque se trataba de un ejercicio sencillo, la mayoría dudó al elegir. Esto evidencia lo difícil que puede ser distinguir lo real de lo falso, especialmente en un entorno saturado de contenido visual.

En este contexto, surge una pregunta fundamental: ¿cómo aseguramos que las verdades de hoy no se conviertan en las fake news del futuro? Una de las claves está en construir bases de datos sólidas, verificables y accesibles que permitan distinguir entre contenido auténtico, generado por humanos, de aquel creado por inteligencia artificial, o por una combinación de ambos. 

Un ejemplo inquietante al respecto es el caso de Nixon y la llegada a la luna. El MIT creó un deep fake experimental en el que Nixon anunciaba que el hombre no había llegado a la luna. Aunque se presentó abiertamente como un experimento, es fácil imaginar un escenario en el que este video sea descontextualizado en el futuro y utilizado para generar desinformación. Sin datos sólidos que respalden los hechos históricos, el pasado podría ser alterado de formas peligrosas.

Herramientas para combatir las fake news

La tecnología ofrece herramientas accesibles y poderosas que pueden ayudarnos a combatir las fake news. No obstante, ninguna tecnología es una verdad absoluta; todas son construidas por humanos y, como tal, sujetas a sesgos y limitaciones. Veamos algunas de las herramientas disponibles:

  1. Fact Check de Google
    Permite verificar qué tan verdadero o falso es un concepto o información específica y presenta un historial o análisis de datos para determinar. Es ideal para búsquedas rápidas de verificación.
  2. GPT-Zero
    Diseñada para analizar texto, esta herramienta indica qué porcentaje del contenido fue generado por inteligencia artificial y qué porcentaje, por humanos. Ofrece cierta transparencia explicando cómo realiza el análisis, lo que la hace útil para educadores.
  3. TrueMedia
    Especializada en la detección de deep fakes, esta herramienta permite analizar imágenes o videos subidos desde redes sociales y evaluar si el contenido es falso o ha sido alterado. Aunque se promociona como una solución para contenido político, también funciona con otras temáticas.

Un futuro basado en la ética y la tecnología consciente

Si queremos construir un futuro donde la verdad prevalezca, necesitamos combinar educación, ética y herramientas tecnológicas. Esto implica preservar datos sólidos para garantizar la veracidad histórica, usar la tecnología de manera consciente y responsable, y promover la soberanía de los datos para reducir la dependencia de corporaciones o gobiernos. El desafío es grande, pero en LAIA sabemos que el camino hacia un futuro más transparente y justo comienza con pequeños pasos en la dirección correcta.