Entrevista: la búsqueda de la verdad mediática en la era de la IA con Josef Šlerka

27 febrero 2025 • Entradas recientes, Nuevos medios, Reciente • by

Traducción realizada por Marina Goñi

 

La inteligencia artificial no es solo un facilitador, sino también un creador de contenido y motor del debate público. Esto trae consigo nuevos desafíos y dilemas para los periodistas, quienes se han acostumbrado a ser los guardianes de la verdad mediática. ¿Cómo está afectando la IA al concepto de verdad en los medios? ¿Quién decide qué es cierto y qué papel juegan los algoritmos en esto? Si los profesionales de los medios no abordan activamente este asunto, corremos el riesgo de que la verdad se convierta en una mera estadística algorítmica.

Hablamos con Josef Šlerka, un filósofo de los medios especializado en el papel de la inteligencia artificial en la configuración del panorama mediático, sobre la transformación del “dueño” de la verdad y sus implicaciones para el mundo de la comunicación.

— La inteligencia artificial está cambiando la dinámica de los medios y planteando interrogantes fundamentales sobre qué significa la verdad, quién la define y cómo la consumimos. ¿Cómo influye la IA en las nociones filosóficas de la verdad?

Ya está reforzando lo que Internet trajo consigo, y lo que veníamos observando incluso antes de la llegada de la IA generativa: la difuminación de la línea entre productor de contenido y periodista. En otras palabras, las empresas mediáticas se ven a sí mismas más como creadoras de contenido que como instituciones basadas en el trabajo periodístico. Ya no se centran tanto en que los periodistas entreguen información que han encontrado, visto o de la que han conversado, sino en generar contenido en el que alguien haga clic.

La IA ha puesto esto en mayor evidencia. Basta con observar el feed de noticias de Seznam para notar cuántos sitios nuevos han surgido en los últimos cinco años, y que subsisten únicamente reescribiendo contenido ya existente. Esto confunde la noción de autenticidad del contenido mediático. El testigo, el ser humano, está desapareciendo de los medios.

La IA no genera la verdad.

— La IA personaliza el contenido según las preferencias del usuario, creando «verdades» paralelas para distintos grupos. ¿Es relevante seguir buscando el concepto de verdad en una época en la que, gracias a la IA, cada quien tiene un servicio informativo completamente distinto?

En mi opinión, el planteamiento de Bill Kovach —según el cual el trabajo del periodista es ofrecer noticias verificadas para que los lectores tomen mejores decisiones— sigue siendo válido. Si, durante un largo periodo, los medios brindan información que conduce a decisiones equivocadas, ese contenido es erróneo, y los lectores lo notarán y modificarán su comportamiento. Una definición muy pragmática de la verdad es que ésta es lo que funciona, pero creo que, a la larga, cuando los medios generan contenido sin sentido, la gente se dará cuenta de que no está actuando de forma razonable.

— ¿Cómo distingues la “verdad” creada por periodistas humanos de la “verdad” generada por la IA?

La IA no genera la verdad. Simplemente necesita un significado y un propósito para que una afirmación sea verdadera o falsa. Más bien, la IA produce algo a lo que estamos dispuestos a atribuirle veracidad. Es como una obra teatral: en un drama puede haber frases que expresen la verdad sobre el mundo, pero los actores que las pronuncian no tienen intención alguna y no transmiten verdad; simplemente están leyendo el guion. La IA es un generador de mundos posibles, y tratamos de hacer que el que usamos se acerque lo más posible al nuestro.

Pero no se trata de la verdad. ¿Puede la IA generar textos útiles para el lector? Sí, puede, pero no lo consideraría verdad en un sentido estricto.

— La IA es capaz de adaptar el contenido de un feed, ya sea en redes sociales o en un boletín de noticias, al ánimo del momento —para intentar animarme o calmarme. ¿Cómo puede esto influir, en última instancia, en el pensamiento crítico?

Este es precisamente el problema que separa al periodista del productor de contenido. Esencialmente, al periodista no le compete preocuparse por cómo se siente el lector; puede decir cosas desagradables.

— Como abordar las relaciones diplomáticas con África ecuatorial…

Y eso es lo correcto. Existe una idea central en el periodismo: el interés público puede hacer importante escribir sobre la relación con África ecuatorial. El contenido que estoy adaptando ignora ese principio. El mayor peligro del contenido personalizado es la desintegración del espacio público. Los medios nos presentan información afirmando que algo es crucial abordar en el momento. Cuando se discute la reforma de las pensiones, todos los medios hablan de ella. La sociedad asume que hay un tema común; con el contenido personalizado, perdemos esa coherencia.

— Se habla mucho de herramientas de verificación de hechos en el contexto de la IA, pero ¿qué herramienta me dirá que a mi percepción le falta un fragmento de la realidad?

Nos estamos preparando de forma miope para la última guerra, y dado que la última fue contra la desinformación, se están desarrollando herramientas de fact-checking. La “herramienta” de la que hablas es, en realidad, la competencia entre los medios. Cuando estos intentan captar a la mayor cantidad posible de personas, también determinan, de manera implícita, qué es interesante y qué no.

Con el estado actual de la tecnología, la IA no puede tener intención propia; tendría que haber alguien que le aporte esa intención.

— Entonces obtenemos mundos paralelos con sucesos actuales paralelos…

Leemos los medios por distintas razones: para entretenernos, para informarnos, para saber qué vestir, pero también para decidir en una elección. Lo que llamamos verdad nos ayuda a tomar la decisión correcta. Si los medios no generan sistemáticamente la verdad, yo acabaré tomando decisiones equivocadas de forma constante, y eso se notará.

La cuestión es que hoy en día se produce un volumen cada vez mayor de textos no para ayudar a alguien a decidir mejor, sino porque hay una necesidad de generar contenido que atraiga clics. Los medios parásitos están en auge; veo lo mismo en muchos lugares. Pero ese contenido ya no lo produce un periodista, sino la IA o mano de obra barata.

Y ahora, sumemos la personalización. El algoritmo solo me ofrecerá la información que cree que me interesa. Como ya mencioné, el periodista no me entrega lo que cree que me interesa, sino lo que considera importante. Mi temor es que, al recibir tanto contenido de forma fragmentada y personalizada, acabemos con un cúmulo de información inútil. Al final, estaremos leyendo relatos cortos de Jaroslav Hašek sobre una vida que no existe.

— Ahora la IA está personalizando mi realidad, encerrándome en esa burbuja proverbial, pero ¿qué sucede si llega a imponerme su propia realidad? ¿Puede inventarla? ¿Ya hemos llegado a ese punto?

No lo creo, y tampoco pienso que lo lleguemos a estar. Tal como están las cosas, la tecnología no puede tener intención propia; tendría que haber alguien que le proporcione esa intención.

— Pero entonces, probablemente, ya estemos en el terreno de las teorías conspirativas… como la dominación de los gigantes tecnológicos al hacerse cargo de la producción de los grandes medios.

Esta es la mentalidad de la manipulación mediática permanente, de la conspiración, de los clichés mentales y, a la vez, de la preparación para una guerra que ya ha ocurrido. Existe todo un espectro en el mercado mediático: si noto que los medios me están manipulando, buscaré información en otro sitio. La idea de que hay una docena de personas encapuchadas decidiendo desde las sombras cómo conquistar el mundo es errónea. Simplemente estamos tratando de encontrar algo que haga del mundo un lugar mejor.

Josef Šlerka (11 de diciembre de 1974, Opočno) es un semiótico checo y experto en análisis de datos de redes sociales. Es el Jefe de Estudios de Nuevos Medios en el Instituto de Estudios de la Información y Biblioteconomía de la Facultad de Artes de la Universidad Carolina. Anteriormente, trabajó en Ataxo y Socialbakers, donde dirigió la investigación y el desarrollo de aplicaciones para el monitoreo de redes sociales y el análisis de sentimientos. Sus intereses académicos abarcan el análisis de contenido mediático, las redes sociales y el papel de la inteligencia artificial en la configuración del entorno mediático. También ha fungido como director de la Fundación de Periodismo Independiente.

Send this to a friend