Entender el fenómeno de la Inteligencia Artificial sería difícil sin atender a otras dos realidades que han potenciado su propio desarrollo: los datos masivos (también denominados Big data) y el empleo de algoritmos. En lo referente al concepto de algoritmo, este puede ser definido como una secuencia de pasos que se deben llevar a cabo para resolver un problema o conseguir un objetivo determinado. Por su parte, el Big data puede ser entendido como la capacidad para acceder a ingentes cantidades de datos y establecer correlaciones entre todos ellos, para, después, aplicar lo obtenido en diferentes sectores de la sociedad. Ya desde el año 2017, Cathy O ‘Neil advertía en su libro “Big data. La revolución de los datos masivos” sobre todas las transformaciones que se estaban produciendo en diferentes ámbitos de la sociedad a causa de la aplicación de los datos masivos. Desde el sector financiero y la gestión interna de las empresas, hasta la predicción de posibles comportamientos delictivos y los intentos de calificar el rendimiento de la docencia en algunos centros educativos de los Estados Unidos.
En lo que respecta a la Inteligencia Artificial, en el Libro Blanco de la Comisión sobre Inteligencia Artificial del año 2020, la Comisión Europea afirmaba que el término se aplica a aquellos sistemas que “son capaces de analizar su entorno y tomar medidas, con cierto grado de autonomía, para lograr objetivos específicos”. Y, proseguía ofreciendo los siguientes ejemplos: “Los sistemas basados en Inteligencia Artificial pueden consistir (…) en software de computadora (por ejemplo, asistentes de voz, programas de análisis de imágenes, motores de búsqueda, sistemas de reconocimiento facial y de voz), pero la Inteligencia Artificial también puede integrarse en el hardware de los dispositivos (por ejemplo, robots avanzados, automóviles autónomos, drones o Internet de aplicaciones de las cosas)”. Más adelante, y tal y como recoge el Libro Blanco, un grupo de expertos de alto nivel perfeccionaría esta definición, añadiendo lo siguiente: “ Los sistemas de inteligencia artificial (IA) son programas informáticos (y posiblemente también equipos informáticos) diseñados por seres humanos que, dado un objetivo complejo, actúan en la dimensión física o digital mediante la percepción de su entorno mediante la adquisición de datos, la interpretación de los datos estructurados o no estructurados, el razonamiento sobre el conocimiento o el tratamiento de la información, fruto de estos datos y la decisión de las mejores acciones que se llevarán a cabo para alcanzar el objetivo fijado”.
En el ámbito del periodismo, el informe de Reuters Oxford Institute, dirigido por Nic Newman, en el año 2022, revela tendencias dominadas por la inclusión y la apuesta por nuevas tecnologías ligadas a la Inteligencia Artificial, que se enfocan tanto en la personalización de contenido como en la automatización de la redacción de noticias. En relación a esta última aplicación, ya hay varios ejemplos como el caso de Quakebot, en Los Angeles Times, que el propio periódico define de la siguiente manera: “Quakebot es una aplicación de software desarrollada por Los Angeles Times para informar de los últimos terremotos lo más rápido posible. El programa informático revisa los avisos de terremotos del Servicio Geológico de los Estados Unidos y, si cumplen con ciertos criterios, genera automáticamente un borrador del artículo. Se alerta a la sala de redacción y, si un editor del Times determina que la publicación es de interés periodístico, se publica el informe” . En el panorama periodístico español, se pueden añadir múltiples ejemplos como la colaboración de la Agencia EFE y RTVE en el empleo de la IA para el análisis de bases de datos y la redacción informativa. En la misma línea, cabe resaltar que RTVE ya ha firmado un convenio con la Universidad de Castilla-La Mancha para probar un sistema de Inteligencia Artificial que comunicará los resultados de las elecciones municipales el 28 de mayo de 2023 a aquellas localidades con menos de mil habitantes.
Ahora bien, aunque se han reconocido las ventajas del uso de la Inteligencia Artificial desde distintas posiciones del periodismo (alumnos, docentes y empresas) en ciertos estudios, al mismo tiempo, se han enumerado una serie de preocupaciones éticas y jurídicas en torno a dicho uso. Entre ellas, es recurrente la palabra transparencia. En los ejemplos ofrecidos por Cathy O ‘Neil, en el libro ya mencionado en este artículo, se puede observar el daño que pueden ocasionar ciertos usos de los datos masivos y de los sistemas de Inteligencia Artificial. Unos usos a los que es difícil responder cuando domina la opacidad y la falta de transparencia. En España, por ejemplo, se puede tomar como referencia el caso de la plataforma Civio frente al Gobierno de España, por el uso de Bosco: “una aplicación desarrollada por el Gobierno y que utilizan las eléctricas para saber si un usuario, en situación de vulnerabilidad, puede recibir descuentos en su factura de la luz”. En palabras de la plataforma (Civio), que toma parte en un procedimiento judicial que aún sigue en curso: “En 2019, Civio demostró que BOSCO tenía fallos y denegaba el bono social a personas que tenían derecho a recibirlo”. La plataforma demostró esto mismo “tras recibir decenas de avisos de personas afectadas y pedir, al amparo de la Ley de Transparencia, su especificación técnica, los resultados de las pruebas de comprobación de la aplicación y su código fuente”.
El caso de Bosco sería uno de muchos en los que la transparencia juega un papel esencial en el control y la regulación de la Inteligencia Artificial. A partir de este ejemplo, el periodismo puede extraer una idea fundamental: todo uso de sistemas de Inteligencia Artificial debe ir acompañado de un efectivo proceso de transparencia, que permita a su público saber cómo se alimenta a estos sistemas con la recopilación de sus datos y cuál es el funcionamiento de tales sistemas (la página que Los Angeles Times dedica a explicar el funcionamiento de Quakebot es un ejemplo de ello). Este tipo de prácticas protege en cierta medida a los lectores, al tiempo que aporta un mayor grado de credibilidad y confianza a los medios de comunicación, que, tal y como recoge el informe de Reuters Oxford Institute del año 2022, son una piedra angular a la que los medios de comunicación quieren dirigir una gran parte de sus esfuerzos.
Finalmente, otros desafíos a los que se puede hacer mención están relacionados con los problemas que puede presentar la personalización de contenido y el conocido como filtro burbuja. Con el aumento del uso de la Inteligencia Artificial en la personalización de contenido, se puede dar el caso de que los problemas derivados del filtro burbuja se acentúen aún más. Por último, cabe recordar que el acceso a este tipo de tecnologías aún es muy costoso y se prevé que, tanto actualmente como en un futuro, no todos los medios de comunicación puedan acceder a ellas, ya sea a través de sus propios recursos o contratando los servicios de otras empresas. Esto mismo puede generar una enorme brecha competitiva a la que se debe prestar una mayor atención si se quiere que el ideal de pluralidad de ideas, tan característico de una sociedad que busca ser democrática y de derecho, se siga protegiendo. De lo contrario, un gran número de medios independientes se verán en la difícil situación de sostener su rentabilidad, mientras intentan cumplir con su labor como la voz de un mundo complejo y globalizado.
Etiquetas Inteligencia artificial, Legislación, periodismo, transparencia