top of page
  • Patrícia

Cómo se crea un algoritmo editorial con valores de servicio público. El caso de Radio Sweden

Actualizado: 19 jun 2021

Cada vez somos más conscientes de que los algoritmos no son neutros y de que actúan bajo los criterios con los que se han diseñado. De que cuando los aplicamos a la gestión de la información y están optimizados solo para conseguir metas comerciales filtran y jerarquizan para optimizar la difusión, y ello a menudo implica recomendar contenidos al usuario en. función del perfilado que la IA ha hecho a partir de sus datos: para que consuma más, el sistema le recomienda más del tipo de contenido que más ve, y en ese círculo vicioso radican las cámaras de eco y los filtros burbuja digitales que fomentan la polarización. Cada vez nos damos más cuenta de que el modelo de negocio de las plataformas (basado en gran parte en diseño persuasivo y en optimizar algoritmos para conseguir engagement) acarrea consecuencias negativas tanto sobre las personas (adicciones, depresiones o conflictos relacionales) como sobre el conjunto de la ciudadanía.


En los medios de comunicación existen cada vez más iniciativas orientadas a desarrollar tecnologías basadas en Inteligencia Artificial (IA) que quieren evitar los problemas que ocasionan los de las plataformas digitales, y para hacerlo ya se están desarrollando aplicaciones bajo los criterios éticos que rigen la profesión (tema que me he propuesto abordar en mi tesis). En este post voy a compartir el caso de Radio Sweden uno de los más interesantes que conozco. La radio pública sueca ha desarrollado un algoritmo que incorpora los valores de servicio público del periodismo y su responsable de desarrollo digital, Olle Zachrison, ha explicado a Charlie Beckett el proceso que sigue y que les permite crear contenido más relevante a la vez que promueve su función comunitaria.


El proyecto del algoritmo editorial de Radio Sweden empieza con la definición de unos objetivos compartidos por la redacción, que son los siguientes:

-Hacer nuestros productos digitales más confiables usando el mismo sistema de puntuación de noticias por parte de toda la redacción.

-Hacer posible una personalización de noticias más sofisticada en nuestras webs y app.

-Promover una discusión editorial más intensa sobre lo que constituye el mejor periodismo.

-Facilitar nuevos productos que sirven mejor a nuestra audiencia digital y mejoran su experiencia

-Automatizar tareas que consumen muchos recursos y tiempo de nuestros editores digitales.


La editorialización algorítmica empieza con un proceso de categorización y ranqueo que llevan a cabo periodistas una vez tienen la noticia creada (pieza de audio, en este caso). Los editores humanos otorgan a cada audio puntuaciones a todos y cada uno de las siguientes variables:


1. La magnitud de la noticia.

-Extraordinaria: El tema del día. El más importante

-Grande: Exclusivas o eventos de relevancia social que afectan a muchos.

-Normal: resto de noticias que cumplen los requisitos mínimos con el fin de proporcionar información nueva y relevante.

-Ligera: Pieza ligera con cierta perspectiva o curiosidad que aporta.


2. El grado en el que la noticia responde a los valores de servicio público.

-Nos acercamos a la audiencia, en áreas y comunidades que normalmente tienen poca visibilidad.

-Nos basamos en testimonios singulares de personas afectadas.

-Estamos en la calle, donde pasa, donde están las comunidades.

-Nuestra información implica fuertes emociones.

-Contiene buen audio storytelling. Está bien contada.

-La pieza ha nacido del diálogo con nuestros oyentes.


3. Vida de la noticia.

-Normal: es el criterio que viene por defecto, pero también podemos otorgar a cada pieza un tiempo de vida más largo o más corto.

-Corta: Una noticia que tiene mucha importancia en el momento que se publica pero será irrelevante o quedará anticuada rápido (como resultados de deportes o temas relacionados con el estado de las carreteras)

-Larga: Noticia de largo recorrido y relevancia en el tiempo. Por ejemplo un reportaje de investigación con análisis en profundidad.


Cuando todos estos valores han sido puntuados por los editores, el sistema otorga la clasificación final a la pieza que determina su posición respecto al resto de la información en sus distintas plataformas (web y apps). La puntuación empieza a decrecer al instante de haber sido ubicada.


Las aplicaciones tecnológicas en las que existe un proyecto detrás para incluir valores de la profesión son unas de las prácticas más innovadoras que se llevan a cabo hoy en las redacciones. Aún así, este tipo de desarrollos en los que se computan cualidades tan propias del ser humano como los valores invitan a preguntarnos hasta qué punto podemos encargar tareas editoriales a las máquinas. ¿Podemos computarlo todo? ¿y qué pasa con aquello que no sea computable? ¿Cómo podemos evitar caer en el reduccionismo de lo humano? Y ¿Qué es "lo humano"?


A mi parecer, estos fragmentos de Neil Postman definen de manera muy acertada las cualidades humanas insustituibles por una máquina: "Los seres humanos tienen una vida mental única, intangible, enraizada en su biología, que en ciertos aspectos limitados puede ser simulada por una máquina, pero que nunca podrá ser reproducida. Las máquinas no pueden sentir y, lo que es igual de importante, son incapaces de comprender (...) la máquina no sabe qué significa la pregunta, o siquiera que la pregunta implica un significado (...) es el significado, no la expresión, lo que vuelve la mente única (...) significado incluye todo aquello que llamamos sentimientos, experiencias y sensaciones que no necesitan - y que algunas veces no pueden- ser traducidos a símbolos. Sin embargo "significan" algo. (...) la inteligencia artificial no conduce, y no puede conducir a una criatura creadora de sentido, capaz de comprender y de sentir, es decir, aquello que un ser humano es. ".


Hoy existen numerosas aplicaciones algorítmicas que ejercen funciones editoriales, aunque aún hay pocos medios que se preocupen por dotar de valores a esta tecnología. El caso de Radio Sweden me ha parecido un buen ejemplo sobre cómo llevarlo a cabo, y tengo la convicción de que funciona precisamente porque el proceso consiste en una hibridación humano-máquina. Porque son los periodistas quienes dotan de sentido al contenido a través de la categorización de las piezas que luego computa el algoritmo.


El periodismo -y la sociedad en general- cambia su forma de relacionarse con la información, en consecuencia nos toca preguntarnos qué impacto va a tener el nuevo medio sobre el mensaje. También tiene sentido balancear qué es lo que nos aporta la nueva tecnología con lo que pone en riesgo. En este caso, además de evitar caer en los mismos errores que las plataformas, puede ser útil hacer una reflexión sobre cuáles son las potencialidades humanas en la redacción de un medio y qué valor aportan al producto informativo. Según la investigadora en IA y vicepresidenta del comité de ética del CSIC, Carme Torras, a quien entrevisté, las potencialidades humanas respecto de la IA son la creatividad, la capacidad para responder a imprevistos para los que la máquina no dispone de estadística y todas aquellas tareas que tienen que ver con las relaciones humanas que implican empatizar. Todas éstas, habilidades muy ligadas a la profesión periodística más tradicional. La nueva cultura algorítmica nos fuerza a computarlo prácticamente todo o, como mínimo, nos obliga a hacer la reflexión sobre qué se puede calcular y qué no a la hora de integrar la IA en los procesos de la redacción.


Neil Postman predijo hace algunas décadas el cambio cultural que vivimos hoy y lo describió de una forma muy gráfica con este axioma: si Para una hombre con un martillo, todo parece un clavo, "para un hombre con un lápiz, todo parece una lista; para un hombre con una cámara, todo parece una imagen; para un hombre con un ordenador, todo parecen datos".


A mi parecer, los mejores proyectos de IA aplicados en los medios de comunicación serán aquellos que se desarrollen teniendo claro qué tareas no son computables y las sigan confiando a los periodistas. La mejor y más ética Inteligencia Artificial no sustituye al ser humano, sino que hace equipo con él le ayuda a mejorar sus decisiones.


En las redes sociales

  • X
  • LinkedIn Social Icon
Archivo
Buscar por tags
bottom of page