top of page
  • Patrícia

Aprendizajes del uso responsable de la inteligencia artificial para moderar comentarios del NYT

Actualizado: 29 sept 2020

Es buena señal que desde los medios de comunicación se empiece a asociar la palabra responsabilidad al uso de la inteligencia artificial. Cada vez son más los que aplican la automatización, (y para más tareas) así que las experiencias de los pioneros son interesantes para entender cómo ponerla al servicio de los valores éticos que rigen la profesión.

Este artículo que ha compartido Ismael Nafría por Twitter es un buen ejemplo de ésto. En él, el New York Times explica cómo usa la IA para la moderación de contenidos de forma responsable. Detrás de este proyecto hay varios aprendizajes: en primer lugar, el uso de la IA tiene una verdadera razón de ser, que es poder abrir más contenidos a ser comentados. Dicho de otra forma: sin la IA los moderadores humanos no alcanzarían a procesar la cantidad de opiniones que dejan los lectores. Por otro lado, también revela la clara intención del diario de fomentar la participación, que considera que los comentarios constructivos enriquecen el producto informativo. Habla literalmente de su intención de "promover conversaciones de alta calidad en torno al periodismo", demostrando así su vocación de cumplir con la función comunitaria de esta profesión a la hora de promover la conversación en torno a intereses comunes. Parte de la estrategia de digitalización NYT consiste en buscar partners tecnológicas a las que les encarga que apliquen su solución al diario. En el caso de la moderación con IA se lo encargó a Jigsaw, la incubadora de Alphabet. La responsabilidad se aprecia en cada parte del proyecto. Por un lado, otorga un papel principal a los moderadores (humanos), por eso no externaliza el servicio (como hacen las plataformas). Todos ellos son trabajadores del NYT. Es decir, su apuesta es IA para complementar la moderación profesional. De lo que se encarga Perspective (así se llama su herramienta) es de puntuar los comentarios en función de su grado de toxicidad. Por otro lado, para prevenir posibles sesgos de la moderación automatizada, la ha puesto a prueba internamente. A través de varios experimentos (con los esfuerzos que ello conlleva) comprobaron el tipo de sesgos y errores que cometía la IA. Además, auditaron también el proceso humano de moderación y cómo se complementaba con el automatizado.


Los aprendizajes sirvieron para objetivar las limitaciones de su herramienta, para llegar a la previsible conclusión de que Perspective aplica sesgos, como cualquier herramienta de IA que debe tomar decisiones complejas, y para entender el tipo de errores que comete, lo que les sirvió para controlarlos mejor.



También fueron útiles para comprobar que los moderadores humanos entienden perfectamente hasta dónde llega la IA, que son ellos quienes se ocupan de prevenir los sesgos de la automatización y que por lo tanto es precisamente ese control humano el factor determinante en los buenos resultados de este modelo, que se traducen en el conocido entorno de participación constructivo y libre de tóxicos del que goza el NYT. También interesante estas recomendaciones que da al final, de las que se deduce que ha asumido este papel de ejemplo y prescripción para otros. Éstas son: 1-No confiar ciegamente en la IA 2-Máxima importancia del rol humano 3-El buen funcionamiento del modelo requiere iteración

La conclusión de todos estos años de trabajo del NYT en este proyecto es que si solo hubiera moderadores humanos se podrían abrir menos noticias a comentar, pero si únicamente hubiera moderación automatizada, ésta cometería demasiados errores y aplicaría sesgos que un medio de comunicación, que es ético por definición, no se puede permitir. Así que la solución óptima a la vez que responsable no puede ser otra que la colaboración humano - máquina.


En las redes sociales

  • X
  • LinkedIn Social Icon
Archivo
Buscar por tags
bottom of page