Guías éticas para el uso de la inteligencia artificial en el periodismo
Desde que a finales del 2021 el Consell de la Informació de Catalunya publicó el informe y el decálogo para el uso ético de la inteligencia artificial en los medios de comunicación han ido apareciendo guías sobre ética, IA y periodismo que han desarrollado principalmente en medios y agencias. La mayoría, después de la irrupción de ChatGPT.
En este post las voy a reunir a medida que vayan saliendo. Si conocéis alguna que no esté y me lo decís en comentarios o por aquí la incorporo.
DPA
La agencia de noticias alemana DPA basará el uso ético de la IA en 5 reglas. Para elaborarlas parece que ha considerado las directrices para una IA fiable de la UE:
1- DPA utiliza la IA para diversos fines y está abierta a un mayor uso de la IA. La IA ayudará a hacer nuestro trabajo mejor y más rápido, siempre en interés de nuestros clientes y nuestros productos.
2- Solo usa IA bajo supervisión humana. La decisión final sobre el uso de productos basados en IA la toma un ser humano. Respetamos la autonomía humana y la primacía de las elecciones humanas.
3- Solo utiliza IA legítima que cumple con la ley aplicable y las disposiciones legales y que cumple con sus principios éticos, como la autonomía humana, la equidad y los valores democráticos.
4- Utiliza IA que es técnicamente robusta y segura para minimizar el riesgo de errores y uso indebido. Cuando el contenido es generado exclusivamente por IA, lo hace, dice, de forma transparente y explicable. Siempre hay una persona responsable de todo el contenido generado con IA.
5- Alienta a todos los empleados a ser abiertos y curiosos sobre las posibilidades de la IA, probar herramientas y hacer sugerencias para usar en los flujos de trabajo. La transparencia, la apertura y la documentación son cruciales.
Wired
Se centran en la IA generativa y en este artículo explican sus reglas. Los puntos básicos: no van a usar IA para generar texto ni para editarlo, pero dejan claro también que es posible que la usen para sugerir títulos o copies para las redes sociales. También se permiten emplearla para generar ideas de posibles temas, así como para investigación o como herramienta analítica. "No queremos que nuestros reporteros confíen en estas herramientas más de lo que les permitiríamos confiar en la información limitada de Wikipedia", aseguran.
------
Si estáis pensando en elaborar vuestro propio código de conducta para una adopción responsable de la IA, el decálogo de recomendaciones que encontraréis en la página 34 puede ser una buena herramienta para empezar.
------
Springer-Nature
En Springer-Nature también focalizan en los grandes modelos lingüísticos (tipo GPT) y defienden que "los editores deben reconocer sus usos legítimos y establecer pautas claras para evitar el abuso".
De momento han establecido dos normas básicas. La primera, una IA no puede firmar. La segunda, cualquier uso de IA debe ser explicitado:
1- No aceptará ninguna herramienta como autor acreditado en un trabajo de investigación. Esto se debe a que cualquier atribución de autoría conlleva responsabilidad por el trabajo, y las herramientas de IA no pueden asumir tal responsabilidad.
2- Los investigadores que utilizan herramientas tipo grandes modelos lingüísticos deben documentar su uso en las secciones de métodos o agradecimientos. Si un artículo no incluye estas secciones, se puede usar la introducción u otra sección apropiada para explicarlo.
Heidi News
Aseguran que no quieren renunciar a los avances tecnológicos, pero consideran necesario establecer unas pautas para el uso de la IA basadas en "la ética que rige" su actividad, y "sobre todo la relación de confianza" con sus lectores. Una vez más, en este medio francés se centran en la IA generativa:
Principios generales:
- Puede utilizar IA para facilitar o mejorar los procesos, pero la inteligencia humana seguirá estando en el centro de toda su producción editorial. Ningún contenido será publicado sin previa supervisión humana.
- Apoya el trabajo de periodistas, autores, fotógrafos e ilustradores. Aseguran que no pretenden sustituirlos por máquinas.
Textos sintéticos
- Todo artículo publicado se firmará por uno o más periodistas, quienes permanecen como garantes de la veracidad y pertinencia de la información que contiene.
- La inteligencia artificial puede ayudar al trabajo de los periodistas para refinar los datos en bruto de la misma manera que un software como Excel, y también puede servir como complemento para escribir artículos, y la equipara a un diccionario de sinónimos en línea o correctores ortográficos automáticos.
- Considera a las IA como herramientas, pero de ninguna manera fuentes de información.
Imágenes sintéticas
- Se limitará a utilizar las imágenes sintéticas con fines ilustrativos, y no informativos, para no inducir a confusión sobre hechos del mundo real.
- No publicará una imagen sintética que pueda pasar por fotografía, salvo con fines educativos, cuando la imagen en cuestión ya sea pública.
- Cualquier imagen sintética publicada irá acompañada de una marca visible que explique su origen. La leyenda mencionará el modelo de IA utilizado y la instrucción principal que se le dio.
Los grandes temas (investigaciones, reportajes, etc.) no se ilustrarán con imágenes sintéticas, a menos que estas creaciones hayan sido diseñadas por un artista que utilice IA bajo su propia responsabilidad.
ANP
La agencia de noticias neerlandesa ANP. considera que la IA debe ser abordada por sus periodistas con actitud de “asombro, curiosidad, crítica y apertura”. “Depende de los editores si es relevante y útil si las aplicaciones de IA se utilizan en producciones editoriales o periodísticas. En pocas palabras, la IA es una herramienta, no un sustituto”.
Destaco algunos principios, que tienen que ver con la necesidad de supervisión de la IA y la necesaria asunción humana de responsabilidad:
- Cuando la IA juega un papel en el proceso editorial, una persona siempre debe hacer la verificación final. ANP describe la cadena de producción editorial como hombre > máquina > hombre. “Pensar y decidir comienza y termina con el hombre. Por lo tanto, no utilizamos contenido informático o producido por IA, ni siquiera como material de origen, sin que un ser humano verifique esta información”, dicen.
- La IA solo se podrá podrá usar con la autorización de los supervisores y jefas de redacción. Pondrá especial cuidado en evitar potenciales errores (alucinaciones o sesgos).
BBC
La BBC publicó hace un tiempo sus seis principios rectores y una lista de verificación de autoauditoría para equipos de Aprendizaje Automático (ingenieros, científicos de datos, product managers, etc.). Está basado en valores de servicio público y diseñado para ser práctico. Espera que su marco "sea una contribución útil para el desarrollo de IA y ML responsables y confiables". La guía se refleja en este proceso:

Enfocada de forma específica a la IA generativa, la BBC también ha publicado tres principios rectores que deben guiar su uso. Todas coinciden con algunas de las principales recomendaciones del informe del CIC:
1- Actuar en el mejor interés del público y poner la IA al servicio de la misión del periodismo.
2- Potenciar el factor humano, priorizando el talento y la creatividad.
3- Transparencia y responsabilidad.
The Guardian
Ha formado un equipo multidisciplinar para elaborar su propia guía ética, enfocada a la IA generativa. Los principios que rigen el uso de estas herramientas son:
1- Para el beneficio de los lectores:
siempre que contribuya positivamente a su periodismo original y con la aprobación específica de un editor senior. Serán transparentes sobre su uso.
2- Para el beneficio de su misión, personal y resto de la organización:
Orientada a la mejora de la calidad del producto y de la eficiencia de los procesos.
4- Con respeto hacia las personas/organizaciones creadoras:
Priorizarán herramientas respetuosas con los derechos de autor.
Reuters:
El responsable de edición de Alessandra Galloni y el editor responsable de ética Alix Freedman enviaron una comunicación al personal de la agencia con varios puntos relacionados con el uso de la IA:
En primer lugar, Reuters considera la tecnología de IA, incluidos los modelos basados en texto generativos como ChatGPT, como un avance que ofrece el potencial de mejorar su periodismo y empoderar a sus periodistas. Reuters explica que, desde su fundación, ha adoptado nuevas tecnologías para ofrecer información "desde las palomas mensajeras hasta el telégrafo e Internet". Más recientemente, ha utilizado sistemas automatizados para informar sobre temas de economía, y esto ha resultado fundamental para poder dar servicio a la velocidad que exigen sus clientes, por tanto, la automatización del contenido no es ninguna novedad para Reuters.
A continuación reproducimos el resto de puntos de la guía:
En segundo lugar, los periodistas y editores de Reuters supervisarán el contenido creado con IA. Una historia de Reuters es una historia de Reuters, independientemente de quien la produce o cómo se genera, y se aplican sus estándares y ética editorial. Si el nombre de un periodista aparece en una historia, él es responsable de asegurarse de que la historia cumple estos estándares; si una historia se publica de forma totalmente autónoma, será porque los periodistas de Reuters han determinado que la tecnología subyacente puede ofrecer la calidad y los estándares que necesitan.
En tercer lugar, Reuters comunicará a la audiencia sobre el propio uso de estas herramientas. La transparencia es una parte esencial de su ethos, explica. Dará a sus lectores y clientes la mayor información posible sobre el origen de una noticia, desde la especificidad de la fuente hasta los métodos utilizados para crearla o publicarla. Esto no significa que vayan a divulgar todos los pasos del proceso editorial. Pero cuando el uso de una herramienta de IA concreta sea importante para el resultado, serán transparentes.
Por último, explorar las posibilidades que ofrece la nueva generación de herramientas no es opcional, aunque todavía están examinando cómo hacer un uso más adecuado. Los principios de confianza exigen "no escatimar esfuerzos por ampliar, desarrollar y adaptar" las noticias. También exigen que proporcionen noticias "fiables". Dada la proliferación de contenido generado por IA, deben mantenerse vigilantes para que las fuentes del contenido sean reales. Su mantra: Sé escéptico y verifica.
En resumen, Reuters aprovechará la IA para apoyar su periodismo cuando estén seguros de que los resultados cumplen con sus estándares de calidad y precisión, y con una supervisión rigurosa por parte de los editores de las redacciones.
Financial Times
"Nuestro periodismo seguirá siendo reportado, escrito y editado por humanos que son los mejores en sus campos", éste es el mensaje que encabeza la carta que el editor del FT envió al equipo. Las indicaciones están orientadas, como en la mayoría de los casos, a los usos de la IA generativa.
Tras explicar qué es la IA generativa, considera las oportunidades de la tecnología: mejorar procesos y productividad. Entonces, menciona los riesgos: carencia de rigor, hechos fabricados, sesgos...
Se muestra convencido de que el periodismo se hará aún más necesario en este contexto:
"En un momento en que la desinformación se puede generar y difundir rápidamente y la confianza en los medios de comunicación en general ha disminuido, en FT tenemos una mayor responsabilidad de ser transparentes, informar los hechos y buscar la verdad. Es por eso que el periodismo de FT en la nueva era de la IA seguirá siendo informado y escrito por humanos que son los mejores en sus campos y que se dedican a informar y analizar el mundo tal y como es, de forma precisa y justa."
Al mismo tiempo, explica que explorarán nuevos usos de la IA para hacer periodismo, de forma responsable, puntualiza: "como ha demostrado la historia reciente, la emoción debe ir acompañada de prudencia ante el riesgo de desinformación y la corrupción de la verdad. El FT seguirá comprometido con su misión fundamental y mantendrá informados a los lectores a medida que la propia IA generativa y nuestro pensamiento evolucionan."
USA Today
En este caso, el editor responsable debe aprobar el uso de la IA en la pieza informativa, y para hacerlo se basa en el propósito, es decir, si el uso de la IA tiene sentido en su misión. Una vez aprobado, los principios en los que debe basarse el uso de la IA son:
Transparencia: contrastar toda información generada con IA.
Rigor: Ser transparentes, comunicar cuándo se ha usado IA y verificar cualquier contenido creado con IA.
Criterio editorial: asegurarse que los valores del medio están presentes en cualquier información.
Uso permitido: Asegurarse que el uso de la IA es ético y legal.
IA generativa (imágenes): limitar su uso. En ningún caso se usarán para cubrir contenido de última hora. Las imágenes sintéticas deberán estar muy claramente marcadas para no dejar lugar a dudas de que no representan hechos reales.
Privacidad: Asegurarse de que no viola la privacidad de los usuarios.
Sesgos: tener la seguridad de que el contenido no es discriminatorio.
Seguridad: evitar cualquier tipo de error o falta de rigor en el contenido sintético.
Diversidad e inclusión: e contenido debe reflejar la diversidad de la audiencia.
Algunas más: