top of page

Guías éticas para el uso de la inteligencia artificial en el periodismo


Desde que a finales del 2021 el Consell de la Informació de Catalunya publicó el informe y el decálogo para el uso ético de la inteligencia artificial en los medios de comunicación han ido apareciendo guías sobre ética, IA y periodismo que han desarrollado principalmente en medios y agencias. La mayoría, después de la irrupción de ChatGPT.


En este post las voy a reunir a medida que vayan saliendo. Si conocéis alguna que no esté y me lo decís en comentarios o por aquí la incorporo.


DPA

La agencia de noticias alemana DPA basará el uso ético de la IA en 5 reglas. Para elaborarlas parece que ha considerado las directrices para una IA fiable de la UE:

1- DPA utiliza la IA para diversos fines y está abierta a un mayor uso de la IA. La IA ayudará a hacer nuestro trabajo mejor y más rápido, siempre en interés de nuestros clientes y nuestros productos.


2- Solo usa IA bajo supervisión humana. La decisión final sobre el uso de productos basados ​​en IA la toma un ser humano. Respetamos la autonomía humana y la primacía de las elecciones humanas.


3- Solo utiliza IA legítima que cumple con la ley aplicable y las disposiciones legales y que cumple con sus principios éticos, como la autonomía humana, la equidad y los valores democráticos.


4- Utiliza IA que es técnicamente robusta y segura para minimizar el riesgo de errores y uso indebido. Cuando el contenido es generado exclusivamente por IA, lo hace, dice, de forma transparente y explicable. Siempre hay una persona responsable de todo el contenido generado con IA.


5- Alienta a todos los empleados a ser abiertos y curiosos sobre las posibilidades de la IA, probar herramientas y hacer sugerencias para usar en los flujos de trabajo. La transparencia, la apertura y la documentación son cruciales.


Wired

Se centran en la IA generativa y en este artículo explican sus reglas. Los puntos básicos: no van a usar IA para generar texto ni para editarlo, pero dejan claro también que es posible que la usen para sugerir títulos o copies para las redes sociales. También se permiten emplearla para generar ideas de posibles temas, así como para investigación o como herramienta analítica. "No queremos que nuestros reporteros confíen en estas herramientas más de lo que les permitiríamos confiar en la información limitada de Wikipedia", aseguran.


Springer-Nature

En Springer-Nature también focalizan en los grandes modelos lingüísticos (tipo GPT) y defienden que "los editores deben reconocer sus usos legítimos y establecer pautas claras para evitar el abuso".

De momento han establecido dos normas básicas. La primera, una IA no puede firmar. La segunda, cualquier uso de IA debe ser explicitado:

1- No aceptará ninguna herramienta como autor acreditado en un trabajo de investigación. Esto se debe a que cualquier atribución de autoría conlleva responsabilidad por el trabajo, y las herramientas de IA no pueden asumir tal responsabilidad.


2- Los investigadores que utilizan herramientas tipo grandes modelos lingüísticos deben documentar su uso en las secciones de métodos o agradecimientos. Si un artículo no incluye estas secciones, se puede usar la introducción u otra sección apropiada para explicarlo.


Heidi News

Aseguran que no quieren renunciar a los avances tecnológicos, pero consideran necesario establecer unas pautas para el uso de la IA basadas en "la ética que rige" su actividad, y "sobre todo la relación de confianza" con sus lectores. Una vez más, en este medio francés se centran en la IA generativa:


Principios generales:

- Puede utilizar IA para facilitar o mejorar los procesos, pero la inteligencia humana seguirá estando en el centro de toda su producción editorial. Ningún contenido será publicado sin previa supervisión humana.

- Apoya el trabajo de periodistas, autores, fotógrafos e ilustradores. Aseguran que no pretenden sustituirlos por máquinas.


Textos sintéticos

- Todo artículo publicado se firmará por uno o más periodistas, quienes permanecen como garantes de la veracidad y pertinencia de la información que contiene.

- La inteligencia artificial puede ayudar al trabajo de los periodistas para refinar los datos en bruto de la misma manera que un software como Excel, y también puede servir como complemento para escribir artículos, y la equipara a un diccionario de sinónimos en línea o correctores ortográficos automáticos.

- Considera a las IA como herramientas, pero de ninguna manera fuentes de información.


Imágenes sintéticas

- Se limitará a utilizar las imágenes sintéticas con fines ilustrativos, y no informativos, para no inducir a confusión sobre hechos del mundo real.

- No publicará una imagen sintética que pueda pasar por fotografía, salvo con fines educativos, cuando la imagen en cuestión ya sea pública.

- Cualquier imagen sintética publicada irá acompañada de una marca visible que explique su origen. La leyenda mencionará el modelo de IA utilizado y la instrucción principal que se le dio.

Los grandes temas (investigaciones, reportajes, etc.) no se ilustrarán con imágenes sintéticas, a menos que estas creaciones hayan sido diseñadas por un artista que utilice IA bajo su propia responsabilidad.


ANP

La agencia de noticias neerlandesa ANP. considera que la IA debe ser abordada por sus periodistas con actitud de “asombro, curiosidad, crítica y apertura”. “Depende de los editores si es relevante y útil si las aplicaciones de IA se utilizan en producciones editoriales o periodísticas. En pocas palabras, la IA es una herramienta, no un sustituto”.


Destaco algunos principios, que tienen que ver con la necesidad de supervisión de la IA y la necesaria asunción humana de responsabilidad:

- Cuando la IA juega un papel en el proceso editorial, una persona siempre debe hacer la verificación final. ANP describe la cadena de producción editorial como hombre > máquina > hombre. “Pensar y decidir comienza y termina con el hombre. Por lo tanto, no utilizamos contenido informático o producido por IA, ni siquiera como material de origen, sin que un ser humano verifique esta información”, dicen.


- La IA solo se podrá podrá usar con la autorización de los supervisores y jefas de redacción. Pondrá especial cuidado en evitar potenciales errores (alucinaciones o sesgos).


BBC

La BBC publicó hace un tiempo sus seis principios rectores y una lista de verificación de autoauditoría para equipos de Aprendizaje Automático (ingenieros, científicos de datos, product managers, etc.). Está basado en valores de servicio público y diseñado para ser práctico. Espera que su marco "sea una contribución útil para el desarrollo de IA y ML responsables y confiables". La guía se refleja en este proceso:


En The Guardian han anunciado que publicarán su propia guía en los próximos meses.


Si estáis pensando en elaborar vuestro propio código de conducta para una adopción responsable de la IA, el decálogo de recomendaciones que encontraréis en la página 34 puede ser una buena herramienta para empezar.



Nos vemos en las redes sociales

  • Twitter Basic Square
  • Facebook Basic Square
  • Tumblr Social Icon
  • Snapchat Social Icon
  • LinkedIn Social Icon
Archivo
Buscar por tags
bottom of page