Periodismo con inteligencia no artificial
Cuando trabajé con el Índice de Desinformación Global (GDI, por sus siglas en inglés), hubo un aspecto clave de la inteligencia artificial que nos llevó a reflexionar sobre la metodología de investigación. Para identificar elementos desinformativos, se consideraron criterios tradicionales del periodismo: si proporciona un contexto adecuado, si el título refleja el contenido, si cita fuentes, si trata hechos recientes, si evita el lenguaje difamatorio o los ataques infundados, y si la parte visual es pertinente, entre otros.
Lo interesante fue darnos cuenta de que miles de textos cumplían con todos los criterios de la práctica periodística y, por lo tanto, superaban el filtro de desinformación, pero en realidad no decían mucho. Esto nos llevó a cuestionarnos: ¿qué significa realmente desinformar? De hecho, una de las preguntas clave era si la pieza había sido generada por inteligencia artificial. A menudo, era difícil distinguir si el texto lo había escrito un robot o un periodista poco diestro. ¿Qué hace uno con un texto que no desinforma, pero tampoco informa en ningún sentido significativo?
En la pasada Feria del Libro de Armenia, fui invitada a dar una charla sobre inteligencia artificial (IA). Mientras la preparaba, experimenté un poco con modelos de lenguaje (LLMs) como ChatGPT para reflexionar sobre esta pregunta. Decidí comparar artículos de lo que considero mal periodismo con varios creados por IA. En muchas ocasiones, los modelos de IA produjeron textos más completos que los escritos por humanos y, en otras, muy similares. La conclusión fue la misma, la IA, al igual que el periodismo mediocre, puede superar filtros generales de desinformación y aun así no informar.
Sin embargo, lo más interesante ocurrió cuando le pedí a la IA que generara piezas para compararlas con lo que considero buen periodismo. Por ejemplo, tomé la imagen que Jesús Abad Colorado capturó en la iglesia tras la masacre de Bojayá. Intenté que los modelos de lenguaje generaran una representación periodística de lo sucedido en Bojayá para contrastarla con la de Abad. El resultado fue claro: los LLMs no pudieron ni siquiera acercarse a la verdad revelada por el periodista.
La imagen hecha por Abad logra, entre muchas otras cosas, esa difícil claridad de darnos un ángulo y sugerir el horror de la violencia sin mostrar cuerpos desangrados y sin valerse de ninguna obviedad. Por el contrario, con los LLMs se generaban imágenes llenas de lugares comunes. En palabras del mismo ChatGPT, que describe la imagen que muestra: “un grupo de sobrevivientes con expresiones de tristeza y desesperanza (…) el cielo gris sugiere una tormenta inminente, subrayando el dolor y la tragedia vivida”. Si uno presionaba por ángulos, la respuesta era aún más desconcertante: “Por respeto a la tragedia de Bojayá y a las víctimas involucradas, no es apropiado crear imágenes que representen estos eventos dolorosos”.
Llegué a la conclusión de que estas piezas, tanto las generadas por IA como las producidas por periodistas mediocres, aunque no desinforman, suelen ser irrelevantes. Y de ahí su daño: existimos en el tiempo y el espacio, y si esas dimensiones se nos llenan de contenido insulso, nos enfrentamos a una forma de contrainformación. No es que desinformen, sino que obstaculizan la comprensión, actuando como una suerte de corriente en contra que entorpece los esfuerzos de cognición genuinos.
Cuando trabajé con el Índice de Desinformación Global (GDI, por sus siglas en inglés), hubo un aspecto clave de la inteligencia artificial que nos llevó a reflexionar sobre la metodología de investigación. Para identificar elementos desinformativos, se consideraron criterios tradicionales del periodismo: si proporciona un contexto adecuado, si el título refleja el contenido, si cita fuentes, si trata hechos recientes, si evita el lenguaje difamatorio o los ataques infundados, y si la parte visual es pertinente, entre otros.
Lo interesante fue darnos cuenta de que miles de textos cumplían con todos los criterios de la práctica periodística y, por lo tanto, superaban el filtro de desinformación, pero en realidad no decían mucho. Esto nos llevó a cuestionarnos: ¿qué significa realmente desinformar? De hecho, una de las preguntas clave era si la pieza había sido generada por inteligencia artificial. A menudo, era difícil distinguir si el texto lo había escrito un robot o un periodista poco diestro. ¿Qué hace uno con un texto que no desinforma, pero tampoco informa en ningún sentido significativo?
En la pasada Feria del Libro de Armenia, fui invitada a dar una charla sobre inteligencia artificial (IA). Mientras la preparaba, experimenté un poco con modelos de lenguaje (LLMs) como ChatGPT para reflexionar sobre esta pregunta. Decidí comparar artículos de lo que considero mal periodismo con varios creados por IA. En muchas ocasiones, los modelos de IA produjeron textos más completos que los escritos por humanos y, en otras, muy similares. La conclusión fue la misma, la IA, al igual que el periodismo mediocre, puede superar filtros generales de desinformación y aun así no informar.
Sin embargo, lo más interesante ocurrió cuando le pedí a la IA que generara piezas para compararlas con lo que considero buen periodismo. Por ejemplo, tomé la imagen que Jesús Abad Colorado capturó en la iglesia tras la masacre de Bojayá. Intenté que los modelos de lenguaje generaran una representación periodística de lo sucedido en Bojayá para contrastarla con la de Abad. El resultado fue claro: los LLMs no pudieron ni siquiera acercarse a la verdad revelada por el periodista.
La imagen hecha por Abad logra, entre muchas otras cosas, esa difícil claridad de darnos un ángulo y sugerir el horror de la violencia sin mostrar cuerpos desangrados y sin valerse de ninguna obviedad. Por el contrario, con los LLMs se generaban imágenes llenas de lugares comunes. En palabras del mismo ChatGPT, que describe la imagen que muestra: “un grupo de sobrevivientes con expresiones de tristeza y desesperanza (…) el cielo gris sugiere una tormenta inminente, subrayando el dolor y la tragedia vivida”. Si uno presionaba por ángulos, la respuesta era aún más desconcertante: “Por respeto a la tragedia de Bojayá y a las víctimas involucradas, no es apropiado crear imágenes que representen estos eventos dolorosos”.
Llegué a la conclusión de que estas piezas, tanto las generadas por IA como las producidas por periodistas mediocres, aunque no desinforman, suelen ser irrelevantes. Y de ahí su daño: existimos en el tiempo y el espacio, y si esas dimensiones se nos llenan de contenido insulso, nos enfrentamos a una forma de contrainformación. No es que desinformen, sino que obstaculizan la comprensión, actuando como una suerte de corriente en contra que entorpece los esfuerzos de cognición genuinos.