¿NOTICIAS FALSAS? CÓMO DISTINGUIR INFORMACIÓN CONFIABLE EN LÍNEA
REDACCIÓN NOTI-AMÉRICA (ECUADOR) Por Dwight Knell, Líder de Programas de Credibility Coalition
A medida que aumenta la conciencia sobre la importancia de establecer información confiable, también hay que pensar en cómo se comunica esta credibilidad en el contenido que viaja por la web.
El Internet ha ofrecido una plataforma para democratizar la difusión de información y el intercambio de conocimientos. La reducción de las barreras y de los costos de publicación, el aumento de la conectividad social y el intercambio de información en tiempo real, los movimientos globales para la apertura y la creación colaborativa de recursos como Wikipedia, son todos los beneficios observados de la era de la información. ¿Pero qué pasa si no podemos confiar en esa información?
El problema de la desinformación
A estas alturas, todos hemos escuchado sobre las “noticias falsas” y los intentos de actores perversos de difundir información errónea con el propósito de engañar al público. Vale considerar que, además de los esfuerzos de desinformación más deliberados, también hay varios tonos de gris, que toman forma de opiniones empaquetadas como hechos, investigaciones que carecen de rigor, hipérboles, atribuciones erróneas y falacias lógicas. Estos desafíos y más contribuyen a un panorama de información incierto.
Hay muchas propuestas de soluciones sobre la mesa virtual, pero la escala del problema de la desinformación es tan grande que cualquier esfuerzo individual solo puede proporcionar un alivio parcial. Se necesita un enfoque holístico para equilibrar los roles de los sistemas de reputación, la verificación de datos, la alfabetización mediática, los modelos de ingresos de los medios y la retroalimentación del público, y cómo todos ellos pueden influir y contribuir a la salud e integridad del ecosistema de información.
Simplemente calificar un artículo como “confiable” no es realista; como consumidores de información, debemos entender qué partes de ella son creíbles y cómo se llegó a la conclusión sobre su credibilidad. Como productores y distribuidores de información, debemos entender cómo comunicar la credibilidad de manera efectiva, dadas las diferentes intenciones detrás de los diferentes estilos de contenido.
Un enfoque holístico para establecer estándares de información confiable
La Coalición de la Credibilidad (Credibility Coalition en inglés, o CredCo) es una comunidad interdisciplinaria que incluye tecnólogos, periodistas y académicos comprometidos con la mejora de los ecosistemas de información y la alfabetización mediática a través de una exploración transparente y colaborativa. CredCo proporciona la comunidad y la infraestructura líderes en el mundo para generar y validar conjuntos de datos abiertos de alta calidad para indicadores matizados sobre la credibilidad del contenido. Hemos recibido fondos de iniciativas como Google News Initiative, Knight Foundation y Mozilla, y trabajamos con el W3C Credible Web Community Group para garantizar que los datos sean interoperables, específicos y comprendidos por investigadores, científicos de datos, plataformas y compañías de inteligencia artificial.
Nuestros esfuerzos se enmarcan actualmente alrededor de tres preguntas principales:
- Evaluar: ¿Podemos concordarnos sobre los indicadores de información confiable en línea?
- Escalar: ¿Funciona la evaluación en contextos acotados y masivos?
- Aplicar: ¿Cómo puede la implementación de estándares de credibilidad informar efectivamente?
Paso 1: Evaluación del contenido para la credibilidad
¿Podemos concordarnos sobre los indicadores de información confiable en línea? Las siguientes listas mencionan algunos atributos que en CredCo creemos que merecen una evaluación adicional al determinar la credibilidad de un artículo. Estas se pueden clasificar por señales de contenido, determinadas por el texto o lo que está dentro del artículo, y por señales de contexto, que se pueden determinar consultando fuentes externas o metadatos del artículo y planteando preguntas sobre quién hospeda, patrocina o respalda el contenido.
Señales de contenido
- Representatividad del título: el título de un artículo puede ser engañoso u opaco sobre el tema, las afirmaciones o las conclusiones del contenido.
- Título “Clickbait”: definido como un cierto tipo de contenido web que está diseñado para atraer a sus lectores a hacer clic en un enlace que lo acompaña, como los “cliffhangers” que dejan al público en suspenso.
- Citas de expertos externos: ¿Hay comentarios externos de expertos independientes para brindar apoyo a las conclusiones extraídas de un artículo?
- Citación de organizaciones y estudios: ¿Se incluyen citas para agregar contexto o mejorar la credibilidad de las reclamaciones
- Calibración de la confianza: ¿El autor hace afirmaciones absolutas o utiliza proposiciones tentativas para reconocer su nivel de incertidumbre y permitir que los lectores evalúen las afirmaciones con la confianza adecuada?
- Falacias lógicas: Argumentos mal construidos pero tentadores que incluyen la falacia del hombre de paja (que presenta un contraargumento como una versión más obviamente errónea de los contraargumentos existentes), la falacia del falso dilema (que trata un tema como binario cuando no lo es), la falacia de la pendiente resbaladiza (suponiendo uno un pequeño cambio conducirá a un cambio importante, y otras técnicas engañosas.
- Tono: ¿Hay reclamos exagerados o secciones cargadas emocionalmente?
- Inferencia: Cuando se combinan la correlación y la causalidad, las implicaciones pueden ser dramáticas, por ejemplo, en los ensayos médicos.
Señales de contexto
- Originalidad: si el texto se duplica de otra parte, ¿se otorgó la atribución?
- Verificación de hechos: limitamos nuestra consideración a organizaciones examinadas por un signatario verificado de la Red Internacional de Verificación de Hechos de Poynter (IFCN).
- Citas representativas: la precisión con que la descripción en el artículo representa el contenido original de cualquier fuente citada, como artículos, entrevistas u otros materiales externos.
- Reputación de citas: para los estudios científicos, existen al menos algunas medidas públicas existentes, como el factor de impacto, a pesar de sus problemas documentados.
- Número de llamadas sociales: la mayoría de las publicaciones dependen de las redes sociales y del contenido viral para dirigir el tráfico a su sitio. Dicho esto, un gran número de exhortaciones para compartir contenido en las redes sociales, enviar un artículo por correo electrónico o unirse a una lista de correo puede ser un indicador de información errónea motivada financieramente.
- Número de anuncios
- Anuncios “spammy”
- Colocación de anuncios y convocatorias sociales.
Paso 2: Desarrollo de estándares para la credibilidad de la información con datos
Usando los criterios discutidos anteriormente, ¿funciona la evaluación a escala? A nivel individual, los resultados pueden variar y, en última instancia, parecen ser subjetivos. Existen estructuras, procesos y datos necesarios para permitir la participación de organizaciones, expertos y no expertos en temas de calidad de la información.
Para desarrollar un proceso de evaluación de contenido más basado en datos, CredCo utiliza un marco para evaluar el contenido que busca complementar la función de interpretación de los investigadores, las plataformas o los sistemas automatizados que pueden llevarse a cabo de manera independiente para calificar la credibilidad de un texto. Esta metodología combina las anotaciones manuales de “no expertos” y “expertos” para agregar datos de prueba para posibles fines de automatización.
En el pasado, hemos experimentado con múltiples herramientas de anotación, pero nuestros anotadores realizan su trabajo principalmente en las plataformas Check and Hypothesis. Check ofrece a los anotadores una forma simple y directa de revisar y marcar artículos. A continuación se muestra un ejemplo de cómo se ve en Check.
Hypothesis permite a los usuarios anotar artículos in situ en la web. Un ejemplo es aquí:
Los anotadores marcan los artículos seleccionados a mano según las señales de contenido específicas, así como las señales de contexto que repasamos anteriormente.
Reconociendo la complejidad de desarrollar estándares, los abordamos a través de una investigación rigurosa. Tenemos tres resultados principales: (1) una guía de anotación que se puede usar para estudios futuros y que puede informar a estudios más grandes para la anotación, (2) un conjunto de datos de resultados con licencia y en desarrollo, y (3) un documento de vocabulario desarrollado con el Credible Web Community Group del W3C. Al reconocer que nuestro panorama de información está cambiando constantemente, cada uno de estos productos se actualiza y desarrolla regularmente.
Paso 3: Aplicación considerada de los estándares de credibilidad de la información
¿Cómo puede la implementación de estándares de credibilidad informar efectivamente? Una forma de comenzar a comprender las complejidades de separar lo creíble de los elementos cuestionables de una publicación de noticias es pensar cómo expresar la calidad de la información como una etiqueta nutricional, como esta, diseñada originalmente por Clay Johnson:
La etiqueta incluye marcadores para diferenciar los hechos de la opinión, las posibles influencias comerciales o políticas y una lista de fuentes. Como lo describió Matt Stempeck mientras estudiaba este tema en el Centro de Medios Cívicos del MIT, “… el objetivo es hacer que la información sobre las noticias esté disponible para las personas que deseen beneficiarse de ella. El despliegue de las etiquetas nutricionales de la FDA en los envases de alimentos en 1990 [en los Estados Unidos] no obligó a las personas a comer de manera diferente, pero sí proporcionó información nutricional crítica para los consumidores que la buscaron.”
Creemos que este modelo resultará útil para ayudar a desarrollar estándares de credibilidad universales, así como para permitir que el público entienda nuestro trabajo de una manera más sencilla. Al mismo tiempo, evita la censura completa o una evaluación de valor polarizante del contenido, permitiendo que las opiniones se mantengan como opiniones en contexto.
Fuente: BID