Le CEO du New York Times: L'algorithme de fausses nouvelles de Facebook nuit à la démocratie

17/06/2018 06:26

Les entreprises technologiques qui comptent fermement sur les algorithmes pour identifier les informations frauduleuses ou fausses suscitent de nombreuses questions, a déclaré Mark Thompson, CEO du New York Times, lors d'un colloque du Tow Center for Digital Journalism de l'Université de Columbia.

Selon Thompson, les citoyens ne peuvent pas déterminer rationnellement la validité d'une source d'informations et peuvent favoriser la diffusion d'une fausse nouvelle, mais il n'est selon lui, certainement pas opportun d'imputer cette responsabilité seulement à un algorithme.

Démocratie

"On ne peut pas priver les consommateurs de leurs perceptions au sujet de sources d'informations", souligne Mark Thompson. "Si lors de la sélection d'infos, la responsabilité de rédacteurs et d'émetteurs est remplacée par un algorithme de confiance centralisé, la démocratie n'en sortira pas plus saine, mais sera entachée". 

Selon lui, si les algorithmes doivent devenir le le principal moyen de lutter contre la prétendue montée de la désinformation, alors, des entreprises comme Google et Facebook devraient tendre à la plus grande transparence.

"Personne ne sait cependant pas de quelle façon les algorithmes des principales plates-formes trient et hiérarchisent nos contenus", ajoute Thompson. "Il est aussi impossible de prévoir et d'influencer de manière fiable les changements chez ces algorithmes. 

Le consommateur n'a pour cela à sa disposition, que son évaluation personnelle empirique et incomplète." "Il n'est pas facile non plus de rendre les entreprises responsables des choix effectués. 

Quand les infos sont approchées par des algorithmes, il faut que les grandes plates-formes numériques fassent valoir la même transparence totale pour les sélections algorithmiques et les sélections rédactionnelles classiques."

Danger

"Cette transparence doit avoir lieu de préférence sur base volontaire, mais il faut créer un cadre réglementaire et législatif", dit Thompson. "Cette décision doit se prendre rapidement. 

Chaque plate-forme qui n'offre pas une visibilité totale sur ses processus de sélection rédactionnelle, peut créer un danger réel si l'interprétation des rédacteurs et du public est mise sous le contrôle d'un algorithme central." Il fait référence à ce propos aux fautes que les algorithmes ont déjà fait dans leurs interventions.

"Les manques de points de vue de Facebook sur le concept d'information ont fait surface récemment encore ", témoigne Thompson. Dans sa nouvelle gestion des annonces politiques, l'entreprise traiterait les infos politiques de la même façon que des publicités politiques. 

"Cette situation menace de saper la valeur des informations politiques. Cette gestion fait s'estomper la frontière entre journalisme et plaidoyer. Par cette approche, un article de journal sur la pornographie serait considéré et catalogué comme pornographie par les algorithmes."

Thompson a souligné à ce propos que Facebook lui-même a admis subir une grande pression publique pour faire la clarté sur la défense d'intérêts politiques, mais que son algorithme n'était pas capable de faire la différence entre journalisme et militantisme. 

On peut donc, selon Thompson, difficilement accepter que ce même algorithme ait sous peu la nouvelle tâche de dire au monde quelle information est fiable.

Dans une réaction, Facebook a déclaré qu'il est apparu important de créer plus de transparence à propos des publicités politiques. L'entreprise dit également qu'elle ira plus loin dans la classification des publicités politiques. 

"Nous continuerons d'autoriser le contenu publicitaire des organisations de presse, y compris les mentions politiques, mais nous reconnaissons que les reportages sur ces sujets sont différents de ceux du plaidoyer."