Devons-nous redouter la société des métadonnées ?

08/08/2018 05:59

Chaque jour, Google traite 3,5 milliards de requêtes avec son moteur de recherche, sur une multitude de sujets : emploi, maladie, préférences sexuelles, préparation de mauvais coups.

 

L'agrégation de ces données peut fournir un portrait-robot de l'état émotionnel de la société, de l'humeur à l'égard de la consommation, des produits qui remportent le plus de succès, par exemple. Mais selon le philosophe italien Matteo Pasquinelli, l'explosion de ces données pourrait être à l'origine d'une nouvelle forme de contrôle de la société.

En effet, le moteur de recherche n'est pas seulement un sismographe qui enregistre les mouvements de la société numérique, c'est aussi un outil qui génère des préférences, écrit le Süddeutsch Zeitung.

Google suggest

Le journal se réfère à l'outil de prédiction de Google, Google Suggest, un outil de saisie semi-automatique qui suggère certains mots pour compléter les requêtes que les internautes commencent à taper dans la barre du moteur de recherche. Ces mots suggérés proviennent d'une analyse des requêtes les plus fréquentes lancées sur le moteur de recherche employant les mêmes mots de base. 

Mais ces suggestions peuvent aussi influencer les requêtes lancées par les internautes, et ainsi, le comportement de milliers d'utilisateurs aboutit à déterminer un certain nombre de suggestions qui influenceront elle-mêmes les résultats qui produiront les suggestions suivantes. "Le comportement de millions d'utilisateurs est ainsi conditionné dans une boucle de rétroaction continue. Continue, et contrôlée", écrit le journal.

La société des métadonnées

Selon Matteo Pasquini, l'exploitation de ces masses de données est susceptible de créer une nouvelle forme de contrôle : une société des métadonnées. En exploitant ces données, on pourrait imposer un contrôle de masse en agissant sur le comportement des individus. 

Il serait ainsi possible d'influencer leurs comportements en ligne, sur les réseaux sociaux, ou dans les transports publics, par exemple.

Cette société des métadonnées peut-être considérée comme une extension du contrôle cybernétique de la société, selon Pasquinelli : "Aujourd'hui, la question n'est plus de déterminer la position d'un individu (ses données personnelles), mais d’identifier la tendance générale de la masse (les métadonnées)." 

Pour Pasquinelli, le problème n'est pas que nous risquons d'être surveillés comme les citoyens des pays du bloc communiste pouvaient l'être à l'ère soviétique, mais plutôt que la société dans son ensemble devient calculable, prévisible, et donc contrôlable.

Le programme Skynet de la NSA, nous donne un avant-goût de cette utilisation

Le programme de surveillance de masse Skynet, mené par la NSA, a permis par exemple d'identifier des terroristes à la frontière entre l'Afghanistan et le Pakistan grâce aux données de leur téléphone mobile.

L’algorithme de machine Learning a analysé les métadonnées de terroristes déjà identifiés, et en a déduit des profils-types avec des comportements particuliers. 

Le programme a ensuite analysé les données et les comportements de 55 millions d'utilisateurs de smartphones pour déterminer des tendances de comportements, à partir desquelles un algorithme a calculé un "score de terrorisme" pour chaque individu, en fonction de la ressemblance de ces comportements avec ceux des terroristes. "Nous tuons les gens sur la base de métadonnées", c'est un jour vanté Michael Hayden, ancien responsable de la CIA et de la NSA.

Ce qui est inquiétant, c'est que "l'œil de l'algorithme" ne voit pas de terroristes en soi, simplement une collection de données jugées suspectes au regard d'un nuage de données particulier. 

Or, des milliers de personnes ont été tuées au cours d'attaques de drones sur la base des résultats de ces algorithmes. Quiconque produirait incidemment une collection de données similaire à celle des terroristes pouvait être abattu sans autre forme de procès, et il est impossible de savoir combien de civils innocents ont été tués dans ces conditions.

Prédire le comportement de la société... comme on prédit la météo

“Que se passerait-il si l'algorithme de Google Trend était appliqué à des questions sociales, des rassemblements politiques, des grèves, ou à des soulèvements à la périphérie dans les grandes villes d'Europe ?”, se demande Pasquinelli. Les spécialistes du datamining pensent qu'il est possible de prédire les interactions humaines comme on prédit la météo. 

Mark Zuckerberg, le CEO de Facebook, a déclaré par le passé qu'il pensait qu'il y avait "une loi mathématique fondamentale derrière les relations sociales humaines". “Amour ? Emploi ? Crime ? 

Selon ces experts, tout ce qui se passe dans la société est déterminé et donc prévisible, comme si la société n'était qu'un système d'équations linéaires”, résume le journal.

Il en découle une nouvelle technique de pouvoir, qui ne s'exercerait plus par le contrôle, mais par la prédiction, devenue elle-même contrôlable. "Les groupes peuvent être dirigés dans la direction souhaitée par des techniques de manipulation telle que l'influence, ou l'exploitation de leurs faiblesses psychologiques", explique le quotidien allemand.

Récemment, une vidéo interne de Google, présentant le concept du "Selfish Ledger" a été divulguée. Elle envisageait un monde dans lequel un registre central conservant toutes les données individuelles, permettant d'identifier des modèles comportementaux, pouvait inspirer des recommandations et des actions pour modifier ces comportements pour le mieux.

Lorsque tout est déterminé, plus rien ne peut être changé

Les spécialistes des technologies qui utilisent ces techniques de métadonnées actuellement les exploitent pour éviter les perturbations, et maintenir le système à l'équilibre. Il n'est pour le moment question que de gérer des foules, des trafics denses, prévenir la criminalité, ou d’autres utilisations positives pour la société.

Néanmoins, elles pourraient être détournées pour servir d’autres objectifs, que ce soit par des sociétés privées, ou par des dirigeants technocrates autoritaires. 

Et lorsque le comportement des individus des groupes et de la société devient prévisible, faire de la politique, c'est-à-dire tenter de préparer un avenir ouvert et flexible, devient superflu. "Lorsque tout est déterminé, plus rien ne peut être changé", avertit le journal.