EFFICACITÉ DE L’ÈRE NUMERIQUE

Algorithmes et big data sous la loi du marché

Par Alain Charraud

(Deuxième partie)

 

 

Efficacité du numérique : les 3 « V »

Alors faut-il partir en guerre contre les big data et les algorithmes ? Ce serait, au choix, partir en guerre contre les moulins à vent ou jeter le bébé avec l’eau du bain. Il y a mieux à faire. D’abord il faut que les citoyens exigent d’accéder au cœur du réacteur : quel est le fonctionnement et quels sont les enjeux de tous ces dispositifs autour du numérique ? Car les algorithmes, et tous les logiciels d’analyse de données massives ne sont précisément que des techniques de recueil et de diffusion d’information, et de production de connaissance. En soi, ces techniques ne sont ni bonnes ni mauvaises, pas plus que, dans le passé, n’ont été bonnes ou mauvaises, à priori, les techniques que furent l’écriture, l’imprimerie, la photographie, les microfilms, la télévision ou la radio.

Par rapport au monde d’avant, les 3 V – volume, variété, vélocité – caractérisent ce monde numérique nouveau, dont le « cloud » (stockage) et l’ordinateur (traitement) sont les principaux vecteurs. En fait, il vaudrait mieux parler de monde numérisé, car il ne se réduit pas au seul champ des données purement numériques. Les données numérisées, c’est-à-dire réduites à des suites de 0 ou de 1 pour être traitées plus facilement et plus agilement, sont aussi bien des quantités que des textes ou des images (photos, vidéos). Leurs champs d’application sont donc immenses, aussi bien dans la recherche que les applications de notre quotidien.

D’ores et déjà le traitement de données massives est indissociable de pratiquement tous les champs de la recherche scientifique, dont il constitue un accélérateur et un facilitateur. Dans le domaine des sciences dures, que l’on songe par exemple à la génomique, à la climatologie, à l’astrophysique ou à la physique atomique.

Ainsi, le LHC (Large Hadron Collider) utilise 150 millions de capteurs délivrant 600 millions d’observations (ou collisions) par seconde ! Mais ces giga, téra ou pétadonnées ne seraient rien sans les physiciens qui les conçoivent et les utilisent (car la donnée porte mal son nom : elle se construit elle aussi). Le traitement numérique de ces données a seulement permis aux physiciens, grâce aux 3 V, d’aller plus vite vers la solution et de découvrir ainsi le boson de Higgs.

Dans le domaine de la médecine, les recours aux données massives sont spectaculaires. Récemment, un grand professeur de chirurgie expliquait que son métier était bouleversé par les opérations assistées par ordinateur. Autre champ d’application spectaculaire : les prothèses connectées permettront bientôt à une personne handicapée de recouvrer en partie l’usage d’un membre, à partir de centaines de données recueillies par des capteurs et de programmes de simulation du mouvement.

La situation est analogue dans la vie quotidienne que les applications numériques ont envahie, le plus souvent pour le meilleur : les prévisions météorologiques de plus en plus précises, le GPS, les moteurs de recherche, la presse, la musique, le commerce, l’administration en ligne, les sites de partage, la ville intelligente, et de plus en plus les objets connectés… Naturellement, certaines de ces applications peuvent donner lieu à des dérives, mais est-on prêt pour autant à y renoncer ? La réponse est dans la question !

Un exemple : ENEDIS, filiale d’EDF, développe ce que l’on appelle les « smart grids », c’est-à-dire un réseau électrique donnant de l’information en temps réel sur la consommation des particuliers ou entreprises qui y sont connectés. Ainsi pourra être optimisée la consommation globale d’électricité et au final des économies substantielles d’électricité réalisées. Les particuliers pourront pour le même service alléger leur  facture en gérant leur consommation en fonction des échanges fournis par ce « réseau intelligent ». Pourtant, un important mouvement citoyen s’est opposé à ce déploiement au motif de son caractère intrusif, obligeant EDF à mieux expliquer son projet et à fournir des garanties de transparence sur l’utilisation des données et de respect de leur anonymisation.

« Ouvrir la boite noire »

Ces exemples peuvent nous aider à avancer. L’ère numérique est « en marche », et s’y opposer par principe serait stérile. Pour autant, il ne s’agit pas de donner carte blanche aux professionnels de la donnée, entreprises, états, collectivités diverses. Comme le dit le sociologue D. Cardon3, il faut « ouvrir la boite noire », c’est-à-dire demander des comptes aux professionnels, exiger la transparence sur les données qu’ils recueillent et utilisent. Il faut aussi veiller à empêcher la monopolisation de ces données par quelques grands groupes (les GAFAM4, les États, les grands organismes publics, parapublics ou privés).

Désormais tout un pan de la recherche et aussi de la pratique des ingénieurs du numérique est consacré à la protection des données et à alimenter le débat autour de la transparence et du contrôle des données recueillies par les professionnels du secteur et des algorithmes qu’ils utilisent. Ce débat éveille la conscience dans le public que les données personnelles peuvent être utilisées bien au-delà de ce qui est acceptable et utile pour lui, et l’incite à ne pas se laisser faire. Mais ce débat n’est pas propre aux big data, c’est une question de contrôle démocratique, sur lequel les outils légaux et des organismes publics commencent à se doter de moyens de répression et de régulation (la CNIL en France et son équivalent au niveau de l’Union européenne). 

De plus, si les big data peuvent conduire à des pratiques antidémocratiques d’hypersurveillance, ou à des manipulations commerciales ou malveillantes, ou les deux, elles peuvent aussi permettre des « contre attaques démocratiques » efficaces. C’est dans ce cadre que se sont développées des plates-formes de démocratie participative, et un mouvement citoyen pour des données publiques accessibles à tous (open data) et des logiciels libres, c’est-à-dire gratuits et dont les codes sont disponibles, ce qui bien sûr n’est pas le cas des logiciels commerciaux. Participent aussi de ce mouvement toutes les plates-formes de « fact checking », dont les Panama papers constituent un exemple emblématique, ou les plates-formes de « crowd sourcing » produisant des contre-informations mises à la disposition de tous et libres de droit, qui constituent ce que les économistes appellent des « biens communs » ; la plus célèbre de ces plates-formes est bien sûr Wikipédia. D’ailleurs, pour écrire ces quelques lignes j’ai commencé par y aller voir !

Références bibliographiques

 

  1. A. Rouvroy et T. Berns, « Gouvernementalité algorithmique et perspectives d’émancipation », Réseaux, n°177, 2013.

  2. P.-A. Chardel, « Réseaux sociaux : surveillés et consentants », in « Les grands enjeux du monde contemporain », Sciences humaines, Hors-Série, 2017.

  3. D. Cardon, À quoi rêvent les algorithmes : nos vies à l’heure des big data, La république des idées et Le Seuil, 2015.

  4. GAFAM est l’acronyme des géants du web : Google, Apple, Facebook, Amazon et Microsoft, appelés parfois aussi les Big Five. Mais leur puissance tend à être contestée par les NATU (Netflix, Airbnb, Tesla, Uber) et les BATX, désignant les géants du web chinois, Baidu, Alibaba, Tencent et Xiaomi.

Pour écrire ces quelques lignes, je me suis appuyé en outre sur :

– M. Deshayes, « Les algorithmes ont-ils pris le pouvoir ? », in « Les grands enjeux du monde contemporain », Sciences humaines, Hors-Série, 2017.

– S. Abitbol et V. Peugeot, Terra data, qu’allons-nous faire des données numériques ?, éd. Le Pommier avec la Cité des sciences de la Villette (où se trouve actuellement une exposition remarquable du même nom conçue par les mêmes auteurs).

– S. Chignard et L.-D. Benyayer, Datanomics, les nouveaux business models des données,FYP éditions, 2015.

– J’ai aussi consulté le site du Conseil national du numérique, Wikipédia (article « big data ») et le site de l’ENSAI.