EFFICACITÉ DE L’ÈRE NUMERIQUE

Algorithmes et big data sous la loi du marché

Par Alain Charraud

(Première partie)

Alain Charraud est inspecteur général honoraire de l’INSEE, président du Conseil de l’ENSAI (École nationale de la statistique et de l’analyse de l’information) et président de la section Prospective du CESER de Bretagne (Conseil économique social et environnemental).
L’ENSAI, dont A. Charraud a été le directeur de 2007 à 2011 puis le président de son Conseil en exercice, est une des très rares grandes écoles d’ingénieurs entièrement dévolues aux méthodes de traitement et d’interprétation des données ; données numériques, textuelles, images ou sons, données quantitatives ou qualitatives, données physiques (climat, astrophysique, biologie, santé, contrôle qualité…) ou de sciences sociales (recensements, emploi, analyse clientèle, pratiques socio-économiques…). Si les méthodes utilisées relèvent de la statistique ou de l’informatique, on parle plutôt désormais du métier de « data scientist », surtout dans le secteur privé.
Dans le secteur public (par exemple l’INSEE où A. Charraud a exercé), on parle encore d’ingénieur statisticien, ou de statisticien économiste ou de méthodologue.
À l’ENSAI, le master spécialisé dans le traitement des big data s’appelle en fait : « master of sciences in statistics for smart data ».
Il faut bien noter que l’analyse de données nombreuses ne date pas des big data. Ainsi, depuis sa création, en 1996, la devise de l’ENSAI est la suivante : « modelling data, creating knowledge ». Mais ce sont les progrès extraordinaires en matière de traitement des données et d’utilisation d’internet (les « 3 V ») qui ont « boosté » cette analyse de données massives en redonnant un souffle nouveau à l’utilisation de méthodes statistiques et mathématiques connues auparavant (analyse factorielle, data mining, réseau de neurones, théorie du signal, théorie de sondages…), mais dont l’utilisation était limitée par les puissances de calcul des machines. 
 
——————————————-
L’argument du forum m’évoque un risque couramment associé à la révolution numérique, et plus précisément à propos de l’utilisation de données massives (big data) : le risque de « la gouvernance par les nombres », conduisant à un rabattement de l’individu vers toujours plus de norme, et finalement débouchant sur une entreprise de déshumanisation. Cette thèse est défendue par exemple par deux chercheurs belges[1], pour qui nous serions entrés dans une « nouvelle gouvernementalité algorithmique » au sein de laquelle l’individu s’effacerait au profit de son double statistique qu’il ne maîtriserait pas vraiment.
Surveillés et consentants ?
Cependant, au sein de la communauté des scientifiques, sociologues ou simplement ingénieurs informaticiens ou statisticiens qui se sont penchés de façon approfondie et critique sur la question des bienfaits et surtout des méfaits potentiels ou avérés liés au recueil et aux traitements toujours plus sophistiqués et variés de ces données massives, la question est abordée en général sous un autre angle : c’est le risque lié à l’appropriation de nos données personnelles à des fins mercantiles ou de surveillance par des tiers ; entreprises, États, services publics, individus malveillants, qui est le plus largement partagé, y compris semble-t-il dans l’ensemble des utilisateurs non spécialistes. Ne serait-ce que parce que ce risque est déjà une réalité, largement popularisée par exemple par les lanceurs d’alerte à la suite d’Edgar Snowden. Ce risque est d’autant plus réel que nous y sommes quotidiennement et plus ou moins inconsciemment soumis lorsque nous « surfons » sur internet ou utilisons les réseaux sociaux. Des services nous sont proposés qui nous facilitent la vie et qui bien souvent sont « gratuits », précisément parce que le modèle économique des plates-formes qui les proposent repose sur l’utilisation des données, et des « traces » qu’on y laisse, selon l’adage bien connu : « quand c’est gratuit, c’est vous le produit ». Pour une large part, nous l’acceptons : « surveillés et consentants » écrit un philosophe spécialiste de ces questions[2].
Un autre risque plus insidieux est inhérent à la nature même des données : c’est le risque d’enfermement et d’uniformisation, d’asséchement relatif des relations et des pratiques sociales. Cela peut sembler paradoxal à l’ère de la communication à outrance, notamment à travers les réseaux sociaux de toutes natures, mais c’est assez logique : en effet, les algorithmes ne pouvant utiliser que les données connues et donc passées tendent à reproduire voire à affermir les relations, les goûts et les choix présents, et non à ouvrir sur de nouveaux choix relationnels ou matériels.
Dans une configuration encore plus pessimiste et qui rejoint les biais énoncés précédemment, les algorithmes peuvent aller jusqu’à influencer indûment ces choix à travers des algorithmes qui échappent à leurs utilisateurs. C’est ce danger qui alimente le débat autour des moteurs de recherche tels que le « pagerank » de Google qui ordonne les réponses à nos requêtes sur internet : on aimerait savoir sur quels critères ce moteur décide de tels choix !
 
            (À suivre)

 

  1. A. Rouvroy et T. Berns, « Gouvernementalité algorithmique et perspectives d’émancipation », Réseaux, n°177, 2013.
  2. P.-A. Chardel, « Réseaux sociaux : surveillés et consentants », in « Les grands enjeux du monde contemporain », Sciences humaines, Hors-Série, 2017.