Laurent Ledoux's blog

Depuis quelques temps, les big data et leur exploitation font couler beaucoup d’encre. On ne compte lu les articles et les livres publiés à leur sujet. Certains prédisent un avenir sombre. J’en veux pour preuve le dernier livre de Bernard Stiegler « Dans la disruption [numérique], comment ne pas devenir fou ? ». La Commission Européenne n’est pas en reste : ce 29 septembre 2016 y a été organisée une conférence importante : « Big data: individual rights and smart enforcement ».

Avec les big data, un nouvel objet semble en effet avoir fait son entrée dans nos vies : les algorithmes. Pourtant ils existent depuis toujours : un algorithme n’est rien d’autre qu’une série d’instructions permettant d’obtenir un résultat. Une recette de cuisine, c’est un algorithme. Ce qui est nouveau, c’est l’application d’algorithme à de gigantesques masses de données, les big data. Dans ces conditions, les algorithmes, qui permettent de hiérarchiser les informations que consomment des milliards de personnes chaque jour, comme le PageRank de Google ou l’EdgeRank de Facebook, sont des « machines morales »: chacun enferme un principe de classement particulier, un système de valeurs, une vision particulière du monde.
C’est pourquoi PhiloMa a décidé de consacrer son nouveau cycle de séminaires aux algorithmes, à leurs impacts dans nos vies privées et professionnelles, dans la gestion des entreprises et aux rôles que les entreprises privées, les administrations publiques et la société civile peuvent jouer pour les « gérer » au mieux.
Pour introduire le sujet, nous avons choisi de partir d’un livre, aussi court qu’excellent : « A quoi rêvent les algorithmes ? » du sociologue Dominique Cardon. Nous en proposons ici une brève synthèse, mettant en exergue quelquesunes des principales thématiques que nous aborderons tout au long de l’année.

4 VISIONS DU MONDE
Un des apports intéressants du livre de Cardon est sa catégorisation des algorithmes destinés à classer l’information numérique en quatre grandes familles qui se distinguent par des « visions du monde » particulières :
• La première famille, dont le principe fondamental est la popularité, est celle qui utilise des mesures du nombre de clics (du type Google Analytics) pour ordonner la hiérarchie de présentation des sites web. La vision du monde sous-jacente s’apparente à celle du vote démocratique : gagne celui qui est le plus populaire ;
• La seconde famille, dont le principe fondamental est l’autorité, hiérarchise les sites au moyen des liens hypertextes qui sont échangés entre les sites (tels le PageRank de Google). La vision du monde sous-jacente est méritocratique : il convient d’isoler les excellents des médiocres à partir du jugement des autres acteurs ;
• La troisième famille, dont le principe fondamental est la réputation, hiérarchise les sites en fonction des mesures de benchmark qui se sont développées avec les réseaux sociaux et les sites de notations (tels les likes, le nombre d’amis de Facebook ou les retweet de Twitter). La vision du monde sous-jacente est déclarative et affinitaire : la hiérarchisation des sites ou de l’information qui m’est présentée dépend de ce que je déclare aimer ;
• La dernière famille d’algorithmes, dont le principe fondamental la prédiction, se base sur les comportements individuels implicites (traces laissées à l’occasion d’un achat, d’une visite sur un site, de la publication d’une recommandation sur Amazon,…) et, grâce à des méthodes statistiques d’apprentissage, personnalise les informations présentées à l’utilisateur. La vision du monde sous-jacente est radicalement comportementaliste : ce que l’on fera demain sera, en toute probabilité, similaire à ce que nous avons fait hier, ou à ce qu’on fait des personnes qui ont un profil similaire aux nôtres.
En ouvrant la boîte noire des algorithmes au travers de sa catégorisation, Cardon nous aide à mieux comprendre comme les sociétés privées, qui produisent ces algorithmes, font pour nous, de façon implicite, des choix qui sont discutables et qui doivent être discutés parce qu’ils proposent et favorisent des visions différentes de la société. Il convient donc, selon Cardon, de politiserles algorithmes, c’està-dire de discuter explicitement les visions du monde qu’elles impliquent, pour que nous décidions, en connaissance de cause, quel monde nous voulons.
Ayant distingué ces quatre familles d’algorithmes, Cardon argumente dans la seconde partie de son livre les conséquences possibles de leur emprise grandissante dans nos vies, et les dangers et les opportunités qu’ils portent avec eux. Il esquisse également ce que nous pouvons entreprendre pour les gouverner plutôt que, comme nous allons le voir, de nous laisser subrepticement gouverner par eux.
Bien que Cardon ne l’écrive pas de manière explicite, il m’est apparu, après plusieurs (re)lectures, que son livre montre comment les algorithmes mettent potentiellement à mal les trois grandes valeurs qui, même en dehors de la France, constituent le socle de la plupart des démocraties occidentales : « Liberté, égalité, fraternité ». Dans ce qui suit, je regroupe donc et esquisse brièvement ce qui je perçois être les principaux arguments de Cardon relatifs à l’impact potentiel des algorithmes sur ces trois valeurs.

LIBERTÉ
Les problématiques éthiques concernant les big data et les algorithmes sont encore trop souvent réduite à la protection de la vie privée, aux questions relatives à l’usage, explicitement consentis ou non, de données concernant la vie privée des internautes. Les questions que posent internet quant à nos libertés sont beaucoup plus vastes et subtiles, voire carrément paradoxales.
Pour le comprendre, il faut se rappeler qu’internet est un projet d’inspiration libertaire à la base : il s’agit de donner à la représentation de la société une forme plus conforme à la libre auto-organisation des individus et de soutenir les processus d’individualisation au sein de nos sociétés. Les prophètes zélés américains des big data promeuvent donc cette idée qu’en calculant bien, avec les bonnes données, le gouvernement serait moins injuste, moins paternaliste, moins déformant que ne le sont les institutions ou les médias, parce qu’ils auraient compris la société depuis les actions des individus. C’est évidemment là un mythe qu’il faut déconstruire, selon Cardon.
En effet, les algorithmes, tels que développés par exemple par Google, reposent sur une ambivalence forte : ils ne sont pertinents et efficaces que si les internautes sont libres. Plus internet est libre, plus on produit des liens, du contenu, des échanges, et plus les algorithmes fonctionnent bien. Le problème ou le paradoxe est que l’efficacité du modèle publicitaire de Google dépend lui-même de l’efficacité de son algorithme : fondamentalement, Google gagne d’autant plus d’argent que son algorithme permet d’influencer les internautes à acheter, tout en les rendant le plus « libre » possible d’agir et de naviguer sur Internet. D’un même élan, Google nous émancipe et nous contrôle donc, ayant acquis un pouvoir très excessif sur l’Internet.
Il faut également noter que le contrôle croissant qu’exercent les algorithmes est très « doux »: les algorithmes des big data cherchent à guider sans contraindre, à orienter sans obliger. Ils constituent un exemple typique de « nudges », ces outils du « paternalisme libertaire » qui, par défaut, suppléent les choix des individus en les persuadant qu’ils agissent au mieux de leurs intérêts. Amazon nous suggère ainsi d’acheter certains livres ; ils ne nous les imposent pas. Mais, en reconduisant les individus vers leurs comportements passés (les livres suggérés le sont sur base de leurs achats passés, corrélés avec d’autres traces laissées sans le savoir par les internautes), le calcul algorithmique d’Amazon exerce, à leur insu, une certaine domination, les induisant potentiellement à une reproduction d’eux-mêmes.
C’est ce qui fait dire à certains philosophes, tels Thomas Berns et Antoinette Rouvroy, que les algorithmes favorisent certes les processus d’individualisation, mais pas les processus d’individuation, chers à Carl-Gustav Jung. En d’autres termes, les algorithmes qui permettent la personnalisation des profils ou le marketing plus ciblé grâce aux big data, n’enferment plus, il est vrai, les individus dans des classes sociologiques mais aident-ils pour autant les internautes à s’individuer, c’està-dire à s’autodéterminer, à devenir un sujet plus actif et réflexif, conscient de sa vie, en un mot plus « libre » ? Cardon pose ainsi une question fondamentale et troublante : « Est-ce que les algorithmes ‘marchent’ parce que les individus sont réguliers ou les prescriptions des algorithmes les rendent-ils réguliers ? »

EGALITÉ
Ce qui précède permet de comprendre que, tout en permettant aux individus de se sentir de plus en plus libres de leurs choix, les algorithmes donnent à la société les moyens de reproduire d’elle-même les inégalités et les hiérarchies qui l’habitent.
En effet, 95% de l’audience du Web est centrée sur 0,03% des contenus disponibles, selon Cardon. Ainsi, le monde vu par Google est un univers méritocratique qui confère une visibilité disproportionnée aux sites web les plus connus. Dans ce contexte, alors que les hiérarchies locales, thématiques et contextuelles permettaient de maintenir un monde composite et de brider la concurrence pour les talents, l’unification des marchés du jugement promue par les algorithmes contribue à donner aux « meilleurs » une visibilité surnuméraire et exacerbe les inégalités. « Dans ce grand écart, nos sociétés sont en train d’oublier la moyenne », souligne Cardon.
De façon plus poignante encore, les techniques de dynamic pricingpar exemple, proposent de différencier les tarifs en fonction des profils, et l’on soupçonne certains services de pénaliser leurs clients les plus fidèles, sans alternatives ou pressés par le temps, en leur proposant des prix élevés. Ainsi, tous ceux qui sont mal notés dans les bases de données, sans revenu, sans potentiel, endettés ou ayant un historique négatif, disparaissent du jeu des opportunités : ils n’accéderont pas à un bon taux de crédit, ne bénéficieront pas de coupons de réduction, ne recevront pas les informations, etc.
De façon très conservatrice, le calcul algorithmique reconduit l’ordre social en ajoutant ses propres verdicts aux inégalités et aux discriminations de la société : les mal notés seront mal servis et leur note deviendra plus mauvaise encore.

FRATERNITÉ
Dans les valeurs de nos démocraties actuelles, la fraternité est supposée pouvoir faire tenir ensemble les valeurs de liberté et d’égalité, qui peuvent s’opposer. L’idéal de fraternité consiste à voir chaque citoyen en frère ou sœur. Or, les mesures de réputation, telles que celles développées par Facebook, tendent à placer l’utilisateur dans une « bulle » : selon ses affinités, l’algorithme ferme la fenêtre sur le monde en réduisant son paysage aux choix de ses « amis ».
S’il est clair que ce sont les utilisateurs qui, à travers les liens sur lesquels ils choisissent de cliquer, referment ou pas la bulle sur euxmêmes, il est également clair que le guidage algorithmique en renforce les effets dans une spirale qui peut être parfois positive mais qui semble être le plus souvent négative, en particulier pour les plus démunis culturellement ou socialement. Ainsi, si vous avez par exemple des goûts culturels variés, si vous écoutez par exemple à la fois John Cage, Beyoncé et la musique éthiopienne, l’algorithme de Deezer vous aidera à explorer de nouveaux univers musicaux. Si, en revanche, vous n’écoutez que Beyoncé, l’algorithme ne vous recommandera plus que les titres les plus mainstreamde la musique R’n’B. Il en va de même pour les opinions politiques, les convictions idéologiques. Les algorithmes peuvent donc, si nous n’y prenons garde, nous emprisonner dans notre conformisme et réduire notre capacité à connaitre et comprendre les autres, et, ce faisant, à déliter la force de la valeur de fraternité.

CODES D’ÉTHIQUE
On le voit donc au travers de cette brève synthèse du livre de Cardon : tout en facilitant nos vies, les algorithmes peuvent mettre à mal les valeurs fondamentales sur lesquelles reposent nos démocraties. Il est donc urgent de réfléchir à la façon dont, non seulement les états et la société civile, mais également les entreprises, doivent s’organiser pour répondre aux défis que les algorithmes et le big data représentent et favoriser une critique vigilante à leur égard. Cela passera probablement par l’ajout d’un nouveau chapitre dans les codes d’éthiques ou de responsabilité sociétale des entreprises, chapitre qui doit encore être pensé. C’est à cette réflexion que le nouveau cycle de séminaires de PhiloMa.org, dont les comptes rendus seront publiés dans Peoplesphère, vous invite cette année.

Tweet about this on TwitterShare on Facebook0Share on Google+0Share on LinkedIn0
Author :
Print

Comments

Leave a Reply