top of page

La panne Facebook : Rappel de notre dépendance numérique et centralisme technologique


« Nous avons vu que Facebook était en panne. Je ne connais pas la raison de cette panne, mais je sais que pendant plus de 5 heures, Facebook n’a pas été utilisé pour creuser des fossés, déstabiliser des démocraties et faire en sorte que des jeunes filles et femmes se sentent mal dans leur corps ».


Voici un énième témoignage alarmant soulevant de sérieuses questions autour des pratiques néfastes du géant de la Tech - regroupant Facebook, Instagram, Messenger et WhatsApp - qui impactent nos vies, notre économie et nos démocraties. La lanceuse d’alerte Frances Haugen, ex-ingénieure chez Facebook, a appelé, mardi 5 octobre, le Congrès américain à renforcer la régulation de Facebook, qu’elle accuse notamment de faire passer la maximisation de son profit avant le respect et la préservation de la santé mentale de ses utilisateurs.


Répondant aux questions des sénateurs, la lanceuse d’alerte a dépeint une entreprise dont l'une des priorités est « d'attirer les jeunes utilisateurs » tout en ayant conscience que certains d'entre eux développent une addiction aux réseaux sociaux ou réagissent mal à leurs contenus. De plus, durant son témoignage, Haugen revient plusieurs fois sur l’idée que l’algorithme Facebook incite à la désinformation, aux discours de haine et même aux violences ethniques.


Comment l’algorithme Facebook fonctionne-t-il et comment cela peut-il mener à la désinformation et aux discours de haine ?


Expliqué par un article du MIT Technology review, les algorithmes Facebook, contrairement aux algorithmes traditionnels, sont des algorithmes d'apprentissage automatique. Cet algorithme « entraîné », connu sous le nom de « modèle d'apprentissage automatique », peut alors automatiser les décisions futures de chaque utilisateur.


Exemple : un algorithme formé sur les données de clic sur les annonces, pourrait apprendre que les hommes cliquent plus souvent que les femmes sur les annonces de fast food. Le modèle résultant diffusera alors davantage de ces publicités aux hommes.


De ce fait, en raison de la masse de données d’utilisateurs collectée par Facebook, l’algorithme va pouvoir développer des modèles qui ont appris à déduire l’existence non seulement de simples catégories comme « hommes » et « femmes », mais de catégories très fines comme « hommes ente 18 et 26 ans qui ont aimé les pages Facebook liées aux fast food » et leur proposer des publicités ciblées. Vous l’aurez compris, plus le ciblage est fin, meilleures sont les chances d’un clic, ce qui maximise le profit de l’annonceur.

Les mêmes principes s'appliquent pour le classement du contenu dans le fil d'actualité. Tout comme les algorithmes peuvent être entraînés à prédire qui cliquerait sur quelle annonce, ils peuvent également être entraînés à prédire qui aimerait ou partagerait quelle publication, puis à donner plus d'importance à ces publications.


Exemple : si le modèle déterminait qu'une personne aimait vraiment le sport, les postes d'amis sur le sport apparaîtraient plus haut dans le fil d'actualités de cet utilisateur.


Ainsi, cette sélection de contenu individualisé qui nous est présentée sur le réseau social peut paraître inoffensive, certains diront même qu’elle permet d’offrir un meilleur service à l’utilisateur. Or, cette économie de l’attention et isolation de l’utilisateur peuvent s’avérer dangereuses en ce sens qu’elles contribuent non seulement à accroître son addiction, mais aussi à modeler ses perceptions et formater les esprits. Elle a un impact d’autant plus important sur les jeunes générations et leur santé mentale, faute de recul.


Ce « modèle d'apprentissage automatique » favorise également la controverse, la désinformation et l'extrémisme. Autrement dit, les gens aiment les informations scandaleuses. Cela peut enflammer des tensions politiques existantes. Ce fut le cas du Myanmar par exemple, où des fake news virales et des discours de haine contre la minorité musulmane Rohingya ont transformé le conflit religieux du pays en un génocide. En effet, Facebook a admis en 2018 n’avoir pas pris suffisamment de mesures pour empêcher que la plateforme soit utilisée pour nourrir la division et inciter à la violence physique. C’est également le cas pour la guerre du Tigré qui a éclaté en novembre 2020 en Éthiopie.


L’affaire Cambridge Analytica a, bien avant cela, tiré la sonnette d’alarme s’agissant du phénomène de désinformation sur Facebook qui a un impact conséquent sur nos démocraties.


Un témoignage pouvant être élargi à tous les géants de la Tech (les GAFAM)


Alors que Fances Haugen attire aujourd’hui l’attention sur Facebook, ses propos peuvent en réalité être élargis et généralisés à tous les géants américains de la Tech : Google, Amazon, Apple et Microsoft. Depuis les révélations du site Wikileaks, la valeur « data » est une ressource convoitée et jalousée par les États et entreprises. L’expérience humaine est devenue la matière première des GAFAM, avec une captation de la valeur associée, la fabrique de nos consentements, la maîtrise des infrastructures, la gestion de notre quotidien, de l’espace urbain ou de notre économie. Les GAFAM dans leur ensemble, nous ont en effet habitué à un désistement consenti sur nos données personnelles et leur devenir.


Au-delà, dans un réseau sans frontière, les États se retrouvent eux-mêmes en concurrence, sur des fonctions régaliennes, avec les entreprises de la Sillicon Valley, d’où la nécessité de repenser les frontières et la souveraineté. Se pose ainsi la question de la capacité des États à réguler les impacts de ces usages et d’en maîtriser les compétences.


En effet, un État sans souveraineté est un État menacé dans son existence. La notion de souveraineté en tant que telle, désigne l’autorité suprême, l’indépendance d’un État par rapport à d’autres. La souveraineté numérique, elle, renvoie au pouvoir décisionnaire et au droit à l’autodétermination dans un monde numérique : Qui fixe les règles ? Sur quel fondement et avec quelle légitimité ? A qui obéit-on, et avec quelles garanties ?

De ce fait, être souverain c’est être en capacité d’établir les règles afin de contrôler les impacts qu’ont les usages numériques sur notre quotidien, ainsi que préserver notre liberté de choix. Il s’agit aussi de maîtriser ces compétences numériques, notamment en matière de technologies avancées.


La crise sanitaire a davantage mis en lumière la dépendance absolue de la France et de l’Europe au numérique et donc de facto aux technologies étrangères. Aujourd’hui, la gestion de la data est aussi un sujet de souveraineté, et elle est abandonnée à des acteurs extérieurs dans des pays tiers, ce qui n’est pas une bonne chose, aussi compétents soient-ils. Les entreprises et collectivités françaises et européennes sont alors dépendantes de plateformes contrôlées par des acteurs externes, principalement situés aux États-Unis.


L’exemple souvent cité est celui du Health Data Hub : la base de données de santé des français qui est hébergée par Microsoft, un groupe américain, soumis aux lois américaines telles que la FISA et le CLOUD Act. Une chose est de ne pas pouvoir s’affranchir totalement des GAFAM, une autre est de trouver un encadrement légal qui les contraigne à respecter les valeurs européennes.


Cette panne Facebook pointe encore une fois du doigt notre dépendance numérique et les risques du centralisme technologique. Ainsi, dans un monde numérique aujourd’hui monopolisé par les GAFAM, est remise en question non seulement la souveraineté des États mais aussi la capacité des entreprises européennes à s’en protéger et s’en prévaloir.


Rétablir le périmètre des souverainetés politiques et économiques par le droit et la transparence


« L’époque durant laquelle vous avez envahi notre vie privée, promu des contenus toxiques et utilisé des enfants et des adolescents est révolue. Le Congrès va agir », a notamment tonné le sénateur démocrate Ed Markey.


Lors de son témoignage, Frances Haugen plaide pour plus de transparence quant au fonctionnement des algorithmes, c’est-à-dire, dans les systèmes de ciblage publicitaires et le classement de contenu sur Facebook. Cela rejoint l’idée de neutralité du Web et du Slow Web.


En effet, la neutralité est un principe fondateur, au cœur de l’idée d’un Slow Web, qui permet de garantir la libre circulation, sans discrimination, des contenus sur Internet. Cette neutralité peut avoir des conséquences importantes non seulement en matière économique - libre concurrence et régulation des acteurs dominants du marché - mais également en termes de respect de la vie privée des internautes, de garantie de la liberté d’expression et, de qualité et continuité des services offerts sur Internet. Le Slow Web consiste donc en la liberté de transmission et au principe de transparence au sein de son architecture communicationnelle. Toutefois, alors que le principe de transparence est en vigueur en France et en Europe, les États-Unis et la Chine l’ont abandonné.


Ainsi, l’enjeu aujourd’hui, pour la France et l’Europe, est de rétablir un périmètre de souveraineté politique et économique et ce par le biais de deux moyens :

  • une régulation des géants de la Tech et des impacts qu’ont les usages numériques sur notre quotidien dans l’objectif de protéger les données des citoyens et préserver leur libre-arbitre ;

  • la maîtrise des compétences numériques et l’élaboration de nouveaux projets, publics comme privés, pour sortir de cette situation de centralisme technologique, et assurer la gestion sécurisée des données personnelles.


Les capacités technologiques étant exponentielles, il peut sembler illusoire de vouloir les réguler. Néanmoins, l’Europe peut jouer le rôle d’une réelle puissance de régulation et de normalisation en ce sens. C’est notamment le cas avec le RGPD qui devient peu à peu un standard mondial. En effet, les principes de responsabilité, de transparence et de confiance que défend le RGPD sont repris par de nombreux pays, comme en Californie avec son « California Consumer Privacy Act ». Ou encore, au Japon avec la décision d’adéquation qui introduit des garanties additionnelles dans ses règles de protection des données.


Toutefois, les pratiques anticoncurrentielles des Big Tech montrent que ces entreprises n’hésitent pas à s’appuyer sur leurs positions dominantes pour évincer leurs concurrents, bloquer l’entrée de jeunes firmes innovantes et asseoir ainsi leur hégémonie aux dépens du reste de la société. Ainsi, afin de créer les conditions d’un environnement transparent et propice à l’innovation, une régulation plus poussée est nécessaire. C’est l’objet même des récentes initiatives de l’UE.


En effet, la Commission a publié le 15 décembre 2020, les projets de règlements Digital Services Act (DSA) et Digital Markets Act (DMA), qui doivent permettre la création d’un nouveau cadre de régulation, pour mettre fin à l’irresponsabilité des géants du numérique. L’un des premiers objectifs de cette initiative est bien évidemment de lutter contre la dissémination des contenus préjudiciables mais elle a aussi des objectifs économiques et concurrentiels. En effet, l’UE souhaite garantir que le marché reste ouvert à la concurrence et à l’innovation. Ces règlements ont pour second objectif de mettre fin à l’irresponsabilité des grandes plateformes du numérique. Ainsi, comme l’explique Thierry Breton, le Digital Markets Act instaure un nouveau modèle de régulation qui cible de façon adéquate les plus grands acteurs sur le marché de la concurrence. Tandis que le Digital Services Act vise la mise en responsabilité des plateformes numériques au regard des risques significatifs qu’elles induisent pour leurs utilisateurs dans la diffusion de contenus.


Il me semble important de souligner que ces initiatives de régulation doivent s’accompagner d’un renforcement des moyens et des compétences des autorités administratives, trop souvent dépassées par des pratiques anticoncurrentielles qui défient leurs grilles d’analyse habituelles puisque leur technicité et leur complexité ne font que croître.


A côté de ce pouvoir de normalisation, la France et l’Europe ne peuvent garantir leur pleine souveraineté que si elles justifient d’une maîtrise des compétences numériques. Il ne s’agit pas ici de la création d’un monopole français ou européen mais plus d’un rééquilibrage du marché au regard du retard cumulé de ces acteurs en la matière. L’objectif serait alors de se défaire de notre dépendance aux outils étrangers mais aussi de proposer des alternatives, publiques ou privées, de qualité sur le marché. La puissance de création se traduit alors par divers projets nationaux et communautaires. En témoigne le plan de relance étatique qui consacre un soutien des start-ups et licornes françaises. Mais aussi, la création de l’OVH Cloud qui traduit l’idée de rivaliser et se détacher des géants du cloud américain. Ou encore, le projet franco-allemand GAIA-X dont l’objectif est de construire une infrastructure de données fiable et sécurisée pour l’Europe. L’idée ici est, d’une part, d’innover en termes de services numériques et, d’autre part, de conserver et garantir la souveraineté des données et un principe de confiance dans leur collecte et stockage.


Bien que les États membres de l’UE tentent d’affirmer la souveraineté européenne du Cloud en instaurant une infrastructure de données fiable et sécurisée, on remarque que certaines préoccupations restent inchangées. En effet, des entreprises modernes et des organisations du secteur public restent réticentes à faire confiance aux fournisseurs de cloud. À cause de failles de sécurité très médiatisées, beaucoup d’entreprises hésitent encore à renoncer au contrôle de leurs données. Il faudrait donc repenser toute la chaîne de confiance par des liens fiables tout en garantissant l’intégrité, la confidentialité, la traçabilité et l’archivage de ces mêmes données.


A la lumière de ces éléments, on pourrait dire que les initiatives françaises et européennes vont dans la bonne direction, mais vont-elles à la bonne allure pour répondre à l’urgence du moment ?


 

BIBLIOGRAPHIE


Rapports

- CNIL, Rapport d’activité 2020

https://www.cnil.fr/sites/default/files/atoms/files/cnil_-_41e_rapport_annuel_-_2020.pdf

- CNIL, Protection des données dans le monde

https://www.cnil.fr/fr/la-protection-des-donnees-dans-le-monde


Règlements européens

- Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE (règlement général sur la protection des données). https://eur-lex.europa.eu/legal-content/FR/TXT/ ? uri=CELEX % 3A32016R0679


Sites du gouvernement

https://www.economie.gouv.fr/entreprises/reglement-general-sur-protection-des-donnees-rgpd

https://www.economie.gouv.fr/digital-services-act-et-digital-markets-act


Articles de presse

https://www.technologyreview.com/2021/10/05/1036519/facebook-whistleblower-frances-haugen-algorithms/

https://www.technologyreview.com/2021/03/11/1020600/facebook-responsible-ai-misinformation/

https://www.courrierinternational.com/article/escalade-en-ethiopie-le-pouvoir-veut-remplacer-twitter-et-facebook

https://www.lemonde.fr/afrique/article/2021/09/10/en-ethiopie-la-guerre-au-tigre-n-en-finit-pas-de-s-etendre_6094208_3212.html


BELCADI (G.), "La panne Facebook : Rappel de notre dépendance numérique et centralisme technologique", Doctrin'actu, novembre 2021, n° 179.

Rechercher un article, un dossier, une notion, une jurisprudence, etc...