Aller au contenu principal

« Digital Services Act »: le Pouvoir AVEC des Responsabilités pour les plateformes numériques?

PRÉSENTATION

Le 2 juin, la Commission européenne a officiellement lancé une consultation sur le Digital Services Act, dont l’objectif est de mettre en place une régulation des plateformes numériques.

Vingt ans que le cadre juridique des services numériques est resté inchangé. La dernière réforme d’ampleur date en effet de l’adoption de la directive sur le commerce électronique en 2000. Depuis, d’autres textes sont intervenus, le dernier en date étant le règlement Platform to business qui porte sur les plates-formes d’entreprises  (v. Règlement Platform to business : de nouvelles règles pour les services d’intermédiation en ligne, Actualités du droit, 14 août 2019 ; son entrée en vigueur est prévue en juillet 2020).

Mais l’objectif du Digital Services Act est autre:

il entend mettre à jour le cadre juridique actuel des services numériques, avec deux axes :

  • des règles claires définissant les responsabilités des services numériques pour faire face aux risques encourus par leurs utilisateurs et protéger leurs droits ;
  • encourager une concurrence saine et équitable afin que nouveaux entrants et concurrents existants puissent challenger les plateformes bien installées, au bénéfice des consommateurs qui disposeront ainsi du choix le plus large (une consultation sur les règles de concurrence a également été lancée le 2 juin 2020).

Avec comme finalité, également de réduire la fragmentation réglementaire entre les États membres.

Le champ de la consultation est vaste puisqu’il couvre aussi bien la sécurité en ligne, que la liberté d’expression, l’équité ou encore l’égalité des chances dans l’économie numérique.

Elle est ouverte jusqu’au 8 septembre prochain et devrait permettre d’éclairer les propositions de la Commission concernant le paquet de la loi sur les services numériques, prévu pour être publié à la fin 2020.

Les réponses de l’Arcep à la consultation de la Commission européenne

Le régulateur rappelle que cette initiative comporte deux dimensions : « d’une part les enjeux de responsabilité des plateformes numérique à l’égard des contenus dont elles assurent la publication, d’autre part les problèmes soulevés par le fait que certaines grandes plateformes numériques agissant comme des gatekeepers contrôlent des écosystèmes de plateformes de plus en plus importants ». 

C’est sur ce point que le gendarme des télécoms a répondu : « L’importance croissante que prennent désormais certaines plateformes numériques – les « Big Tech » –, constitue un défi et une menace mis en évidence par de nombreux rapports […] La place prise par ces acteurs et leurs effets sur internet, et même au-delà dans la société, appellent non pas à réguler tout internet, mais à intervenir de manière ciblée sur quelques acteurs structurants bien identifiés pour libérer internet au bénéfice de tous ».

Dans sa lettre, l’Arcep prône donc la mise en place d’une « action coordonnée au niveau européen, prenant la forme d’une régulation ciblée sur ces acteurs structurants […] il ne s’agit pas de sanctionner des dérives mais de recréer un cadre de fonctionnement normal d’internet de façon globale et préventive ».

Deux notes ont été mises en ligne : une avec des éléments de réflexion sur les plateformes numériques structurantes et une autre sur les remèdes aux problèmes qu’elles posent.

L’Institut Montaigne a répondu à la consultation et, dans une série de billets, présente les grands enjeux de la responsabilisation des plateformes, en s’appuyant sur les travaux menés par plusieurs groupes de travail ces dernières années.

Nous vous proposons ici le billet introductif qui présente les difficultés auxquelles les plateformes font face, et les risques induits pour les sociétés européennes.

ARTICLE

Digital Services Act : un grand pouvoir implique de grandes responsabilités

Institut montaigne 8 SEPTEMBRE 2020 Par Arno Amabile INGÉNIEUR DES MINES, Théophile Lenoir RESPONSABLE DU PROGRAMME NUMÉRIQUE, Basile Thodoroff INGÉNIEUR DES MINES

S’il était encore nécessaire de démontrer la centralité des plateformes numériques dans tous les aspects de nos sociétés, le confinement s’en est chargé. Confrontés à la nécessité de la distanciation physique, nous nous sommes connectés à ces plateformes pour travailler, commander nos courses, garder le contact avec nos proches, nous informer sur l’état de l’épidémie et les nouvelles mesures. 

Cette période a constitué un moment d’expérimentation forcé tant pour certaines personnes – qui s’étaient jusque-là tenues bien à l’écart des intermédiaires numériques – que pour certains secteurs – qui semblaient jusque-là imperméables à la numérisation.

Chaque secteur voit en effet apparaître des intermédiaires numériques qui perturbent les acteurs établis, tandis que les mauvais comportements et les acteurs frauduleux d’hier sont désormais présents en ligne. Rien d’étonnant donc à ce que ces intermédiaires soient au cœur de la plupart des enjeux économiques et politiques majeurs : concurrence et petit commerce, mobilité urbaine, désinformation et populisme, biais et discriminations, statut des travailleurs des plateformes…

Le Digital Services Act européen, projet majeur de régulation des plateformes numériques de la nouvelle Commission Von der Leyen, va tenter, d’ici la fin de l’année, de mieux encadrer leurs activités et de créer un nouveau cadre de responsabilité pour assurer la protection des citoyens et utilisateurs européens. 

Cette initiative est à la fois nécessaire et délicate, tant les enjeux sont importants. L’inaction comme l’action mal avisée auraient des coûts importants.

Les enjeux que posent les intermédiaires numériques sont divers

Les difficultés que posent les intermédiaires numériques sont multiples. Elles sont d’abord d’ordre concurrentiel, du fait de la nature même de ces acteurs. Ils mettent en relation acheteurs et producteurs sur de nombreux marchés et acquièrent un pouvoir prépondérant, que ce soit dans le commerce et la logistique (Amazon, Shopify), l’information (Google News, Twitter), le transport (Uber), le tourisme (Booking), le divertissement (Tik Tok, Youtube, Twitch), ou la publicité (Google, Facebook). 

Les effets de réseaux font qu’il n’y a souvent de la place que pour un nombre limité d’intermédiaires. Le gagnant emporte la grande majorité du marché, et fixe ses propres règles.

Les intermédiaires numériques créent aussi de nouvelles catégories qui échappent encore au droit actuel, et donc à ses règles. Les travailleurs des plateformes « à la tâche » (Kaptn, Deliveroo, etc.) par exemple. Ils sont réputés indépendants et ont donc des cotisations sociales et une protection sociale bien inférieure à des salariés. Et pourtant, ces plateformes disposent d’un pouvoir considérable pour amener les chauffeurs ou livreurs à travailler durant une certaine plage horaire ou dans une certaine zone. Comment faut-il encadrer cette relation entre la plateforme et les travailleurs ?

Dans un autre domaine, nous peinons toujours à décider si les réseaux sociaux doivent être assimilés à des éditeurs (un journal, une chaîne de télévision, une radio) et donc être responsables du contenu qui est publié par leurs utilisateurs, ou à de simples hébergeurs. Nous avons connecté tout le monde, y compris ceux dont les intentions sont mauvaises. 

Les contenus qui circulent en ligne ont aujourd’hui des effets problématiques dans notre quotidien individuel (cyberharcèlement, particulièrement chez les jeunes) et collectif (lorsque certains tentent de déstabiliser des élections démocratiques). 

Ces enjeux ont un point commun

Le problème commun est celui de la transparence des systèmes […] Puisque les décisions qu’ils prennent concernant ces contenus touchent des consommateurs, des citoyens ou des travailleurs, elles doivent être soumises à un regard extérieur.

Dans quelle mesure des acteurs comme Facebook et Youtube doivent-ils être tenus pour responsables de la désinformation ou des contenus haineux publiés sur leurs plateformes et recommandés par leurs algorithmes ? Quelles mesures concrètes peuvent-ils mettre en place pour limiter la circulation de contenus dangereux sans pour autant entraver les libertés de communication et économique ?

Au fond, pourquoi tenter d’écrire un texte concernant aussi bien Amazon dans le e-commerce, que Uber dans les transports ou encore que Facebook dans le marché de l’information ? Quel est le dénominateur commun de ces plateformes et des enjeux qu’elles posent ? Comme nous allons le voir dans cette série, ces intermédiaires posent des difficultés d’ordre proprement numérique. Ils génèrent de la donnée précieuse (d’usage, d’achat, de comportement), parfois intime, qu’ils utilisent pour mieux comprendre leurs usagers et influencer les décisions qu’ils prennent (lire un article plutôt qu’un autre, travailler à une heure précise, acheter ce produit, etc.).

 Les intermédiaires numériques et leurs systèmes jouent donc un rôle important dans chacun de ces secteurs.

Le problème commun est celui de la transparence des systèmes qu’ils mettent en place pour recommander des services, des produits ou des contenus d’une part, et pour identifier les services, produits ou contenus illégaux ou dangereux d’autre part. Puisque les décisions qu’ils prennent concernant ces contenus touchent des consommateurs, des citoyens ou des travailleurs, elles doivent être soumises à un regard extérieur. Les autorités publiques, mais aussi la société civile (associations de protection des droits, des individus, des consommateurs, etc.) doivent ainsi pouvoir participer à l’établissement de règles pour encadrer ces systèmes et éviter les dérives. Mais comment ouvrir ces systèmes ? Comment mettre en place des processus de décision, surtout concernant les zones grises telles que les contenus haineux ou la désinformation, qui soient démocratiques et légitimes ? Voici les questions auxquelles la Commission européenne s’attache de répondre dans le cadre du Digital Services Act.

Notons que l’été 2020 aura été un mélange particulièrement concentré de toutes ces difficultés pour les plateformes. Au Royaume-Uni, l’algorithme utilisé pour estimer des notes des A-level, l’examen final des lycéens, a été accusé de favoriser les lycéens d’écoles privées. En Europe et aux États-Unis, la désinformation sur l’épidémie en cours fait courir des risques à l’acceptation par la population d’un futur vaccin, tandis que la popularité de TikTok auprès des jeunes fait craindre une influence chinoise grandissante. Face à toutes ces difficultés, même les patrons de Facebook, Microsoft et Google appellent à une régulation, qu’ils souhaitent bien entendu favorable à leur modèle d’affaire.

L’Institut Montaigne publiera dans les jours qui viennent une série de billets afin de mettre en avant les contributions de plusieurs de ses travaux au débat sur la responsabilité des intermédiaires numériques. Le premier concerne l’enjeu transversal de la supervision des algorithmes et de leurs biais éventuels, en s’appuyant sur le rapport Algorithmes : contrôle des biais S.V.P.. Le deuxième aborde les enjeux liés aux contenus, évoqués dans le rapport Internet : le péril jeune ? et le travail Désinformation : dépasser la modération des contenus. Enfin, le troisième traite des enjeux liés aux travailleurs indépendants sur les plateformes, en reprenant les conclusions du rapport Travailleurs des plateformes: liberté oui, protection aussi.

https://webservices.wkf.fr/editorial/medias/images/actu-86956-digital-services-act.jpg

Votre commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l’aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google

Vous commentez à l’aide de votre compte Google. Déconnexion /  Changer )

Image Twitter

Vous commentez à l’aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l’aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.

%d blogueurs aiment cette page :