Digital Services Act : Plus de régulation des Big Tech en Europe ?

Les projets de lois autour de la protection numérique étant largement dépendants des directives européennes, la France s’appuie sur les propositions de lois de la Commission Européenne afin d’établir son cadre de régulation des entreprises Big Tech. Le 15 décembre 2020, l’Union Européenne propose deux projets de régulation à échelle européenne : le Digital Services Act et le Digital Market Act. Élaborés par Margrethe Vestager Hansen, commissaire européenne à la concurrence, et par Thierry Breton, commissaire européen, chargé de la politique industrielle, du marché intérieur, du numérique, de la défense et de l’espace, le Digital Services Act et le Digital Market Act sont des propositions de textes législatifs visant à encadrer les actions des géants du numérique sur Internet, et deux volets du projet de l’espace numérique européen. Tous deux membres de la commission Von Der Leyen, ils ont, entre autres prérogatives, pour objectif de proposer des directives européennes concernant le monde du numérique.

 

Digital Services Act : qu’est ce que c’est ?

Le Digital Services Act, ou législation sur les services numériques, tend à encadrer les actions des géants technologiques et notamment des GAFA (Google, Apple, Facebook, Amazon) avec un pouvoir de contrôle et de sanction plus important pour les États membres de l’Union Européenne. Se basant sur une régulation en place depuis l’an 2000, l’e-Commerce Directive, ayant donné naissance en France à la loi pour la confiance dans l’économie numérique, le Digital Services Act cherche à moderniser cette dernière et à pallier les manquements liés à l’évolution du secteur. En effet, cette directive sur le commerce électronique a été rédigée bien avant l’avènement de nombreux géants du numérique comme Twitter ou Facebook, et nécessite ainsi une actualisation afin d’être plus en phase avec les problématiques actuelles.

Les enjeux du Digital Services Act concernent ainsi l’encadrement des contenus diffusés en ligne, et notamment des contenus illicites ou incitant à la haine. La désinformation est également visée, avec la montée en puissance des réseaux sociaux, tout en veillant à la liberté d’expression. À l’heure actuelle, les entreprises ont pour obligation de retirer les contenus illicites qui leur sont signalés, ou ils engagent leur responsabilité dans leur maintien en ligne. Il s’agit donc de renforcer les actions de contrôle, et responsabiliser davantage les géants du numérique en les soumettant à de fortes sanctions financières en cas de manquements.

Par la mise en place d’une directive européenne, l’idée est d’uniformiser l’action individuelle des États membres en matière de régulation des Big Tech. Cela permet aussi de limiter les difficultés d’applications géographiques : ce règlement ne dépendra plus du lieu d’établissement de l’entreprise, mais des pays où il exerce son action. L’idée est donc de mettre en avant le « pays de destination » et non plus le « pays d’origine » dans l’application des sanctions.

 

 

Le Digital Services Act : réguler les plateformes et réseaux sociaux

Le Digital Services Act (DSA) doit contribuer à une plus grande transparence de la régulation des contenus sur Internet : le contrôle des contenus diffusés doit à la fois être mieux contrôlé, mais son contrôle doit aussi donner lieu à une explication claire quant à la raison de sa régulation, accessible aisément à tous les utilisateurs. Aussi, à cet effet, les géants du web doivent prévoir des moyens humains renforcés, et mettre en place des procédures spécifiques, permettant d’analyser les contenus dans un délai bref, d’informer les autorités compétentes, de retirer les contenus illicites, haineux, violents, ou racistes des plateformes et réseaux sociaux, tout en mettant en place un point d’accès clair aux informations liées à ce retrait. Doit aussi être mise en place une procédure simplement accessible de contestation de ce retrait.

Le chapitre 2 du Digital Services Act concerne la responsabilité des fournisseurs de services d’intermédiation, ou hébergeurs. En cas de transport, de stockage automatique (« caching ») ou d’hébergement des données illicites d’utilisateurs, le fournisseur ne peut être tenu responsable du contenu de ces données. Si le texte exclut une obligation de contrôle par les hébergeurs des données utilisateurs, ainsi que tout devoir d’enquête interne visant à révéler des activités illicites, il impute à ces fournisseurs un devoir de transmission des informations aux autorités compétentes. Ces fournisseurs devront également mettre en place une série d’intermédiaires permettant à l’utilisateur d’entrer en contact plus facilement à l’échelle locale avec un correspondant : le représentant légal, point d’ancrage obligatoire au sein d’un pays européen pour éviter les difficultés liées à la communication avec des interlocuteurs extra-européens, et les points de contact, correspondants directs avec les autorités.

Les Big Tech auront une obligation de transparence quant à la modération des contenus, et devront clarifier leurs Conditions Générales d’Utilisation (CGU) pour en faciliter l’accès à l’utilisateur moyen. Les plateformes devront aussi mettre en place un système renforcé de signalement des contenus, accessible à tous. La publicité en ligne est également dans le viseur de la Commission Européenne, et devra être présentée comme telle de manière claire.

 

Le Digital Market Act : garantir la concurrence et l’innovation

Le Digital Market Act, ou législation sur les marchés numériques, est l’autre volet du Digital Services Act. Il régule non pas les contenus, mais les activités des très grandes plateformes (TGP) au sein du marché européen. Ces TGP, nommés « gatekeepers » par la Commission Européenne, sont des entreprises présentant plusieurs critères :

  • Leur cœur de business correspond à une plateforme de service permettant à des entreprises commerciales de toucher des utilisateurs, à raison d’environ 45 millions d’utilisateurs actifs chaque mois, correspondant à 10 % de la population de l’Union européenne.
  • Ils ont une présence et un impact économique importants au sein de l’Union Européenne : présent dans au moins trois États membres, avec un chiffre d’affaires sur le territoire européen d’a minima 6,5 milliards d’euros sur les trois dernières années fiscales.

 

Ces TGP devront chaque année évaluer les risques pour l’utilisateur liés à l’utilisation de leur plateforme, notamment les risques liés au contenu illicite, à l’influence sur la vie privée et familiale, et à la protection individuelle liée à la manipulation intentionnelle de leurs services. Elles devront également proposer des axes d’amélioration et de réduction de ces risques, et suivre les recommandations de la Commission quant à ces problématiques.

Dans la même lignée que le DSA, le Digital Market Act (DMA) présente un certain nombre d’obligations liées à la notion de transparence avec une obligation de « reporting » systématique, avec publication des rapports d’évaluation des risques, et la mise en place d’un délégué à la conformité, dont le rôle se rapproche du délégué à la protection des données mis en place dans le cadre des réformes RGPD.

Les sanctions prévues en cas de manquement au Digital Market Act sont de l’ordre de 10% des revenus des TGP, et de 6% dans le Digital Services Act.

 

 

Digital Services Act et Digital Market Act : la France souhaite modifier et renforcer leur contenu

Si le Digital Services Act et le Digital Market Act sont deux textes visant à renforcer l’action de contrôle du numérique de l’Union Européenne, actuellement régulé par des textes de lois dépassés par l’évolution numérique et l’apparition de nouveaux services numériques, la France a pour ambition d’aller plus loin. Elle souhaite notamment prévoir la possibilité pour chaque État membre d’établir une sanction spécifique, et ainsi décentraliser les décisions de justice liées aux GAFA.

Elle désire aussi élargir la notion de contenu problématique afin d’avoir une plus grande marge de régulation sur les contenus diffusés sur les plateformes de réseaux sociaux, et éviter la possible dérive vers une régulation privée arbitraire.

L’Autorité de régulation des communications électroniques, des postes et de la distribution de la presse (Arcep) insiste également sur la notion de régulation ex ante, correspondant à une action préventive de contrôle des contenus, sans avoir besoin du signalement d’une infraction. Google a par ailleurs diffusé un avis contraire, demandant une plus grande transparence sur la responsabilité des plateformes, et de veiller à ne pas limiter l’innovation et les évolutions technologiques avec un cadre liberticide. La Commission Européenne doit encore trouver le juste équilibre entre les requêtes individuelles des États, et celles des entreprises privées.

 

Facebook
Twitter
LinkedIn