Table of Contents
Le règlement européen 2022/2065 sur les services numériques, ou Digital Services Act (DSA), vise à créer un environnement juridique sûr et proportionné permettant de mieux lutter contre les contenus illégaux en ligne. Il est entré pleinement en vigueur le 17 février 2024.
Le règlement DSA vient compléter la directive 2000/31 sur le commerce électronique, au regard des risques et défis suscités par la transformation numérique et l’utilisation accrue des services intermédiaires en ligne.
Le règlement repose sur trois piliers :
- le maintien du régime d’exonération conditionnelle de responsabilité applicable aux intermédiaires en ligne
- de nouvelles obligations de diligence raisonnable pour les intermédiaires en ligne
- le renforcement de la mise en œuvre de ces dispositions et de la coopération entre les autorités compétentes.
L’objectif du règlement est d’offrir aux internautes européens une meilleure protection contre les contenus illicites, dangereux et préjudiciables, en encadrant les activités des services intermédiaires en ligne et notamment les grandes plateformes numériques.
Questions fréquemment posées sur le règlement sur les services numériques (règlement DSA)
Le règlement DSA s’applique exclusivement aux prestataires de services intermédiaires, c’est-à-dire des prestataires qui offrent un service intermédiaire permettant aux fournisseurs de contenus de transmettre, stocker et/ou diffuser au public, des informations à la demande de ces utilisateurs. Ces prestataires de services intermédiaires ne fournissent pas eux-mêmes les contenus.
Le règlement DSA concerne un grand nombre de services intermédiaires tels que :
- les fournisseurs d’accès à l’internet
- les services cloud
- les plateformes (telles que les places de marché en ligne, les réseaux sociaux…)
Les nouvelles obligations imposées par le règlement DSA s’appliquent de manière proportionnée et graduelle à tous les intermédiaires ou seulement à certains d’entre eux. Cela dépend de la nature et/ou de la taille de ces intermédiaires.
Ainsi, des obligations spécifiques s’appliquent aux services d’hébergement (par ex. : un « simple » site internet), et en particulier aux plateformes en ligne (par ex. : places de marché en ligne, réseaux sociaux, boutiques d’applications, plateformes de partage de vidéos, de location de logement touristique…).
Des règles plus strictes et ambitieuses s’appliquent encore spécifiquement aux très grandes plateformes et très gros moteurs de recherche en ligne (qui comptent au moins 45 millions d’utilisateurs dans l’UE).
Pour un aperçu de ces nouvelles obligations et leurs destinataires, consultez la page La législation sur les services numériques sur le site de la Commission européenne.
Oui, les nouvelles règles s’appliquent dans le marché unique, sans discrimination, y compris aux prestataires de services intermédiaires établis en dehors de l’UE mais qui proposent leurs services à des utilisateurs dans l’UE. Ces prestataires étrangers doivent désigner un représentant légal dans l’un des 27 États membres.
Les très grandes plateformes ou très grands moteurs de recherche en ligne sont des services qui comptent au moins 45 millions d’utilisateurs en Europe, soit 10 % de la population européenne au moment de l’adoption du règlement DSA.
Ces très grandes plateformes présentent des risques potentiels plus importants parce qu’elles touchent un grand nombre d’utilisateurs. Par conséquent, elles doivent respecter non seulement les obligations applicables à toutes les autres plateformes mais aussi des règles spécifiques plus exigeantes, sous le contrôle de la Commission européenne elle-même.
La Commission européenne est chargée d’identifier les très grandes plateformes et très grands moteurs de recherches en ligne. Vous trouverez la liste des prestataires concernés sur la page Supervision of the designated very large online platforms and search engines under DSA du site web de la Commission européenne.
Le règlement DSA prévoit de nouvelles obligations applicables à tous les prestataires de services intermédiaires en ligne, à savoir :
- prendre des mesures pour renforcer la transparence à l’égard des utilisateurs, en ce qui concerne par exemple, les conditions générales, la publicité, les algorithmes et critères utilisés pour la recommandation de contenus
- donner une justification à l’utilisateur dès qu’une plateforme décide de retirer l’un de ses contenus. Cette décision doit pouvoir être contestée, au choix de l’utilisateur, soit directement auprès de la plateforme, soit via un mécanisme de règlement extrajudiciaire des litiges, soit devant les cours et tribunaux
- protéger les mineurs par la mise en place de mesures appropriées.
De plus, le règlement impose de nouvelles obligations pour les très grandes plateformes et très grands moteurs de recherche en ligne, à savoir :
- réaliser chaque année une évaluation des risques liés à l’utilisation de leurs services et prendre sur cette base des mesures d’atténuation des risques identifiés, notamment contre la désinformation, les violences sexistes en ligne, la manipulation des élections, les préjudices causés aux mineurs en ligne…
- se soumettre à des audits indépendants relatifs au respect de leurs obligations en vertu du DSA
- permettre à des chercheurs d’avoir accès à certaines données afin d’étudier leur fonctionnement et l’évolution des risques en ligne.
Consultez un aperçu de ces nouvelles obligations et de leurs destinataires sur la page La législation sur les services numériques sur le site de la Commission européenne.
Le règlement DSA est un instrument général et transversal, qui impose des obligations aux prestataires de services intermédiaires afin de limiter au mieux la diffusion de tout type de contenus illicites via leurs services. Il n’a pas pour objet de s’appliquer à un contenu spécifique en ligne, et encore moins à qualifier celui-ci d’illégal ou non. Ces questions sont traitées directement dans des textes légaux « sectoriels » plus spécifiques, au niveau national ou européen.
Ainsi par exemple, il appartient aux autorités policières et judiciaires de rechercher les contenus potentiellement terroristes ou pédopornographiques en ligne, de les qualifier comme tels et d’entamer les actions en première ligne auprès des intermédiaires pour faire disparaître ces contenus et entamer les poursuites sur la base de leurs textes sectoriels.
Il en est de même pour :
- l’Inspection économique du SPF Economie, en ce qui concerne les activités non respectueuses des règles de protection des consommateurs, les pratiques déloyales, les produits contrefaits, etc.
- l’Autorité belge de la Concurrence, en ce qui concerne les pratiques en ligne contraires aux règles de concurrence
- les régulateurs médias, en ce qui concerne les services médias audiovisuels (SMA) fournis sur internet qui ne respecteraient pas les règles applicables à ces contenus
- l’Autorité de protection des données, en ce qui concerne les pratiques en ligne contraires au Règlement général sur la protection des données (RGPD)
- l’Agence fédérale des médicaments et des produits de santé, pour ce qui touche aux ventes illégales de médicaments en ligne…
Le règlement DSA prévoit de nouveaux outils qui permettent à l’ensemble des acteurs de l’écosystème en ligne de lutter contre les contenus illégaux en ligne, y compris contre les produits dangereux ou contrefaits.
On peut citer notamment les moyens suivants.
- Les utilisateurs doivent pouvoir signaler aux hébergeurs ou plateformes la présence d’un contenu potentiellement illicite sur leur service. Le prestataire est alors tenu d’examiner ce signalement et d’y donner suite. Lorsque le signalement vient d’un « signaleur de confiance » (désigné comme tel par le coordinateur des services numériques (DSC) ou une autre autorité compétente en raison de son expertise et de sa compétence particulière), celui-ci doit être traité en priorité.
- Si leur droit national le permet, les autorités administratives ou judiciaires peuvent ordonner à tout prestataire opérant dans l’UE, quel que soit son lieu d’établissement, de retirer les contenus illicites en vertu des règles de leur État membre ou des textes européens applicables. Le cas échéant, le DSA impose au prestataire d’informer dans les meilleurs délais l’autorité qui a émis l’injonction de la suite éventuelle donnée à l’injonction, en précisant si et quand une suite a été donnée à l’injonction.
- Les places de marché en ligne doivent pouvoir garantir la traçabilité des vendeurs professionnels qui utilisent leur service. Leur interface en ligne doit également permettre aux professionnels de respecter leurs obligations légales, y compris les obligations d’information envers le consommateur. En outre, les places de marché en ligne doivent s’efforcer, dans la mesure du raisonnable, de vérifier de manière aléatoire, dans les bases de données officielles, si un produit ou service a été signalé comme illégal et prendre les mesures appropriées si nécessaire. Ces obligations visent à dissuader les vendeurs malhonnêtes et permettent de garantir aux consommateurs un environnement en ligne sécurisé, transparent et fiable.
- À la suite d’une évaluation des risques, les très grandes plateformes et très grands moteurs de recherche en ligne doivent prendre des mesures pour atténuer les risques identifiés, notamment pour protéger leurs utilisateurs contre la propagation de contenus, biens et services illicites. Les mesures prises dans ce cadre font également l’objet d’un audit annuel indépendant.
Le règlement DSA entend garantir un équilibre délicat entre la lutte contre les illicéités en ligne et la liberté d’expression, c’est pourquoi il ne va pas jusqu’à imposer aux plateformes la suppression de contenus légaux mais préjudiciables. La définition du contenu préjudiciable peut être très large et ses contours relativement flous et subjectifs. Par conséquent, ce type de contenu ne doit pas être traité de la même façon que les contenus illicites.
Le DSA ne reste toutefois pas muet face à cette problématique. Il impose aux très grandes plateformes et très grands moteurs de recherche en ligne de prendre en compte, lors de leur évaluation annuelle des risques, ceux liés notamment à la désinformation, la manipulation d’informations en période d’élections ou de pandémies par exemple, et les préjudices causés aux mineurs ou à d’autres groupes d’utilisateurs vulnérables. Contre ces risques liés à la diffusion de contenus préjudiciables, les plateformes et moteurs de recherche doivent également prendre des mesures d’atténuation appropriées, tout en veillant au respect de la liberté d’expression.
Enfin, le DSA encourage l’élaboration de codes de conduites, à l’initiative de la Commission et avec la participation des acteurs concernés, chaque fois qu’un préjudice sociétal serait identifié sur plusieurs très grandes plateformes ou très grands moteurs de recherche en ligne.
Le règlement DSA accorde une attention particulière à la protection des droits fondamentaux garantis par la Charte des droits fondamentaux de l’Union européenne, et notamment à la liberté d’expression et d’information. Un équilibre délicat doit être trouvé entre ces libertés et la nécessité de lutter contre les contenus illégaux et/ou préjudiciables en ligne.
Les règles du DSA sont dès lors accompagnées de garanties relatives à la liberté d’expression et au droit à un recours effectif contre les décisions de modération de contenu prises par les plateformes.
Citons les exemples suivants.
- Tout utilisateur doit avoir la possibilité de contester une décision de suppression de l’un de ses contenus, même si celle-ci se fonde sur les conditions générales de la plateforme. Il en va de même si un compte est suspendu ou un contenu est limité d’une autre manière. À ce propos, l’utilisateur peut introduire sa plainte au choix, directement auprès de la plateforme, auprès d’un organisme de règlement extrajudiciaire des litiges ou devant les cours et tribunaux.
- Avant de pouvoir la contester, l’utilisateur doit pouvoir être informé de la décision de modération le concernant. La plateforme est tenue de prévenir l’utilisateur et de lui donner les motifs de sa décision de retirer l’un de ses contenus, de suspendre son compte ou toute autre forme de modération.
- Afin de susciter la confiance entre les plateformes et ses utilisateurs, les prestataires de services doivent faire toute la transparence quant à leurs politiques de modération en les rendant publiques et facilement compréhensibles.
- Les très grandes plateformes et très grands moteurs de recherche en ligne doivent évaluer annuellement l’impact de la fourniture de leurs services sur l’exercice des droits fondamentaux et en particulier sur la liberté d’expression et d’information. Elles doivent également prendre les mesures appropriées afin d’atténuer les risques identifiés. Ces mesures, entre autres, feront l’objet d’un audit annuel indépendant.
Les services intermédiaires tels que les plateformes en ligne ou les réseaux sociaux sont devenus des acteurs incontournables dans la vie quotidienne de nombreux citoyens belges et européens. La transformation numérique et l’utilisation accrue de ces services ont également engendré de nouveaux risques et défis pour leurs utilisateurs. Le règlement DSA vise entre autres à améliorer la sécurité en ligne en permettant aux citoyens d’exprimer leurs idées librement, de communiquer et d’acheter des produits ou services en lignes tout en étant moins exposés aux activités, contenus et produits illégaux, le tout dans le respect des droits fondamentaux.
Les nouvelles règles comportent notamment les avantages suivants :
- des services et produits de meilleure qualité pour les consommateurs
Les places de marché en ligne ont une obligation spécifique d’identifier les vendeurs professionnels qui utilisent leurs services. Les vendeurs malhonnêtes peuvent ainsi être plus facilement repérés et empêchés de proposer aux potentiels acheteurs des produits illégaux, tels que des produits contrefaits et/ou dangereux. - de nouveaux droits pour les utilisateurs
Les plateformes en ligne ont l’obligation de mettre en place un mécanisme permettant à tout utilisateur de lui signaler les contenus illicites sur leur service. Les utilisateurs doivent être informés et connaître les motifs de toute décision de modération prise par la plateforme, relative notamment au retrait d’un de leurs contenus, la suspension ou suppression d’un compte, etc. Les utilisateurs ont ensuite la possibilité de contester cette décision. - plus de transparence en matière de publicité
Les utilisateurs sont mieux informés des publicités qui leur sont proposées sur les plateformes en ligne. La publicité en ligne reposant sur du profilage est désormais interdite envers les mineurs. Les annonces ne peuvent dans tous les cas plus être ciblées sur la base de certaines catégories de données sensibles telles que les opinions politiques, l’orientation sexuelle ou l’appartenance ethnique. - une protection spécifique pour les mineurs
Outre l’interdiction de la publicité ciblée à leur égard, le DSA oblige les plateformes en ligne accessibles aux mineurs à mettre en place des mesures appropriées garantissant un niveau élevé de protection de la vie privée, de sûreté et de sécurité aux jeunes utilisateurs de leurs services. - plus de responsabilités pour les très grands acteurs en ligne
Au vu de leur rôle dans la facilitation du débat public, les transactions économiques et la diffusion d’informations, les très grandes plateformes et les très grands moteurs de recherche en ligne doivent respecter des obligations spécifiques et supplémentaires. Celles-ci ont notamment pour conséquence concrète que les utilisateurs peuvent choisir de modifier les critères utilisés par la plateforme pour leur recommander du contenu. En outre, ces plateformes doivent se soumettre à un audit indépendant et aux demandes d’accès à certaines données de la part de chercheurs afin qu’ils puissent étudier leur fonctionnement et l’évolution des risques en ligne. Le résultat de ces rapports d’audit et les études réalisées par les chercheurs seront accessibles aux utilisateurs de ces services et leur donneront une nouvelle source d’information concernant leurs activités.
Le règlement DSA complète et harmonise pleinement les règles applicables aux services intermédiaires dans le marché intérieur. Les prestataires de services d’hébergement, les plateformes, places de marché en ligne, etc. sont donc désormais soumis à un cadre unique de règles identiques à travers toutes l’Europe.
Ceci est particulièrement bénéfique pour les plus petites entreprises. Jusqu’à présent, elles étaient désavantagées par des coûts élevés liés à la fragmentation et à leur mise en conformité à la législation concernant les prestataires de services intermédiaires, qui différait parfois grandement d’un État membre à l’autre. Grâce à l’harmonisation de ces règles, les PME et start-ups innovantes peuvent se déployer plus facilement au sein de l’UE.
Afin de leur éviter des contraintes disproportionnées, les petites et micro-entreprises sont en outre exemptées d’une grande partie des règles du DSA.
Enfin, les entreprises qui sont actives en ligne tirent également un bénéfice des règles imposées par le DSA aux prestataires de services intermédiaires. Elles peuvent par exemple leur notifier des contenus illégaux (par ex. : un produit contrefait) qui nuisent à leurs activités. Elles ont également accès aux mécanismes de recours leur permettant de contester la suppression erronée d’un contenu légitime.
Au vu de leur importance et des risques potentiels qu’ils représentent, les très grandes plateformes et les très grand moteurs de recherche en ligne doivent respecter les nouvelles règles de manière anticipée depuis le 25 août 2023.
Le règlement DSA s’applique au reste des prestataires de services intermédiaires depuis le 17 février 2024, date à laquelle le règlement est entré pleinement en vigueur.
La Commission européenne est le principal régulateur des très grandes plateformes et des très grands moteurs de recherche en ligne (qui comptent au moins 45 millions d'utilisateurs). Les autres prestataires de services intermédiaires sont placés sous la surveillance des autorités compétentes désignées par les États membres dans lequel ils sont établis.
Si plusieurs autorités compétentes sont désignées dans un même État membre, l’une d’entre elles doit être nommée coordinateur des services numériques (« Digital Services Coordinator » ou DSC). Le DSC est le point de contact unique pour chaque État membre. Il est chargé d’assurer au niveau national une coordination efficace et cohérente de la supervision et de la surveillance du règlement.
Chaque État membre désigne un coordinateur des services numériques (« Digital Services Coordinator » ou DSC), le cas échéant, parmi les autorités compétentes désignées pour la surveillance et l’application du règlement DSA. En plus de ses missions en tant qu’autorité compétente, ce DSC est responsable de la coordination entre les autorités compétentes désignées par cet état membre. Il contribue ainsi à une surveillance et à une exécution efficace et cohérente du règlement DSA dans ce pays.
En Belgique, quatre autorités compétentes ont été désignées :
- l’Institut belge des services postaux et des télécommunications (IBPT) : il est compétent pour les cas d’application du DSA touchant aux compétences fédérales
- les régulateurs médias des trois communautés, chaque régulateur étant compétent pour les cas d’application du DSA touchant aux compétences communautaires :
- le Conseil Supérieur de l’Audiovisuel (CSA)
- le Vlaamse Regulator voor Media (VRM)
- le Medienrat.
L’IBPT a été choisi pour assumer le rôle de coordinateur des services numériques (DSC) pour la Belgique. Un accord de coopération entre l’État fédéral et les trois communautés règle la collaboration entre le DSC et les autres autorités compétentes dans le cadre de l’application du règlement DSA. Cet accord prévoit entre autres les modalités de coopération et d’échange d’informations entre autorités compétentes ainsi que la représentation et l’élaboration du point de vue de la Belgique au Comité européen des services numériques, groupe consultatif indépendant composé des DSC des 27 États membres.
Les plaintes concernant un manquement à une obligation du règlement DSA doivent être adressées à l’Institut belge des services postaux et des télécommunications (IBPT).