Table of Contents

    Le règlement européen sur l’intelligence artificielle ou « AI Act » (UE 2024/1689) est le premier cadre juridique global relatif à l’IA dans le monde. Formellement adopté le 21 mai 2024, ce règlement horizontal, à savoir qui s’applique de manière transversale à plusieurs secteurs ou domaines d’activités, est entré en vigueur le 1er août 2024. Il sera d’application dans un délai de deux ans à compter de cette date, à l’exception de certaines dispositions qui s’appliqueront plus tôt ou plus tard. 

    Grâce à ce règlement, l’UE entend assumer un rôle de premier plan dans le développement d’une IA sûre, digne de confiance et éthique. L’AI Act poursuit un objectif triple :

    • assurer le développement, la mise sur le marché, la mise en service et l'utilisation de systèmes d'intelligence artificielle dans l'UE dans le respect des valeurs de l'Union ;
    • promouvoir l’adoption d’une IA centrée sur l’humain et qui soit digne de confiance, garantissant la protection de la santé, la sécurité et les droits fondamentaux des citoyens contre les potentiels risques de l’IA ;
    • soutenir l’innovation dans le domaine de l’IA, notamment pour les PME.  

    Ce règlement aura un grand impact sur :

    • les acteurs publics et privés, dans et en-dehors de l’UE, qui mettent sur le marché, mettent en service ou utilisent un système d’IA à une fin ou une utilisation spécifique dans l’Union ;
    • l’utilisation dans l’Union des résultats produits par un système IA (même si son fournisseur ou déployeur est établi dans un pays tiers).

    L’AI Act suit une approche fondée sur le risque : plus le risque d’un système d’IA est élevé, plus les règles applicables sont strictes. Il y a quatre niveaux de risque :

    1. Le risque minimal
    2. Le risque limité ou de transparence
    3. Le risque élevé (haut risque)
    4. Le risque inacceptable

    Pour les trois dernières catégories, l’AI Act introduit des règles et obligations, tandis que les systèmes d’IA à risque minimal ne sont pas soumis à des obligations spécifiques mais peuvent respecter des codes de conduite s’ils le souhaitent. 

    L’AI Act contient également des règles concernant l’« IA générative ».  De plus en plus de modèles d’IA à usage général ou « general purpose AI models » (modèles GPAI) sont intégrés dans des systèmes d’IA. Par exemple, les modèles linguistiques génératifs GPT-4 et LaMDA sont intégrés dans les chatbots ChatGPT et Gemini ; mais d’autres modèles permettent également la génération d’images tels que Dall-E. Ces modèles GPAI peuvent être utilisés pour diverses tâches et peuvent engendrer des « risques systémiques », ainsi que des risques de préjudice à grande échelle provenant des modèles les plus avancés. Le règlement introduit donc certaines obligations de transparence spécifiques pour les fournisseurs de modèles GPAI.

    L’AI Act contient également des mesures importantes de soutien à l’innovation, notamment avec l’introduction de « bacs à sable réglementaires de l’IA » (« AI Regulatory Sandboxes »). Ces bacs à sable réglementaires offrent un environnement contrôlé afin de développer, d’entrainer ou de tester un système d’IA innovant sous surveillance réglementaire et pour une durée limitée. En outre, plusieurs dispositions prennent en compte les intérêts et besoins spécifiques des PME, y compris des start-up.  En parallèle, la Commission a lancé le Pacte sur l’IA. Cela encourage les fournisseurs d'IA à anticiper leur conformité aux principales obligations de l’AI Act, et les soutient dans ce processus. 

    En ce qui concerne la gouvernance et les sanctions, l’AI Act introduit un cadre de gouvernance complexe avec des pouvoirs de mise en œuvre et d’application sur deux niveaux  :

    • au niveau européen, avec la création entre autres du Bureau de l’IA et du Comité de l’IA ;
    • au niveau national, avec la désignation des autorités nationales compétentes.

    En cas de non-respect de l’AI Act, des sanctions sévères peuvent s’appliquer sous forme d’amende pouvant aller jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires mondial. 

    En Belgique, c’est le SPF Economie, P.M.E., Classes moyennes et Energie qui se charge de la coordination générale de la mise en œuvre de l’AI Act. 

    Une foire aux questions (FAQ) est disponible sur le site du SPF Economie pour répondre à vos questions concernant l’intelligence artificielle, l’Artificial Intelligence Act européen, et les applications de ce dernier.

    Dernière mise à jour
    11 mars 2025