Table of Contents

    Que signifie l'AI Act pour les entreprises qui utilisent l'IA ?

    Si vous déployez un système d'IA dans le cadre des activités quotidiennes de votre entreprise, le règlement sur l’intelligence artificielle (AI Act) vous considère comme un déployeur. Cela s'applique aux outils simples comme aux outils avancés, qu'il s'agisse d'un logiciel qui traite automatiquement les factures ou d'un département RH qui analyse des candidatures. Dans ces cas, vous êtes responsable de la sécurité et de l’utilisation transparente et correcte de la technologie.

    Téléchargez le guide sur l'AI Act « L'AI Act, aussi pour moi ? - Guide pour les entrepreneurs » (PDF, 1.14 Mo) pour obtenir un aperçu complet de vos obligations.

    L'application que vous utilisez relève-t-elle de l'AI Act ?

    Un outil ou une application relève du champ d'application de l'AI Act dès lors qu'il/elle produit de manière autonome des conclusions, des prévisions ou des recommandations sur la base de données.

    Exemples d'applications généralement couvertes par l'AI Act :

    • les outils d'IA générative tels que ChatGPT ou CoPilot, qui génèrent des textes, des rapports ou des images
    • les chatbots qui répondent automatiquement aux questions des clients
    • les logiciels qui évaluent des CV ou classent des candidats
    • les systèmes qui génèrent des scores de crédit ou de risque

    Comment déterminer le niveau de risque de votre système d'IA ?

    L’AI Act fonctionne avec quatre niveaux de risque. Chaque niveau indique le degré de sensibilité d'une application et détermine les règles précises que vous devez suivre.

    Voici les quatre niveaux de risque :

    • risque inacceptable : applications interdites, telles que la manipulation ou la notation sociale. Il s'agit de systèmes qui évaluent les personnes en fonction de leur comportement ou de leurs caractéristiques, ce qui entraîne des avantages ou des inconvénients injustifiés.
    • haut risque : IA ayant un impact important sur la sécurité, la santé et les droits fondamentaux des personnes, par exemple dans les domaines des ressources humaines, du crédit, de l'éducation ou de la biométrie. Il s'agit par exemple de systèmes qui sélectionnent les candidats à un emploi ou de logiciels qui évaluent la solvabilité.
    • risque limité : obligation de transparence, comme pour les chatbots ou l'IA générative.
    • risque minimal : applications telles que la vérification orthographique ou le tri automatique.

    Consultez le guide de l'AI Act destiné aux entrepreneurs (PDF, 1.14 Mo) et déterminez le niveau de risque de vos applications d'IA.

    Quelles sont vos obligations en tant que déployeur ?

    Vous devez être en mesure de démontrer que votre système d'IA est utilisé de manière sûre et responsable. Concrètement, cela implique :

    • d’informer et de former le personnel
    • d’utiliser des données correctes, pertinentes et à jour
    • de vérifier régulièrement les résultats afin de détecter d'éventuelles erreurs
    • de signaler les incidents et de suspendre l'utilisation si nécessaire
    • de conserver les enregistrements pendant au moins six mois
    • d’informer les employés, les clients ou les candidats lorsque l'IA est utilisée

    Quels sont les systèmes d'IA à haut risque dans votre entreprise ?

    Une application d'IA peut être considérée comme un système d'IA à haut risque dès lors qu'elle soutient des décisions ayant des conséquences directes sur des personnes. Étant donné que les erreurs peuvent avoir un impact considérable dans ce contexte, des règles plus strictes s'appliquent.

    Exemples courants dans les entreprises :

    • IA qui sélectionne des candidats ou évalue des employés
    • systèmes qui évaluent la solvabilité ou l'accès à des services
    • identification biométrique à distance ou analyse des émotions
    • profilage automatique dans les processus administratifs

    Devez-vous faire preuve de transparence quant à l'utilisation de l'IA ?

    Oui. La transparence est obligatoire pour les chatbots, l'IA générative et toute application qui évalue ou catégorise les personnes. Cela permet aux utilisateurs de mieux comprendre comment les informations sont générées et quel est exactement le rôle de l'IA.

    Exemple d'une mention correcte : « Vous discutez avec un assistant IA. Les réponses sont générées automatiquement. »

    Quelles mesures votre entreprise peut-elle prendre dès aujourd'hui pour se conformer aux règles de l'AI Act ?

    L'AI Act n'exige pas d'agir dans l'urgence, mais demande une approche structurée de votre utilisation de l’IA. En quelques étapes simples, votre entreprise peut rapidement obtenir une bonne vue d'ensemble des systèmes que vous utilisez, des risques qui y sont associés et des obligations qui vous incombent. Voici la marche à suivre, étape par étape :

    • dressez un inventaire de toutes vos applications d'IA
    • évaluez le risque selon l’application d'IA
    • déterminez votre rôle (déployeur ou fournisseur)
    • associez les obligations appropriées à votre rôle
    • établissez des règles internes concernant les données, le suivi et la surveillance.

    Vous recherchez des repères pour l'application de l'AI Act dans votre entreprise ?
    Téléchargez le guide « L’AI Act, aussi pour moi ? - Guide pour les entrepreneurs » (PDF, 1.14 Mo) pour obtenir le plan complet en cinq étapes.

    Dernière mise à jour
    11 décembre 2025