Table of Contents

    Que signifie l'AI Act pour les entreprises qui développent des systèmes d'IA ?

    Si vous concevez, élaborez ou faites élaborer vous-même un système d'IA, vous êtes considéré comme un fournisseur par le règlement sur l’intelligence artificielle (AI Act). Cela signifie que vous êtes responsable de la sécurité, de la qualité et de la fiabilité du système avant sa mise sur le marché ou sa mise en service. Cela s'applique aussi bien aux start-up qui développent un nouveau produit d'IA qu'aux entreprises qui adaptent un modèle existant à leur propre application.

    Vous souhaitez en savoir plus sur vos responsabilités en tant que fournisseur ?
    Consultez le guide sur l'AI Act (PDF, 1.14 Mo) pour obtenir un aperçu clair.

    Quand êtes-vous considéré comme fournisseur de système d'IA selon l'AI Act ?

    Vous êtes fournisseur d'un système d'IA lorsque vous

    • développez le système à partir de zéro
    • intégrez un modèle existant dans votre application
    • modifiez considérablement un système existant (au-delà d'une simple configuration)
    • commercialisez le système sous votre propre nom

    Cela s'applique aussi bien aux outils commerciaux qu'aux systèmes que vous utilisez uniquement en interne.

    Comment déterminer si votre système d’IA est à haut risque ?

    L’AI Act établit une distinction claire entre les systèmes à haut risque et les systèmes à faible risque. De nombreuses applications professionnelles entrent dans l'une de ces deux catégories :

    IA à haut risque

    L'AI Act définit les critères sur la base desquels un système d'IA est classé à haut risque. En résumé :

    • l'IA intégrée à des produits soumis à la législation européenne existante en matière de sécurité, tels que les machines ou les dispositifs médicaux
    • l'IA utilisée dans des domaines sensibles tels que l'éducation, l'emploi, le crédit, les soins de santé, l'application de la loi ou la biométrie
       

    IA à faible risque

    • les outils d'assistance à risque limité, tels que l'IA générative ou les chatbots
    • les systèmes qui se contentent de fournir des conseils ou d’accomplir des tâches préparatoires
    • les systèmes où l’humain conserve complètement la prise de décision

    Téléchargez le guide sur l'AI Act « L'AI Act, aussi pour moi ? - Guide pour les entrepreneurs » (PDF, 1.14 Mo) et découvrez comment déterminer correctement le niveau de risque de votre système.

    Quelles sont les obligations des fournisseurs d'IA à haut risque ?

    En tant que fournisseur d'un système d'IA à haut risque, vous devez être en mesure de démontrer que votre système fonctionne de manière sûre, contrôlable et transparente. Vous devez notamment :

    • mettre en place un système complet de gestion des risques
    • utiliser des données d'entraînement représentatives, correctes et à jour
    • rédiger une documentation technique complète
    • prévoir un système d’enregistrement et de traçabilité
    • fournir des instructions claires et des informations transparentes
    • garantir qu'un contrôle humain reste possible à tout moment
    • garantir la précision, la robustesse et la cybersécurité
    • élaborer un système de gestion de la qualité
    • surveiller le système en permanence après sa mise en service

    Quels sont les systèmes qui ne sont pas considérés comme étant à haut risque ?

    Un système d'IA n'est en aucun cas considéré comme un système d'IA à haut risque lorsqu'il

    • se limite au tri ou à la structuration des données
    • fournit des conseils sans remplacer la décision humaine
    • est utilisé à des fins d'optimisation interne (telles que la planification du personnel, la gestion de la documentation)
    • n'a aucune incidence sur les droits, la sécurité ou les opportunités des personnes

    Il reste néanmoins important d’adopter les bonnes pratiques en matière de qualité des données, de documentation et de transparence.

    En tant que fournisseur, quelles mesures devez-vous prendre dès maintenant pour être en conformité ?

    Une approche structurée vous aidera à maîtriser les obligations et risques futurs. Commencez par les mesures suivantes :

    • établissez une liste de tous vos systèmes d'IA développés ou intégrés
    • établissez une classification correcte des risques pour chaque système
    • prévoyez une documentation, une gestion des données et des processus de surveillance
    • élaborez un système de gestion de la qualité et des risques
    • concluez des accords clairs concernant la maintenance, les mises à jour et la surveillance de chaque système

    Vous souhaitez vous assurer que votre processus de développement est conforme à l'AI Act ?
    Téléchargez le guide « L’AI Act, aussi pour moi ? - Guide pour les entrepreneurs » (PDF, 1.14 Mo) et faites en sorte que votre entreprise respecte les règles relatives à l'IA au sein de l'Union européenne.

    Dernière mise à jour
    11 décembre 2025