Table of Contents
Que signifie l'AI Act pour les développeurs de modèles GPAI ?
Vous développez un modèle d'IA pouvant être utilisé pour différentes tâches simultanément, telles que la génération de texte, la création d'images ou la conversation ? Dans ce cas, votre modèle entre dans la catégorie des IA à usage général (GPAI). Selon le règlement sur l’intelligence artificielle (AI Act), vous êtes alors considéré comme un fournisseur de modèle GPAI, avec des obligations spécifiques en matière de transparence, d'utilisation des données, de sécurité et de documentation.
Ces règles s'appliquent aussi bien aux grandes entreprises technologiques qu'aux petites entreprises qui construisent leurs propres modèles, ou qui entraînent ou affinent des modèles existants.
Vous souhaitez en savoir plus sur vos responsabilités en tant que développeur GPAI ?
Téléchargez le guide sur l'AI Act (PDF, 1.14 Mo) pour obtenir un aperçu clair et complet.
Quand un modèle est-il considéré comme un modèle d'IA à usage général ?
Un modèle est considéré comme un GPAI lorsqu'il
- peut être utilisé pour plusieurs tâches
- n'est pas conçu pour une application spécifique
- peut être réutilisé par d'autres entreprises dans des contextes variés
- sert de base à d'autres systèmes d'IA, tels que des chatbots, des outils d'analyse ou des modèles créatifs
Les modèles GPAI comprennent, par exemple, les modèles de langage tels que GPT-4 et les générateurs d'images tels que DALL·E qui combinent du texte, des images ou du son.
Que faire si votre modèle GPAI présente un risque systémique ?
L’AI Act établit une distinction entre :
- les modèles GPAI sans risque systémique
- les modèles GPAI présentant un risque systémique
Un modèle présente un risque systémique lorsqu'il
- a une très grande échelle (grande puissance de calcul, capacités étendues et données d’entraînement massives)
- peut avoir des conséquences sociales s'il fonctionne mal
- peut entraîner une diffusion à grande échelle de désinformation, de manipulation ou de risques pour la sécurité
Dans la pratique, cela ne concerne pour l'instant que les modèles les plus grands. Cette catégorie ne concerne donc pas (encore) la plupart des entreprises.
Quelles sont les obligations des fournisseurs de modèles GPAI ?
En tant que développeur d'un modèle GPAI, vous devez être en mesure de démontrer que votre modèle fonctionne de manière fiable et vérifiable. Les obligations principales sont les suivantes :
- rédiger une documentation technique claire sur le fonctionnement, les performances et les évaluations
- publier un résumé des données d'entraînement utilisées
- appliquer une politique correcte en matière de droits d'auteur et éviter les ensembles de données illégaux
- tenir à jour les informations sur les limitations, les risques et les contextes d'utilisation
- effectuer des tests de sécurité tels que des contrôles visant à détecter les abus, les distorsions et les comportements inappropriés
- offrir un soutien aux entreprises qui intègrent votre modèle
Vous souhaitez des éclaircissements sur vos obligations en tant que fournisseur de GPAI ?
Consultez le guide sur l'AI Act (PDF, 1.14 Mo) pour obtenir un aperçu clair.
Quelles règles supplémentaires s'appliquent aux modèles GPAI présentant un risque systémique ?
Les modèles les plus importants du marché sont soumis à des exigences supplémentaires, telles que :
- des évaluations de sécurité approfondies avant et après la mise sur le marché
- des mesures visant à limiter les risques d'abus à grande échelle
- une politique de cybersécurité stricte, comprenant entre autres une protection contre l’inversion de modèle et l’extraction de données
- du rapportage aux autorités compétentes
- une surveillance continue du comportement et de l'impact du modèle
Que se passe-t-il si d'autres entités intègrent ou perfectionnent votre modèle ?
Si une autre entreprise utilise votre modèle GPAI, le rôle de fournisseur peut être transféré à cette entreprise. C'est le cas, par exemple, lorsque cette entreprise
- intègre votre modèle dans sa propre application
- affine ou peaufine le modèle
- reconditionne ou réédite le modèle à des fins commerciales
Dans ce cas, l’entreprise devient de fait fournisseur du produit final. Vous restez toutefois responsable de la documentation correcte du modèle, de la transparence et de la clarté des informations relatives aux risques et aux limitations.
Quelles mesures pouvez-vous prendre dès à présent en tant que développeur GPAI ?
Une bonne préparation facilite la mise en conformité avec l'AI Act. Commencez par les mesures suivantes :
- dressez une liste de vos modèles et ensembles de données, en précisant la catégorie appropriée (GPAI avec ou sans risque systémique)
- fournissez une documentation de base et des tests de sécurité sur le fonctionnement, les données, les performances et les scénarios d'abus possibles
- concluez des accords clairs concernant les mises à jour, la surveillance et les conditions de licence pour les intégrateurs
Vous souhaitez vous assurer que le développement de votre modèle GPAI est conforme à l'AI Act ?
Téléchargez le guide « L’AI Act, aussi pour moi ? - Guide pour les entrepreneurs » (PDF, 1.14 Mo) et rendez vos processus conformes aux règles en vigueur.