Écrit par

Alexis Laporte
2x Cofounder - 1x Board Member - Tech Specialist
Subscribe to newsletter
Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.
L'AI Act représente une révolution réglementaire dans le paysage numérique européen. Ce règlement, adopté par le Parlement européen et le Conseil de l'Union européenne, établit un cadre juridique harmonisé pour l'intelligence artificielle à travers tous les États membres.
Contrairement à une directive qui nécessiterait une transposition dans le droit national, l'AI Act s'applique directement en France comme dans tous les autres états de l'Union Européenne.
Cette approche garantit une uniformité d'application et évite la fragmentation réglementaire qui pourrait entraver l'innovation.
La France n'a pas encore officiellement désigné son autorité nationale compétente (NCA) pour superviser l'application de l'AI Act. Par défaut, la Direction Générale des Entreprises (DGE) assume ce rôle. Cependant, étant donné les implications potentielles sur les données personnelles, la CNIL devrait également jouer un rôle significatif.
Malgré les craintes initiales, l'AI Act a été conçu avec une attention particulière aux besoins des PME (petites et moyennes entreprises) et ETI (entreprises de taille intermédiaires). Si le RGPD (Règlement général sur la protection des données) a parfois été perçu comme disproportionnellement lourd pour les petites structures, l'AI Act a été mis en place pour alléger la charge pour les petites structures.
L'approche est pragmatique et tient compte des réalités économiques des petites entreprises. Six mesures concrètes illustrent cette volonté d'équilibre :
La majorité des obligations incombent aux fournisseurs (développeurs) de systèmes d'IA à haut risque, et vos obligations varient radicalement selon votre rôle. Elles se limitent à des obligations d'informations si vous êtes utilisateur professionnel (déployeur).
En tant que simple utilisateur d'une solution développée par d'autres, vos responsabilités sont allégées, mais il existe des obligations légales malgré tout :
Lorsque vous commandez un système sur mesure, la ligne de démarcation des responsabilités devient plus floue :
Sans clarification contractuelle, vous pourriez être considéré comme co-fournisseur, avec toutes les obligations qui en découlent.
Créer votre propre solution vous place en première ligne face aux exigences réglementaires :
Dans de nombreux cas, un système IA peut-être exempté des obligations de haut risque, mais vous devrez documenter cette analyse.
Quel que soit votre rôle, certaines obligations demeurent invariables :
L'AI Act n'est pas qu'une contrainte. Il s'agit d'une opportunité de bâtir la confiance dans vos solutions. En matière commerciale, cette confiance peut devenir votre meilleur argument de vente.
Selon l'AI Act, un système d'IA est défini comme "un système basé sur une machine qui est conçu pour fonctionner avec différents niveaux d'autonomie et qui peut faire preuve d'adaptabilité après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des données qu'il reçoit, comment générer des résultats tels que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer des environnements physiques ou virtuels."
Cela inclut bien-sûr les agents IA mais aussi la plupart des outils qui utilisent l'IA générative ou l'IA prédictive.
Concrètement, un système d'analyse de CV utilisé par une grande entreprise pour présélectionner des candidats, un chatbot d'assistance client déployé par une ETI pour répondre aux questions fréquentes, ou une application de recommandation personnalisée développée par une startup - tous entrent dans cette catégorie.
Tous les systèmes d'IA, quelle que soit leur classification de risque, sont soumis à des exigences fondamentales de transparence et de littératie (de formation). Concrètement, cela signifie que
Ces obligations s'appliquent à tout les systèmes IA, que vous soyez fournisseur ou déployeur.
L'AI Act interdit clairement certains systèmes d'IA présentant des risques inacceptables pour les droits fondamentaux, indépendamment de leur performance.
Sont prohibés :
Les modèles fondationnels représentent une catégorie spécifique dans l'AI Act. Ce sont des modèles d'IA entraînés sur de vastes données, capables d'accomplir diverses tâches et d'être intégrés dans différentes applications.
Leurs fournisseurs doivent créer une documentation technique détaillée, informer les développeurs en aval, respecter le droit d'auteur, et publier un résumé du contenu d'entraînement. Les modèles open source bénéficient d'allègements, sauf s'ils présentent un risque systémique.
Les modèles entraînés avec une puissance supérieure à 10^25 FLOP (comme GPT-4o, Mistral Large 2, ou Gemini 1.0 Ultra) sont considérés à risque systémique. Ils doivent subir des évaluations supplémentaires, incluant des tests adversariaux, et implémenter des systèmes de suivi et de signalement d'incidents.
La catégorie des systèmes à haut risque constitue le cœur de l'AI Act et mérite une attention particulière. Un système est considéré à haut risque s'il correspond à l'un des deux critères suivants :
L'Annexe III couvre huit domaines sensibles où l'IA présente des risques significatifs :
Prenons un exemple concret :
une ETI développe un système d'IA pour analyser les CV des candidats. Ce système entre dans la catégorie "emploi et gestion des travailleurs" de l'Annexe III et serait donc considéré à haut risque.
De même, une startup qui crée une application d'IA pour évaluer l'éligibilité à des prêts bancaires tomberait dans la catégorie "accès aux services essentiels".
Toutefois, l'AI Act prévoit des exemptions importantes. Un système n'est pas considéré à haut risque, même s'il figure dans l'Annexe III, s'il :
Si un fournisseur estime que son système relevant de l'Annexe III n'est pas à haut risque en raison des exemptions mentionnées, il doit documenter cette évaluation et la soumettre à l'autorité nationale compétente sur demande. Il doit également enregistrer son système dans la base de données de l'UE avant sa mise sur le marché.
Par exemple, un outil d'IA qui aide simplement à formater des CV ou à détecter des fautes d'orthographe ne serait pas considéré à haut risque, même en contexte de recrutement.
Pour un système d'IA médical analysant des radiologies, une exemption pourrait s'appliquer s'il se limite à prétraiter les images et signaler des anomalies, tandis que le diagnostic final reste établi par un médecin qui examine les résultats indépendamment. Ici, l'IA améliore le processus sans remplacer le jugement médical humain.
Cette distinction illustre la différence entre assistant IA et agent IA. Un assistant fournit des informations que l'humain évalue pour décider. Un agent prend des décisions ou agit de façon autonome, avec peu ou sans intervention humaine. Cette nuance est fondamentale dans l'AI Act, car elle détermine le niveau d'obligations applicables au système.
Les obligations pour les systèmes à haut risque sont substantielles et comprennent :
Les systèmes d'IA touchant à des domaines sensibles ou à des données personnelles entraînent généralement des obligations substantielles. Si vous pensez être exempté, la prudence s'impose : documentez soigneusement votre évaluation pour pouvoir la justifier auprès des autorités en cas de contrôle.
Face à l'entrée en vigueur progressive de l'AI Act, les entreprises doivent mettre en place une stratégie structurée pour assurer leur conformité. Voici les actions prioritaires à entreprendre dès maintenant :
La mise en conformité avec l'AI Act représente un investissement stratégique qui, au-delà de l'aspect réglementaire, peut devenir un véritable avantage concurrentiel en renforçant la confiance de vos clients et partenaires dans vos solutions d'IA.
L'AI Act représente un tournant majeur dans la régulation de l'intelligence artificielle en Europe. Plutôt qu'un simple fardeau réglementaire, il constitue un cadre structurant qui renforcera la confiance dans les technologies d'IA et favorisera leur adoption par les utilisateurs et les entreprises.
En définitive, la clé du succès réside dans l'anticipation :
Cette approche proactive vous permettra non seulement d'éviter les sanctions potentielles, mais contribuera également à positionner l'IA européenne comme un modèle d'innovation responsable à l'échelle mondiale.
Pour vous accompagner dans votre démarche de mise en conformité :
REjoignez notre club dédié au corporate venture building