Votre entreprise
doit être conforme
à l'EU AI Act
Le cadre réglementaire européen sur l'IA est entré en vigueur le 1er août 2024. Les obligations s'appliquent progressivement — application complète fixée au 2 août 2026. SOTELI accompagne les entreprises françaises dans leur mise en conformité.
L'EU AI Act :
où en est-on ?
Le Règlement Européen sur l'IA (UE 2024/1689), entré en vigueur le 1er août 2024, est le premier cadre légal mondial dédié à l'intelligence artificielle. Il classe les systèmes IA selon leur niveau de risque et impose des obligations proportionnées.
Ce règlement s'applique à toute entreprise qui développe, déploie ou utilise des systèmes IA sur le territoire de l'Union Européenne — y compris les entreprises étrangères dont les systèmes affectent des utilisateurs en Europe.
-
1er août 2024Entrée en vigueurPublication au JOUE — règlement juridiquement contraignant
-
Février 2025Interdictions + Littératie IAInterdiction des IA à risque inacceptable + obligation de formation IA des employés (Art. 4)
-
Août 2025 — EN COURSModèles GPAI + GouvernanceRègles pour les IA à usage général (GPT, Gemini, Claude…) + mise en place des autorités nationales de surveillance
-
2 août 2026 — DEADLINEApplication complète + Enforcement totalSystèmes IA haut risque, règles de transparence (Art. 50), marquage CE, documentation technique obligatoire
L'EU AI Act classe les systèmes d'IA selon leur niveau de risque et impose des règles proportionnées pour garantir une IA fiable, éthique et respectueuse des droits en Europe.
| Risque | Exemples | Obligations |
|---|---|---|
🚫Inacceptable |
Notation sociale, manipulation cognitive, reconnaissance faciale de masse | Strictement interdit |
⚠️Élevé |
Recrutement IA, scoring crédit, justice, santé, sécurité | Conformité renforcée : gestion des biais, audit, marquage CE |
💬Limité |
Chatbots, assistants virtuels, deepfakes, contenu généré | Obligation de transparence (Art. 50) |
✅Minimal |
Filtres anti-spam, recommandations, IA dans les jeux | Pas de contraintes spécifiques |
GPT-4, Claude, Gemini, Mistral… sont réglementés. Les fournisseurs doivent publier leur documentation technique, respecter le droit d'auteur et se soumettre à des évaluations de risques systémiques.
Votre entreprise
est-elle concernée ?
Toute organisation qui développe, déploie ou utilise un système IA en Europe est potentiellement soumise à l'EU AI Act — y compris les PME et ETI qui utilisent des SaaS intégrant de l'IA.
RH & Recrutement
L'IA dans vos processus RH est classifiée haut risque
- Tri automatique de CVs
- Scoring de candidatures
- Analyse d'entretiens par IA
- Prédiction de turnover
Service Client & Chatbots
Les agents IA sont soumis à l'obligation de transparence
- Chatbots conversationnels
- Assistants virtuels
- Qualification automatique
- Voicebots téléphoniques
Finance & Crédit
Scoring crédit et détection de fraude : haut risque
- Scoring crédit automatisé
- Détection d'anomalies
- Trading algorithmique
- Évaluation de solvabilité
Marketing & Communication
Ciblage comportemental et contenus générés : transparence obligatoire
- Ciblage publicitaire IA
- Génération de contenu IA
- Personnalisation des offres
- Analyse de sentiment
Juridique & Conformité
Analyse de contrats et aide à la décision : documentation requise
- Analyse automatique de contrats
- Veille réglementaire IA
- Détection de risques juridiques
- Aide à la décision
Vous n'êtes pas sûr ?
En 30 minutes, SOTELI établit un diagnostic gratuit de vos usages IA et identifie les risques de non-conformité.
Diagnostic gratuitCe qui change
au 2 août 2026
Pour les systèmes IA haut risque, les entreprises doivent satisfaire à un ensemble d'obligations strictes sous peine de sanctions sévères.
Gestion des données
- Jeux de données d'entraînement documentés et auditables
- Évaluation des biais algorithmiques
- Traçabilité complète des données utilisées
- Conformité croisée avec le RGPD
Documentation technique
- Dossier technique complet du système IA
- Registre des événements (logs) obligatoire
- Documentation de conformité mise à jour
- Notice d'utilisation et instructions claires
Transparence (Art. 50)
- Information obligatoire des utilisateurs sur l'IA
- Identification des contenus générés (deepfakes, textes)
- Chatbots : déclaration de la nature IA
- Traçabilité des décisions automatisées
Supervision humaine
- Mécanismes de contrôle humain effectifs
- Possibilité d'intervention, correction, suspension
- Formation obligatoire des opérateurs IA
- Désignation d'un responsable conformité IA
Sanctions prévues
Les amendes s'appliquent par violation constatée — plusieurs manquements simultanés multiplient les risques financiers.
Résumé des nouvelles obligations au 2 août 2026
Notre approche
en 4 étapes
De l'inventaire de vos systèmes IA à la documentation technique finale, SOTELI vous guide vers une conformité EU AI Act complète, pragmatique et durable.
Audit & Inventaire
Cartographie exhaustive de tous vos systèmes IA, outils SaaS et automatisations. Identification des données traitées et des décisions automatisées.
Classification des risques
Application de la grille EU AI Act : classification de chaque système selon les 4 niveaux de risque. Gap analysis réglementaire détaillée.
Plan de remédiation
Définition des actions correctives priorisées, rédaction de la documentation technique obligatoire, mise en place des processus de gouvernance IA.
Formation & Gouvernance
Formation des équipes à la littératie IA (Art. 4, obligation depuis fév. 2025), désignation du responsable conformité IA, mise en place du registre de surveillance.
Livrables inclus
Documents directement exploitables par votre équipe juridique et vos auditeurs.
Rapport d'audit complet
Document de 20–30 pages synthétisant l'ensemble de vos usages IA et leur niveau de conformité.
- Inventaire des systèmes IA
- Matrice de classification des risques
- Gap analysis réglementaire
- Score de conformité global
Feuille de route 2025–2026
Plan d'action opérationnel et priorisé pour atteindre la conformité complète avant la deadline.
- Actions classées par priorité
- Responsables et délais définis
- Budget estimatif
- KPIs de suivi
Documentation technique
Templates et documentation pré-remplie conforme aux exigences de l'EU AI Act pour vos systèmes haut risque.
- Dossier technique (Annex IV)
- Notice d'utilisation
- Registre de conformité
- Politique de gouvernance IA
Évaluez votre exposition
en 5 minutes chrono
10 questions, scoring instantané, recommandations personnalisées — sans inscription, sans engagement.
Anonyme · Résultats immédiats · Aucune donnée transmise sans votre accord
Ne prenez pas le risque
d'une amende à 35 M€
Plus vous attendez, plus la mise en conformité sera complexe et coûteuse.
Nos experts SOTELI sont disponibles pour un premier échange gratuit sous 24h.
Entretien de 45 min — Sans engagement — Réponse sous 24h ouvrées
Tout ce que vous devez
savoir sur l'EU AI Act
Réponses claires aux questions les plus posées par les DSI, DPO, DRH et dirigeants — basées sur l'analyse complète du Règlement (UE) 2024/1689.
L'EU AI Act (Règlement UE 2024/1689) est le premier cadre juridique mondial contraignant sur l'intelligence artificielle, publié au Journal Officiel de l'UE le 12 juillet 2024 et entré en vigueur le 1er août 2024. Il s'applique à toute organisation qui développe, met sur le marché, déploie ou utilise des systèmes IA dans l'UE — y compris les entreprises hors UE ciblant le marché européen.
Il classe les systèmes IA selon 4 niveaux de risque et impose des obligations proportionnées :
- 🚫 Niveau 1 — Interdit (Art. 5) : manipulation comportementale, social scoring, biométrie en temps réel dans l'espace public
- 🔴 Niveau 2 — Haut risque (Annexe III) : recrutement, crédit, santé, éducation, répression, justice → obligations documentaires lourdes
- 🟡 Niveau 3 — Risque limité (Art. 50-52) : chatbots, deepfakes → obligations de transparence (indiquer qu'on interagit avec une IA)
- 🟢 Niveau 4 — Risque minimal : pas d'obligation légale spécifique, codes de conduite volontaires
Il s'articule avec le RGPD, le DSA et le CRA, créant un empilement réglementaire numérique que SOTELI intègre dans ses audits.
Oui, absolument. L'EU AI Act s'applique aux déployeurs — les entreprises qui utilisent des systèmes IA développés par des tiers. Si vous utilisez Salesforce, SAP, Workday, un ATS avec scoring automatique, ou tout outil SaaS intégrant de l'IA pour influencer des décisions impactant des personnes, vous avez des obligations de conformité.
En tant que déployeur (Art. 26), vous êtes notamment tenu de :
- Utiliser les systèmes IA selon les instructions du fournisseur
- Assurer la surveillance humaine effective des systèmes
- Signaler les incidents graves aux autorités compétentes
- Auditer vos fournisseurs SaaS pour vérifier leur conformité
La lacune la plus fréquente : 95 % des DRH ignorent que leur ATS intègre de l'IA classifiée haut risque. Une cartographie de vos usages est la première étape indispensable.
Les deux réglementations sont complémentaires et distinctes :
- Régit les données personnelles
- En vigueur depuis 2018
- Géré par la CNIL / DPO
- Amende : 4% CA mondial
- Régit les systèmes IA
- En vigueur depuis 2024
- Géré par l'AI Officer / DPO formé
- Amende : 7% CA mondial
Attention : la conformité RGPD ne garantit pas la conformité AI Act. Un système IA traitant des données personnelles doit satisfaire les deux réglementations simultanément. SOTELI intègre cette double dimension dans tous ses audits.
L'EU AI Act s'applique progressivement par vagues :
Depuis février 2025, l'article 4 impose aux entreprises de garantir que leurs collaborateurs utilisant ou supervisant des systèmes IA disposent d'un niveau suffisant de compétences IA ("AI literacy"). Cela inclut la compréhension du fonctionnement des outils, de leurs limites, de leurs biais potentiels et des règles de supervision humaine.
Cette obligation s'applique dès maintenant à tous les collaborateurs exposés à l'IA, quelle que soit la taille de l'entreprise. SOTELI propose des formations adaptées par métier : DPO, DSI, DRH, managers, commerciaux.
L'Article 11 combiné à l'Annexe IV impose un dossier technique complet avant toute mise en service d'un système IA à haut risque. Ce dossier doit inclure :
- Description générale du système IA et de ses objectifs
- Spécifications des données d'entraînement, de validation et de test
- Architecture technique et description algorithmique
- Métriques de performance et limites connues du système
- Description des mesures de contrôle humain (Art. 14)
- Plan de surveillance post-commercialisation (Art. 72)
Lacune la plus fréquente : la quasi-totalité des entreprises déploient des systèmes IA sans aucune documentation de ce type. SOTELI automatise partiellement la génération de ces dossiers grâce à des agents IA spécialisés.
L'EU AI Act crée de facto le rôle d'AI Officer dans les organisations déployant des systèmes IA à haut risque. Ce rôle est distinct du DPO (RGPD) : le DPO seul ne couvre pas les obligations AI Act, même s'il peut être formé pour les cumuler.
L'AI Officer est responsable de :
- La cartographie et la classification des systèmes IA
- La supervision du programme de conformité AI Act
- Le signalement des incidents graves aux autorités (Art. 73)
- La liaison avec les fournisseurs IA et la gestion des contrats
- La formation des équipes à la littératie IA (Art. 4)
Stat clé : dans 70 % des entreprises auditées, les dirigeants pensent que leur DPO gère l'AI Act — ce qui n'est pas le cas sans formation dédiée. SOTELI forme les DPO et assiste à la nomination des AI Officers.
Oui, de deux façons distinctes :
1. Les fournisseurs de GPAI (modèles à usage général) — OpenAI, Google, Anthropic, Mistral — ont depuis août 2025 des obligations de transparence sur leurs données d'entraînement (Art. 53) et de politique de droits d'auteur. Ces modèles peuvent aussi recevoir le statut de "GPAI à risque systémique" si leur puissance de calcul dépasse 10²⁵ FLOPs.
2. Vous, en tant que déployeur — si vos équipes utilisent ChatGPT, Copilot ou Claude, vous avez l'obligation (Art. 50) de marquer les contenus générés par IA (textes, images, audio, vidéo) sur vos communications externes. Les contenus IA non marqués constituent une infraction. Par ailleurs, une politique d'usage interne de l'IA générative est fortement recommandée.
L'Article 72 impose un plan de surveillance post-commercialisation formel pour tout système IA à haut risque. Concrètement :
- Art. 12 — Journalisation : enregistrement automatique des événements pendant toute la durée de vie du système (logs horodatés, conservés selon réglementation sectorielle)
- Art. 72 — Plan de surveillance : détection des dérives (data drift), des anomalies comportementales, des biais émergents
- Art. 73 — Signalement incidents : notification obligatoire aux autorités nationales en cas d'incident grave ou de risque sérieux — dans des délais stricts
La lacune la plus critique : la plupart des systèmes IA en production n'ont aucune capacité de traçabilité ou de monitoring dédié. SOTELI déploie des couches d'observabilité (Prometheus, Grafana, MLflow) sur les systèmes existants.
Oui — c'est l'une des catégories les plus exposées. L'Annexe III §4 classe en haut risque :
- ATS (Applicant Tracking System) avec scoring ou filtrage automatique de candidats
- Systèmes d'évaluation des performances avec IA
- Surveillance des salariés intégrant de l'IA
- Outils de gestion des promotions et licenciements assistés par IA
Le problème majeur : la quasi-totalité des ATS modernes (Workday, SAP SuccessFactors, Taleo, SmartRecruiters) intègrent de l'IA de scoring — souvent sans que les DRH en soient informés. En tant que déployeur, votre responsabilité est engagée même si l'IA est dans un outil SaaS tiers. Un audit fournisseur est obligatoire.
Le secteur financier est classé priorité maximale ★★★★★ d'exposition. Les systèmes IA à haut risque concernés (Annexe III §5) :
- Scoring crédit & évaluation de solvabilité — tout modèle influençant l'octroi de crédit
- Tarification assurance-vie et santé — IA de personnalisation des primes
- Détection de fraude — si décisions automatiques sans validation humaine
- Trading algorithmique — sous surveillance renforcée
- Chatbots conseil financier — obligations de transparence (Art. 50)
Lacune critique : les modèles de scoring anciens (pré-2021) n'ont aucune documentation de conformité AI Act. Une mise à niveau documentaire est urgente avant août 2026. SOTELI intervient auprès des établissements financiers, fintechs, assureurs et courtiers.
Oui — et c'est une priorité haute ★★★★☆. Les administrations françaises utilisent massivement de l'IA (CAF, Pôle Emploi, Impôts, services de police) sans plan de conformité. Les obligations s'appliquent aux :
- Décisions administratives assistées par IA (prestations sociales, droits)
- Systèmes de surveillance biométrique (règles très strictes)
- Marchés publics incluant des composants IA (les acheteurs publics doivent désormais exiger la conformité AI Act dans les clauses techniques)
Alerte : aucun AI Officer n'est encore nommé dans la plupart des collectivités françaises. L'exposition est réelle et sous-estimée.
L'EU AI Act prévoit trois niveaux de sanction (Art. 99 & 101), toujours retenus au montant le plus élevé entre un plafond fixe et un % du CA mondial :
Jusqu'à 35 M€ ou 7 % du CA mondial annuel
Jusqu'à 15 M€ ou 3 % du CA mondial annuel
Jusqu'à 7,5 M€ ou 1 % du CA mondial annuel
Jusqu'à 15 M€ ou 3 % du CA mondial annuel
⚠️ Pour une ETI de 100 M€ de CA, la sanction maximale peut atteindre 7 M€ — soit plusieurs années de bénéfices.
Oui — depuis février 2025. Les interdictions de l'Article 5 sont applicables depuis cette date. Votre entreprise est potentiellement en infraction si vous déployez :
- Des outils marketing utilisant des techniques d'influence subliminale
- Des outils RH exploitant les vulnérabilités ou biais socio-économiques
- Des systèmes de surveillance biométrique en temps réel
- Des outils d'inférence des émotions sur le lieu de travail
Par ailleurs, depuis août 2025, les contenus générés par IA non marqués sur vos communications constituent également une infraction (Art. 50). Un audit immédiat de vos usages IA est recommandé.
SOTELI propose des offres adaptées à la taille et aux besoins de chaque organisation :
Une mise en conformité complète pour un système IA à haut risque prend 12 à 18 mois en moyenne. Chaque mois compte. Voici les grandes étapes :
- Mois 1-2 : Cartographie et inventaire de tous les systèmes IA (audit flash)
- Mois 2-3 : Classification par niveau de risque et gap analysis
- Mois 3-6 : Documentation technique (Annexe IV), politique de gouvernance des données
- Mois 4-8 : Mise en place du monitoring, des logs, du contrôle humain
- Mois 6-10 : Formation des équipes (AI literacy) et nomination de l'AI Officer
- Mois 10-18 : Évaluation de conformité, déclaration UE, enregistrement base de données EUBA
Si vous n'avez pas encore commencé et que la deadline d'août 2026 approche, chaque semaine perdue réduit votre marge de manœuvre. Contactez SOTELI pour un audit d'urgence prioritaire.
Oui, la norme ISO/IEC 42001 (Système de Management de l'IA) est complémentaire à l'EU AI Act. Une certification ISO 42001 peut faciliter la démonstration de conformité réglementaire et constitue un avantage compétitif fort vis-à-vis des clients et partenaires.
SOTELI intègre les recommandations ISO 42001 et NIST AI RMF dans sa méthodologie d'accompagnement. Une démarche ISO 42001 menée en parallèle de la mise en conformité AI Act permet d'optimiser les efforts et les coûts documentaires.
La première étape incontournable est la cartographie de vos systèmes IA. Voici les 5 actions immédiates à engager :
- Inventoriez vos outils — listez tous les logiciels SaaS, outils internes, APIs et modèles IA utilisés dans votre organisation
- Identifiez vos déployeurs — désignez une personne responsable (AI Officer ou DPO formé)
- Classifiez les risques — déterminez si vos systèmes entrent dans les catégories haut risque de l'Annexe III
- Auditez vos fournisseurs SaaS — vérifiez leur conformité et leurs engagements contractuels AI Act
- Faites le diagnostic SOTELI — audit flash de 30 minutes pour obtenir une vue claire de votre exposition
Démarrez votre
mise en conformité
Nos experts analysent votre situation en 45 minutes et vous fournissent un premier diagnostic gratuit de vos risques EU AI Act. Réponse sous 24h ouvrées.
- ZAC des Batterses, 01700 Beynost — Intervention nationale
- Réponse sous 24h ouvrées
"SOTELI nous a permis de cartographier en 3 jours l'ensemble de nos usages IA et d'identifier les risques EU AI Act que nous n'avions pas anticipés. Leur expertise conjugue droit et technologie — c'est rare."
Demande d'audit de conformité
Message envoyé !
Merci ! Notre équipe SOTELI vous recontactera sous 24h ouvrées pour organiser votre audit de conformité EU AI Act.
Réservez un créneau de 45 minutes — diagnostic de conformité EU AI Act gratuit.
Vos données sont traitées par Calendly conformément au RGPD.