Règlement UE 2024/1689 — En vigueur

Votre entreprise
doit être conforme
à l'EU AI Act

Le cadre réglementaire européen sur l'IA est entré en vigueur le 1er août 2024. Les obligations s'appliquent progressivement — application complète fixée au 2 août 2026. SOTELI accompagne les entreprises françaises dans leur mise en conformité.

Calendrier d'application
Deadline application complète
2 août 2026
Systèmes IA haut risque + enforcement total
🚫 Risque Inacceptable — Interdit 35 M€
⚠️ Risque Élevé — Obligations renforcées 30 M€
💬 Risque Limité — Transparence 15 M€
✅ Risque Minimal — Libre d'usage
 Temps restant avant l'application complète
Jours
Heures
Min
Sec
Démarrer ma mise en conformité
Cadre réglementaire

L'EU AI Act :
où en est-on ?

Le Règlement Européen sur l'IA (UE 2024/1689), entré en vigueur le 1er août 2024, est le premier cadre légal mondial dédié à l'intelligence artificielle. Il classe les systèmes IA selon leur niveau de risque et impose des obligations proportionnées.

Ce règlement s'applique à toute entreprise qui développe, déploie ou utilise des systèmes IA sur le territoire de l'Union Européenne — y compris les entreprises étrangères dont les systèmes affectent des utilisateurs en Europe.

  • 1er août 2024
    Entrée en vigueur
    Publication au JOUE — règlement juridiquement contraignant
  • Février 2025
    Interdictions + Littératie IA
    Interdiction des IA à risque inacceptable + obligation de formation IA des employés (Art. 4)
  • Août 2025 — EN COURS
    Modèles GPAI + Gouvernance
    Règles pour les IA à usage général (GPT, Gemini, Claude…) + mise en place des autorités nationales de surveillance
  • 2 août 2026 — DEADLINE
    Application complète + Enforcement total
    Systèmes IA haut risque, règles de transparence (Art. 50), marquage CE, documentation technique obligatoire

L'EU AI Act classe les systèmes d'IA selon leur niveau de risque et impose des règles proportionnées pour garantir une IA fiable, éthique et respectueuse des droits en Europe.

Risque Exemples Obligations
🚫Inacceptable
Notation sociale, manipulation cognitive, reconnaissance faciale de masse Strictement interdit
⚠️Élevé
Recrutement IA, scoring crédit, justice, santé, sécurité Conformité renforcée : gestion des biais, audit, marquage CE
💬Limité
Chatbots, assistants virtuels, deepfakes, contenu généré Obligation de transparence (Art. 50)
Minimal
Filtres anti-spam, recommandations, IA dans les jeux Pas de contraintes spécifiques
 Modèles GPAI (usage général) — applicable depuis août 2025

GPT-4, Claude, Gemini, Mistral… sont réglementés. Les fournisseurs doivent publier leur documentation technique, respecter le droit d'auteur et se soumettre à des évaluations de risques systémiques.

Champ d'application

Votre entreprise
est-elle concernée ?

Toute organisation qui développe, déploie ou utilise un système IA en Europe est potentiellement soumise à l'EU AI Act — y compris les PME et ETI qui utilisent des SaaS intégrant de l'IA.

🤝

RH & Recrutement

L'IA dans vos processus RH est classifiée haut risque

  • Tri automatique de CVs
  • Scoring de candidatures
  • Analyse d'entretiens par IA
  • Prédiction de turnover
💬

Service Client & Chatbots

Les agents IA sont soumis à l'obligation de transparence

  • Chatbots conversationnels
  • Assistants virtuels
  • Qualification automatique
  • Voicebots téléphoniques
💳

Finance & Crédit

Scoring crédit et détection de fraude : haut risque

  • Scoring crédit automatisé
  • Détection d'anomalies
  • Trading algorithmique
  • Évaluation de solvabilité
📢

Marketing & Communication

Ciblage comportemental et contenus générés : transparence obligatoire

  • Ciblage publicitaire IA
  • Génération de contenu IA
  • Personnalisation des offres
  • Analyse de sentiment
⚖️

Juridique & Conformité

Analyse de contrats et aide à la décision : documentation requise

  • Analyse automatique de contrats
  • Veille réglementaire IA
  • Détection de risques juridiques
  • Aide à la décision
🚨

Vous n'êtes pas sûr ?

En 30 minutes, SOTELI établit un diagnostic gratuit de vos usages IA et identifie les risques de non-conformité.

Diagnostic gratuit
Obligations légales

Ce qui change
au 2 août 2026

Pour les systèmes IA haut risque, les entreprises doivent satisfaire à un ensemble d'obligations strictes sous peine de sanctions sévères.

Gestion des données

  • Jeux de données d'entraînement documentés et auditables
  • Évaluation des biais algorithmiques
  • Traçabilité complète des données utilisées
  • Conformité croisée avec le RGPD

Documentation technique

  • Dossier technique complet du système IA
  • Registre des événements (logs) obligatoire
  • Documentation de conformité mise à jour
  • Notice d'utilisation et instructions claires

Transparence (Art. 50)

  • Information obligatoire des utilisateurs sur l'IA
  • Identification des contenus générés (deepfakes, textes)
  • Chatbots : déclaration de la nature IA
  • Traçabilité des décisions automatisées

Supervision humaine

  • Mécanismes de contrôle humain effectifs
  • Possibilité d'intervention, correction, suspension
  • Formation obligatoire des opérateurs IA
  • Désignation d'un responsable conformité IA

Sanctions prévues

Les amendes s'appliquent par violation constatée — plusieurs manquements simultanés multiplient les risques financiers.

IA Inacceptable
35 M€
ou
7 % CA mondial
Utilisation ou développement d'IA interdite
Violations générales
15 M€
ou
3 % CA mondial
Non-respect des obligations IA haut risque, manque de transparence
Informations incorrectes
7,5 M€
ou
1,5 % CA mondial
Fourniture d'informations fausses aux autorités compétentes

 Résumé des nouvelles obligations au 2 août 2026

Systèmes IA haut risque : conformité obligatoire + marquage CE
Règles de transparence (Art. 50) : deepfakes, chatbots, contenu IA
Sandbox réglementaire par État membre obligatoire
Complémentaire aux normes ISO 42001 et NIST AI RMF
Méthodologie SOTELI

Notre approche
en 4 étapes

De l'inventaire de vos systèmes IA à la documentation technique finale, SOTELI vous guide vers une conformité EU AI Act complète, pragmatique et durable.

Audit & Inventaire

Cartographie exhaustive de tous vos systèmes IA, outils SaaS et automatisations. Identification des données traitées et des décisions automatisées.

2–3 jours

Classification des risques

Application de la grille EU AI Act : classification de chaque système selon les 4 niveaux de risque. Gap analysis réglementaire détaillée.

2–3 jours

Plan de remédiation

Définition des actions correctives priorisées, rédaction de la documentation technique obligatoire, mise en place des processus de gouvernance IA.

1–2 semaines

Formation & Gouvernance

Formation des équipes à la littératie IA (Art. 4, obligation depuis fév. 2025), désignation du responsable conformité IA, mise en place du registre de surveillance.

En continu

Livrables inclus

Documents directement exploitables par votre équipe juridique et vos auditeurs.

📋

Rapport d'audit complet

Document de 20–30 pages synthétisant l'ensemble de vos usages IA et leur niveau de conformité.

  • Inventaire des systèmes IA
  • Matrice de classification des risques
  • Gap analysis réglementaire
  • Score de conformité global
🗺️

Feuille de route 2025–2026

Plan d'action opérationnel et priorisé pour atteindre la conformité complète avant la deadline.

  • Actions classées par priorité
  • Responsables et délais définis
  • Budget estimatif
  • KPIs de suivi
📂

Documentation technique

Templates et documentation pré-remplie conforme aux exigences de l'EU AI Act pour vos systèmes haut risque.

  • Dossier technique (Annex IV)
  • Notice d'utilisation
  • Registre de conformité
  • Politique de gouvernance IA

Évaluez votre exposition
en 5 minutes chrono

10 questions, scoring instantané, recommandations personnalisées — sans inscription, sans engagement.

  Anonyme · Résultats immédiats · Aucune donnée transmise sans votre accord

Ne prenez pas le risque
d'une amende à 35 M€

Plus vous attendez, plus la mise en conformité sera complexe et coûteuse.
Nos experts SOTELI sont disponibles pour un premier échange gratuit sous 24h.

Entretien de 45 min — Sans engagement — Réponse sous 24h ouvrées

Questions fréquentes

Tout ce que vous devez
savoir sur l'EU AI Act

Réponses claires aux questions les plus posées par les DSI, DPO, DRH et dirigeants — basées sur l'analyse complète du Règlement (UE) 2024/1689.

L'EU AI Act (Règlement UE 2024/1689) est le premier cadre juridique mondial contraignant sur l'intelligence artificielle, publié au Journal Officiel de l'UE le 12 juillet 2024 et entré en vigueur le 1er août 2024. Il s'applique à toute organisation qui développe, met sur le marché, déploie ou utilise des systèmes IA dans l'UE — y compris les entreprises hors UE ciblant le marché européen.

Il classe les systèmes IA selon 4 niveaux de risque et impose des obligations proportionnées :

  • 🚫 Niveau 1 — Interdit (Art. 5) : manipulation comportementale, social scoring, biométrie en temps réel dans l'espace public
  • 🔴 Niveau 2 — Haut risque (Annexe III) : recrutement, crédit, santé, éducation, répression, justice → obligations documentaires lourdes
  • 🟡 Niveau 3 — Risque limité (Art. 50-52) : chatbots, deepfakes → obligations de transparence (indiquer qu'on interagit avec une IA)
  • 🟢 Niveau 4 — Risque minimal : pas d'obligation légale spécifique, codes de conduite volontaires

Il s'articule avec le RGPD, le DSA et le CRA, créant un empilement réglementaire numérique que SOTELI intègre dans ses audits.

Oui, absolument. L'EU AI Act s'applique aux déployeurs — les entreprises qui utilisent des systèmes IA développés par des tiers. Si vous utilisez Salesforce, SAP, Workday, un ATS avec scoring automatique, ou tout outil SaaS intégrant de l'IA pour influencer des décisions impactant des personnes, vous avez des obligations de conformité.

En tant que déployeur (Art. 26), vous êtes notamment tenu de :

  • Utiliser les systèmes IA selon les instructions du fournisseur
  • Assurer la surveillance humaine effective des systèmes
  • Signaler les incidents graves aux autorités compétentes
  • Auditer vos fournisseurs SaaS pour vérifier leur conformité

La lacune la plus fréquente : 95 % des DRH ignorent que leur ATS intègre de l'IA classifiée haut risque. Une cartographie de vos usages est la première étape indispensable.

Les deux réglementations sont complémentaires et distinctes :

RGPD
  • Régit les données personnelles
  • En vigueur depuis 2018
  • Géré par la CNIL / DPO
  • Amende : 4% CA mondial
EU AI Act
  • Régit les systèmes IA
  • En vigueur depuis 2024
  • Géré par l'AI Officer / DPO formé
  • Amende : 7% CA mondial

Attention : la conformité RGPD ne garantit pas la conformité AI Act. Un système IA traitant des données personnelles doit satisfaire les deux réglementations simultanément. SOTELI intègre cette double dimension dans tous ses audits.

L'EU AI Act s'applique progressivement par vagues :

Fév. 2025 ✅ Interdictions absolues applicables (Art. 5) — manipulation comportementale, social scoring, biométrie en temps réel. Vous pouvez déjà être en infraction.
Août 2025 ⚠️ Obligations pour les modèles d'IA à usage général (GPAI) — GPT, Gemini, Claude, Mistral. Transparence sur les données d'entraînement obligatoire.
Août 2026 🚨 Deadline critique — Obligations complètes pour les systèmes IA à haut risque (Annexe III). Documentation, certification, AI Officer, monitoring post-déploiement. La mise en conformité prend 12 à 18 mois.
Août 2027 Obligations pour les systèmes IA à haut risque de l'Annexe I (produits réglementés : dispositifs médicaux, machines, équipements).

Depuis février 2025, l'article 4 impose aux entreprises de garantir que leurs collaborateurs utilisant ou supervisant des systèmes IA disposent d'un niveau suffisant de compétences IA ("AI literacy"). Cela inclut la compréhension du fonctionnement des outils, de leurs limites, de leurs biais potentiels et des règles de supervision humaine.

Cette obligation s'applique dès maintenant à tous les collaborateurs exposés à l'IA, quelle que soit la taille de l'entreprise. SOTELI propose des formations adaptées par métier : DPO, DSI, DRH, managers, commerciaux.

L'Article 11 combiné à l'Annexe IV impose un dossier technique complet avant toute mise en service d'un système IA à haut risque. Ce dossier doit inclure :

  • Description générale du système IA et de ses objectifs
  • Spécifications des données d'entraînement, de validation et de test
  • Architecture technique et description algorithmique
  • Métriques de performance et limites connues du système
  • Description des mesures de contrôle humain (Art. 14)
  • Plan de surveillance post-commercialisation (Art. 72)

Lacune la plus fréquente : la quasi-totalité des entreprises déploient des systèmes IA sans aucune documentation de ce type. SOTELI automatise partiellement la génération de ces dossiers grâce à des agents IA spécialisés.

L'EU AI Act crée de facto le rôle d'AI Officer dans les organisations déployant des systèmes IA à haut risque. Ce rôle est distinct du DPO (RGPD) : le DPO seul ne couvre pas les obligations AI Act, même s'il peut être formé pour les cumuler.

L'AI Officer est responsable de :

  • La cartographie et la classification des systèmes IA
  • La supervision du programme de conformité AI Act
  • Le signalement des incidents graves aux autorités (Art. 73)
  • La liaison avec les fournisseurs IA et la gestion des contrats
  • La formation des équipes à la littératie IA (Art. 4)

Stat clé : dans 70 % des entreprises auditées, les dirigeants pensent que leur DPO gère l'AI Act — ce qui n'est pas le cas sans formation dédiée. SOTELI forme les DPO et assiste à la nomination des AI Officers.

Oui, de deux façons distinctes :

1. Les fournisseurs de GPAI (modèles à usage général) — OpenAI, Google, Anthropic, Mistral — ont depuis août 2025 des obligations de transparence sur leurs données d'entraînement (Art. 53) et de politique de droits d'auteur. Ces modèles peuvent aussi recevoir le statut de "GPAI à risque systémique" si leur puissance de calcul dépasse 10²⁵ FLOPs.

2. Vous, en tant que déployeur — si vos équipes utilisent ChatGPT, Copilot ou Claude, vous avez l'obligation (Art. 50) de marquer les contenus générés par IA (textes, images, audio, vidéo) sur vos communications externes. Les contenus IA non marqués constituent une infraction. Par ailleurs, une politique d'usage interne de l'IA générative est fortement recommandée.

L'Article 72 impose un plan de surveillance post-commercialisation formel pour tout système IA à haut risque. Concrètement :

  • Art. 12 — Journalisation : enregistrement automatique des événements pendant toute la durée de vie du système (logs horodatés, conservés selon réglementation sectorielle)
  • Art. 72 — Plan de surveillance : détection des dérives (data drift), des anomalies comportementales, des biais émergents
  • Art. 73 — Signalement incidents : notification obligatoire aux autorités nationales en cas d'incident grave ou de risque sérieux — dans des délais stricts

La lacune la plus critique : la plupart des systèmes IA en production n'ont aucune capacité de traçabilité ou de monitoring dédié. SOTELI déploie des couches d'observabilité (Prometheus, Grafana, MLflow) sur les systèmes existants.

Oui — c'est l'une des catégories les plus exposées. L'Annexe III §4 classe en haut risque :

  • ATS (Applicant Tracking System) avec scoring ou filtrage automatique de candidats
  • Systèmes d'évaluation des performances avec IA
  • Surveillance des salariés intégrant de l'IA
  • Outils de gestion des promotions et licenciements assistés par IA

Le problème majeur : la quasi-totalité des ATS modernes (Workday, SAP SuccessFactors, Taleo, SmartRecruiters) intègrent de l'IA de scoring — souvent sans que les DRH en soient informés. En tant que déployeur, votre responsabilité est engagée même si l'IA est dans un outil SaaS tiers. Un audit fournisseur est obligatoire.

Le secteur financier est classé priorité maximale ★★★★★ d'exposition. Les systèmes IA à haut risque concernés (Annexe III §5) :

  • Scoring crédit & évaluation de solvabilité — tout modèle influençant l'octroi de crédit
  • Tarification assurance-vie et santé — IA de personnalisation des primes
  • Détection de fraude — si décisions automatiques sans validation humaine
  • Trading algorithmique — sous surveillance renforcée
  • Chatbots conseil financier — obligations de transparence (Art. 50)

Lacune critique : les modèles de scoring anciens (pré-2021) n'ont aucune documentation de conformité AI Act. Une mise à niveau documentaire est urgente avant août 2026. SOTELI intervient auprès des établissements financiers, fintechs, assureurs et courtiers.

Oui — et c'est une priorité haute ★★★★☆. Les administrations françaises utilisent massivement de l'IA (CAF, Pôle Emploi, Impôts, services de police) sans plan de conformité. Les obligations s'appliquent aux :

  • Décisions administratives assistées par IA (prestations sociales, droits)
  • Systèmes de surveillance biométrique (règles très strictes)
  • Marchés publics incluant des composants IA (les acheteurs publics doivent désormais exiger la conformité AI Act dans les clauses techniques)

Alerte : aucun AI Officer n'est encore nommé dans la plupart des collectivités françaises. L'exposition est réelle et sous-estimée.

L'EU AI Act prévoit trois niveaux de sanction (Art. 99 & 101), toujours retenus au montant le plus élevé entre un plafond fixe et un % du CA mondial :

Pratiques interdites (Art. 5)
Jusqu'à 35 M€ ou 7 % du CA mondial annuel
Non-conformité IA haut risque
Jusqu'à 15 M€ ou 3 % du CA mondial annuel
Informations incorrectes aux autorités
Jusqu'à 7,5 M€ ou 1 % du CA mondial annuel
Modèles GPAI (Art. 101)
Jusqu'à 15 M€ ou 3 % du CA mondial annuel

⚠️ Pour une ETI de 100 M€ de CA, la sanction maximale peut atteindre 7 M€ — soit plusieurs années de bénéfices.

Oui — depuis février 2025. Les interdictions de l'Article 5 sont applicables depuis cette date. Votre entreprise est potentiellement en infraction si vous déployez :

  • Des outils marketing utilisant des techniques d'influence subliminale
  • Des outils RH exploitant les vulnérabilités ou biais socio-économiques
  • Des systèmes de surveillance biométrique en temps réel
  • Des outils d'inférence des émotions sur le lieu de travail

Par ailleurs, depuis août 2025, les contenus générés par IA non marqués sur vos communications constituent également une infraction (Art. 50). Un audit immédiat de vos usages IA est recommandé.

SOTELI propose des offres adaptées à la taille et aux besoins de chaque organisation :

Audit AI Act Flash — Inventaire + classification + roadmap (2 jours)
À partir de 2 500 €
Mise en conformité PME — Audit + documentation + formation (3 mois)
15 000 — 25 000 €
Programme Enterprise — Gouvernance IA complète (6-12 mois)
Sur devis
Diagnostic initial — Premier entretien d'évaluation (30 min)
Gratuit

Une mise en conformité complète pour un système IA à haut risque prend 12 à 18 mois en moyenne. Chaque mois compte. Voici les grandes étapes :

  1. Mois 1-2 : Cartographie et inventaire de tous les systèmes IA (audit flash)
  2. Mois 2-3 : Classification par niveau de risque et gap analysis
  3. Mois 3-6 : Documentation technique (Annexe IV), politique de gouvernance des données
  4. Mois 4-8 : Mise en place du monitoring, des logs, du contrôle humain
  5. Mois 6-10 : Formation des équipes (AI literacy) et nomination de l'AI Officer
  6. Mois 10-18 : Évaluation de conformité, déclaration UE, enregistrement base de données EUBA

Si vous n'avez pas encore commencé et que la deadline d'août 2026 approche, chaque semaine perdue réduit votre marge de manœuvre. Contactez SOTELI pour un audit d'urgence prioritaire.

Oui, la norme ISO/IEC 42001 (Système de Management de l'IA) est complémentaire à l'EU AI Act. Une certification ISO 42001 peut faciliter la démonstration de conformité réglementaire et constitue un avantage compétitif fort vis-à-vis des clients et partenaires.

SOTELI intègre les recommandations ISO 42001 et NIST AI RMF dans sa méthodologie d'accompagnement. Une démarche ISO 42001 menée en parallèle de la mise en conformité AI Act permet d'optimiser les efforts et les coûts documentaires.

La première étape incontournable est la cartographie de vos systèmes IA. Voici les 5 actions immédiates à engager :

  1. Inventoriez vos outils — listez tous les logiciels SaaS, outils internes, APIs et modèles IA utilisés dans votre organisation
  2. Identifiez vos déployeurs — désignez une personne responsable (AI Officer ou DPO formé)
  3. Classifiez les risques — déterminez si vos systèmes entrent dans les catégories haut risque de l'Annexe III
  4. Auditez vos fournisseurs SaaS — vérifiez leur conformité et leurs engagements contractuels AI Act
  5. Faites le diagnostic SOTELI — audit flash de 30 minutes pour obtenir une vue claire de votre exposition
💡 Commencez maintenant : faites notre quiz de diagnostic en 5 minutes → pour obtenir votre score d'exposition instantané.

Premier contact gratuit

Démarrez votre
mise en conformité

Nos experts analysent votre situation en 45 minutes et vous fournissent un premier diagnostic gratuit de vos risques EU AI Act. Réponse sous 24h ouvrées.

  • ZAC des Batterses, 01700 Beynost — Intervention nationale
  • Réponse sous 24h ouvrées

"SOTELI nous a permis de cartographier en 3 jours l'ensemble de nos usages IA et d'identifier les risques EU AI Act que nous n'avions pas anticipés. Leur expertise conjugue droit et technologie — c'est rare."

Directrice Juridique — ETI de services, 850 salariés

Demande d'audit de conformité

En soumettant ce formulaire, vous acceptez notre politique de confidentialité. Données utilisées uniquement pour vous recontacter.

Message envoyé !

Merci ! Notre équipe SOTELI vous recontactera sous 24h ouvrées pour organiser votre audit de conformité EU AI Act.