Vous utilisez ChatGPT pour rédiger vos contrats ? Vous automatisez vos process de formation avec de l’IA ? Vous créez de l’art génératif ou des chatbots pour vos clients ?
Bonne nouvelle : vous n’êtes pas seul·e. Mauvaise nouvelle : depuis le 1er août 2024, tout ça est encadré par la loi. Et trop de « pseudo-experts IA » vous vendent des solutions sans vous dire ce que vous risquez vraiment.
Alors aujourd’hui, on démonte ça ensemble. Sans jargon inutile. Avec des exemples concrets pour vous — notaires, avocats, organismes de formation, experts-comptables, créateurs, thérapeutes en médecines douces, concepteurs No-Code et automatisation.
C’est parti.
🇪🇺 IA Act : de quoi parle-t-on exactement ?
C’est le règlement européen qui encadre l’intelligence artificielle, entré en vigueur le 1er août 2024. Son objectif n’est pas de freiner l’innovation — c’est de s’assurer que l’IA ne joue pas avec vos droits fondamentaux, ni ceux de vos clients.
La loi classe les outils IA selon leur niveau de risque. Et selon où vous tombez, vos obligations changent du tout au tout.
🚦 Les 4 niveaux de risque (et où vous vous situez)
🔴 Risque inacceptable → INTERDIT
Ce sont les systèmes qui manipulent les comportements humains à votre insu (techniques subliminales), les systèmes de notation sociale des individus, ou la reconnaissance d’émotions au travail et à l’école.
Sanction : jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires mondial. Autant dire que personne ne rigole.
🟠 Haut risque → TRÈS RÉGLEMENTÉ
C’est là que ça concerne directement beaucoup d’entre vous :
- 🎓 Organismes de formation : les IA qui évaluent des apprenants ou surveillent des examens (proctoring) sont classées haut risque.
- ⚖️ Avocats & notaires : les IA qui aident à interpréter des faits ou à appliquer la loi sont concernées.
- 💶 Experts-comptables : le credit scoring (évaluation de solvabilité) est réglementé — sauf pour la détection de fraude.
- 👔 Recrutement & RH : le tri automatique de CV ou la gestion des promotions aussi.
- 🌿 Thérapeutes & médecines douces : si vous utilisez une IA pour générer des recommandations de santé personnalisées à vos patients, attention — selon la nature et le niveau de personnalisation, vous pouvez basculer en haut risque.
Obligations lourdes : données de haute qualité, sans biais, documentation technique, supervision humaine obligatoire.
🟡 Risque limité → TRANSPARENCE OBLIGATOIRE
Chatbots de service client, outils générant des textes de conseils généraux, créations artistiques avec l’IA…
Une seule règle, mais non négociable : dire clairement à l’utilisateur qu’il interagit avec une IA. Pas en tout petit au fond d’une CGV. Clairement.
Pour les thérapeutes en médecines douces qui utilisent l’IA pour produire des contenus de conseils bien-être (articles, newsletters, réponses automatisées) : vous êtes typiquement dans cette catégorie. L’obligation de transparence s’applique.
🟢 Risque minimal → Liberté (presque) totale
Filtres anti-spam, jeux vidéo… Aucune obligation spécifique. Respirez.
Vous ne savez pas où vous vous situez ? Faites le test de vérification de conformité.
🎭 Qui êtes-vous selon la loi ? Les rôles qui changent TOUT
C’est le point que tout le monde zappe. Pourtant, votre étiquette légale définit vos responsabilités.
Le Fournisseur (Provider)
Vous développez une IA (ou vous la faites développer) pour la commercialiser sous votre nom. C’est vous qui portez le plus lourd : marquage CE, documentation technique, gestion de la qualité.
Le Déployeur (Deployer)
Vous utilisez une IA dans votre cadre professionnel. L’avocat qui scanne ses documents, le notaire qui analyse des actes, le formateur qui automatise ses corrections, la thérapeute qui envoie des suivis personnalisés via un outil IA : c’est vous. Obligation : suivre les consignes du fournisseur, surveiller le système, et informer vos équipes si nécessaire.
L’Importateur
Vous utilisez et rendez accessible en Europe une IA développée hors UE. Vous devez vérifier que le fournisseur respecte déjà la loi européenne. Ce n’est pas toujours le cas.
Le Distributeur
Vous revendez une solution IA sans la modifier. Vous devez vérifier la présence du marquage CE et des documents de conformité. « Je savais pas » n’est pas une défense juridique.
⚠️ Le point crucial pour les concepteurs No-Code & Automatisation
Vous n’êtes pas développeurs d’IA — et c’est important de le dire clairement. Quand vous configurez un workflow dans Make, Zapier ou n8n, quand vous connectez un module IA à une application, quand vous programmez un agent ou un chatbot via des outils existants : vous êtes déployeurs, pas fournisseurs.
Mais attention à un cas précis : si vous créez une solution complète pour un client, avec une IA intégrée dans une app ou un process métier, et que vous la commercialisez sous votre nom — là, votre responsabilité peut se rapprocher de celle du fournisseur. Pas parce que vous avez modifié ChatGPT, mais parce que vous êtes celui ou celle qui met le produit final sur le marché.
Concrètement : vérifiez toujours que les outils IA que vous intégrez (modules Make, API OpenAI, etc.) disposent bien de leur propre documentation de conformité. Et documentez vos propres choix d’intégration. C’est votre filet de sécurité.
📅 Les dates à ne pas rater
| Date | Ce qui entre en vigueur |
|---|---|
| ✅ 2 février 2025 | Interdiction des IA à risque inacceptable + obligation d’AI Literacy : former vos collaborateurs à comprendre les risques et le fonctionnement des IA qu’ils utilisent. C’est une obligation légale, pas un bonus RH. |
| 📌 2 août 2025 | Règles sur les grands modèles d’IA (GPT-4, Claude, Gemini…) + premières sanctions applicables. |
| 📌 2 août 2026 | Majorité des obligations pour les systèmes « Haut Risque ». C’est votre vraie deadline si vous êtes concerné·e. |
✅ Obligatoire vs Recommandé : la ligne claire
OBLIGATOIRE (c’est la loi)
- Former vos équipes à l’IA — AI Literacy, Article 4
- Signaler clairement les contenus générés par IA (deepfakes, textes d’intérêt public)
- Si vous êtes entité publique ou secteur réglementé en haut risque : réaliser une analyse d’impact sur les droits fondamentaux (FRIA) avant déploiement
- Utiliser des données de qualité, sans biais discriminatoires, pour les systèmes haut risque
RECOMMANDÉ (mais malin d’anticiper)
- Adopter un code de conduite volontaire pour vos IA à faible risque
- Tester vos innovations dans les « bacs à sable réglementaires » — expérimenter sous supervision, sans risque d’amende immédiate (accès prioritaire pour les PME)
- Documenter vos usages IA dès maintenant, même si vous n’êtes pas encore en haut risque
💥 Le conseil de la Rockeuse du No-Code
Méfiez-vous des solutions IA « clés en main » vendues sans documentation de conformité.
Si quelqu’un vous propose un système IA pour évaluer vos apprenants, trier vos dossiers juridiques, accompagner vos patients ou analyser la solvabilité de vos clients — sans jamais vous parler de conformité, de biais, de traçabilité — posez-vous une question simple : est-ce que cette personne connaît vraiment la loi, ou elle vous vend juste un outil brillant ?
Votre première étape concrète aujourd’hui ?
Cartographiez les IA que vous utilisez. Listez-les. Identifiez leur niveau de risque. Vérifiez votre rôle légal. Et assurez-vous que les outils que vous utilisez — ou que vous proposez à vos clients — sont conformes.
Parce qu’en cas de biais discriminatoire ou d’erreur grave, c’est votre responsabilité qui sera engagée. Pas celle du vendeur qui a encaissé et disparu.
L’IA peut être un levier extraordinaire. À condition de savoir ce qu’on joue.
📚 Sources et ressources utiles
- Texte officiel de la Loi sur l’IA (Journal officiel de l’UE)
- IA Act Explorer — Future of Life Institute
- Vérificateur de conformité interactif
- Comprendre IA : une plateforme vulgarisant avec éthique et transparence l’IA dans toutes ses formes
✍️ Cet article a été rédigé avec l’assistance de l’IA, relu et validé par mes soins — parce que pratiquer ce qu’on prêche, c’est la base.