L’intelligence artificielle générative s’est installée dans les cabinets d’avocats plus vite que les règles censées l’encadrer. Fin 2025, deux décisions rendues en Belgique et en France rappellent brutalement une évidence souvent oubliée : en matière de droit, l’utilisation des IA n’efface ni la responsabilité professionnelle, ni l’exigence de vérification. Et lorsque la machine invente, la justice, elle, tranche.
Une scène en deux actes : Anvers, puis Périgueux
Le même malaise, à quelques centaines de kilomètres d’écart.
Fin 2025, à Anvers, un avocat dépose des conclusions qui “sonnent juste”… jusqu’au moment où l’on cherche les décisions citées. Problème : une partie de la jurisprudence n’existe pas. L’outil a inventé. Et la justice, elle, n’invente pas : sanction financière, rappel à l’ordre, et surtout une trace durable dans un dossier professionnel.
Quelques jours plus tard, en France, une autre affaire remonte des prétoires : des écritures appuyées sur des références introuvables. Là encore, la question n’est pas “l’IA est-elle utile ?” mais beaucoup plus simple, et beaucoup plus brutale : est-ce que l’avocat a fait son travail de contrôle ?
Ce double signal n’annonce pas la fin de l’IA dans le droit. Il annonce la fin d’une phase : celle où l’on pouvait tester, bricoler, accélérer… sans payer le prix des erreurs.
Ce que ces affaires disent vraiment (et ce qu’elles ne disent pas)
On pourrait résumer ces dossiers à une “bourde” : un avocat qui copie-colle trop vite, un modèle qui hallucine, et basta. Ce serait passer à côté du sujet.
Parce que ce que les juges sanctionnent, au fond, ce n’est pas l’usage d’un outil. C’est l’abandon de la supervision, la disparition du réflexe professionnel le plus basique : vérifier ce que l’on avance, surtout quand on le présente comme du droit.
L’IA générative a un talent particulier : elle produit des textes plausibles, structurés, convaincants. Et c’est précisément ce qui la rend dangereuse dans un cabinet si elle devient un “raccourci” au lieu d’être un “assistant”.
Le paradoxe de la productivité juridique
La pression est réelle : dossiers plus nombreux, clients plus exigeants, budgets plus serrés. Dans ce contexte, l’IA (ChatGPT, Gemini, outils spécialisés) promet une chose très concrète : gagner du temps sur la rédaction, la synthèse, la structuration, la préparation.
Mais ce gain n’existe que si on le perd pas ailleurs.
- Si une référence est fausse, l’avocat perd du temps à réparer.
- Si un juge recadre un avocat, il perd de la crédibilité.
- Si un client découvre l’erreur, l’avocat perd sa confiance définitivement.
Autrement dit : l’IA n’a pas supprimé le travail. Elle a déplacé le travail vers un endroit moins visible… et plus risqué : le contrôle qualité.
L’angle mort : le client, celui qui paie l’erreur
On parle beaucoup de la sanction de l’avocat. On parle moins du préjudice côté client, alors que c’est souvent là que tout se joue.
Quand une stratégie procédurale repose (même partiellement) sur des sources inexistantes ou fragiles, le justiciable peut subir :
- Une perte de chance procédurale : l’argument “fort” tombe parce qu’il est construit sur du sable.
- Un allongement des délais : renvoi, reprises d’écritures, changement de conseil, procédures incidentes.
- Des coûts supplémentaires : temps non récupérable, frais externes, expertise, nouvelle stratégie.
- Une rupture de confiance : le client vient chercher de la sécurité juridique, pas une expérimentation.
Et dans les cas les plus sensibles, le client se retrouve à devoir engager la responsabilité de son propre conseil. Double peine.
La question que les clients vont poser (même s’ils ne la formulent pas encore)
Aujourd’hui, peu de clients demandent “Utilisez-vous une IA ?” Demain, ils demanderont plutôt : “Comment vous assurez-vous que ce que vous déposez est exact ?”
Parce que, pour eux, l’IA est opaque. Ils ne distinguent pas un moteur de recherche juridique d’un modèle génératif. Ils ne savent pas ce qu’est une hallucination. Ils ne comprennent pas pourquoi une référence “a l’air vraie” et pourtant n’existe pas.
Résultat : le doute s’installe, surtout dans les dossiers où l’enjeu est personnel, financier, pénal, ou simplement vital.
Ce que les barreaux rappellent déjà : l’IA n’est ni interdite, ni magique
Les lignes directrices publiées par l’Ordre des barreaux flamands (OVB) sont limpides : utiliser l’IA n’est pas interdit, mais cela relève de la responsabilité de l’avocat. Et surtout : l’avocat doit contrôler le résultat, y compris l’existence des sources citées.
On retrouve aussi des points très concrets, souvent sous-estimés en cabinet :
- la gestion des données (pseudonymisation, confidentialité, secret professionnel),
- la compréhension minimale des limites des modèles,
- la responsabilité finale : l’output n’a pas d’excuse, même si c’est l’outil qui comment l’erreur.
En clair : l’IA peut aider, mais elle ne signe pas à la place de l’avocat.
“Hallucination” vs “usage encadré” : la vraie ligne de démarcation
Ce que les juridictions commencent à tracer, c’est une frontière simple :
1) Usage “boîte noire” (à haut risque)
- l’avocat demande à l’outil de produire,
- il fait confiance au ton, à la structure, à l’aplomb,
- il ne vérifie pas,
- et il dépose.
Dans ce modèle, l’IA n’est plus un assistant : c’est un auteur fantôme. Et c’est précisément ce que les juges refusent.
2) Usage “assisté, assumé, vérifié”
- l’IA sert à organiser, reformuler, clarifier, explorer des pistes,
- mais les sources viennent d’outils fiables (bases, codes, doctrine),
- et la validation finale est humaine, documentée, traçable.
C’est moins techniquement spectaculaire… mais c’est soutenable.
2026 : vers une standardisation des processus (et une nouvelle hygiène de cabinet)
La suite est assez prévisible : l’IA va s’installer, mais avec des garde-fous. Concrètement, vous allez voir monter :
- Des protocoles internes : qui peut utiliser quoi, pour quelles tâches, avec quel niveau de validation.
- Des checklists obligatoires avant dépôt : sources, dates, juridictions, citations, cohérence.
- Des exigences assurance / RC pro : l’assureur ne demandera pas à l’avocat “’une IA est-elle utilisée ?”, mais “comment le risque est-il maîtrisé ?”.
- La formation comme compétence métier : comprendre les limites d’un modèle devient aussi basique que savoir citer une décision correctement.
- La confiance client comme avantage concurrentiel : demain, le cabinet qui sait démontrer sa méthode (sans exposer sa propriété intellectuelle) rassurera plus vite.
Une check-list simple (et réaliste) avant de “déposer” un texte aidé par IA
Sans usine à gaz. Juste de quoi éviter l’accident bête.
- Aucune source “IA” n’entre telle quelle dans des conclusions : tout doit venir d’une base fiable.
- Vérifier l’existence de chaque décision, article, doctrine citée.
- Vérifier la pertinence : juridiction, date, contexte, portée.
- Relire comme un contradicteur : où l’argument est-il fragile, trop général, trop “parfait” ?
- Surveiller les confusions classiques : noms proches, numéros de rôle, articles “probables”.
- Protéger les données : pas de pièces sensibles dans un outil non maîtrisé.
- Garder une trace (interne) : version, contrôle fait, par qui, quand.
- Assumer la responsabilité : si l’avocat ne peut pas signer mentalement chaque phrase, il ne devrait pas déposer un document généré par l’IA.
L’innovation ne baisse pas l’exigence, elle la déplace
Les affaires de fin 2025 ne ferment pas la porte à l’IA. Elles rappellent simplement une règle qui n’a jamais changé :
l’avocat reste l’avocat.
La technologie peut accélérer. Elle peut même améliorer la qualité. Mais seulement si elle s’inscrit dans une pratique professionnelle : rigoureuse, traçable, et orientée vers celui qu’on défend : le client.
Stéphane Peeters, Fondateur Captain IA Academy
Sources :
- Cour d’appel d’Anvers, Arrêt civil, décembre 2025.
- Orde van Vlaamse Balies (OVB), Directives sur l’intelligence artificielle, Bruxelles.
- Tribunal Judiciaire de Périgueux, Décision du 18 décembre 2025 (Pôle Social).
- Presse judiciaire belge (Couverture de l’affaire Liège/Simonis, octobre 2024).
- Rapports d’activité et prospective du Conseil National des Barreaux (CNB), 2024-2025.