Sang sur silicium : quand ChatGPT entre dans le récit du crime (Chronique)
À première vue, l’affaire Darron Lee ressemble à un fait divers américain de plus, tragique, local, lointain pour un lecteur européen. Mais la simple mention de ChatGPT a suffi à la faire sortir de la rubrique judiciaire pour l’installer dans un récit beaucoup plus vaste : celui de notre fascination contemporaine pour les machines qui parlent. Ce basculement dit moins quelque chose sur l’IA que sur nous-mêmes : dès qu'un outil conversationnel apparaît dans une affaire sensible, nous cessons de voir le logiciel et nous commençons à imaginer le personnage. Une chronique de Stéphane Peeters, Senior AI Strategist chez Captain IA.
Publié par Stéphane Peeters
• Mis à jour le
Résumé de l'article
Associer une question à ChatGPT au crime que vous venez de commettre ? Ou comment l'affaire Darron Lee bouscule les préjugés envers l'IA.
Il y a des dossiers judiciaires qui restent locaux. Et puis il y a ceux qui, par un simple détail, deviennent les symptômes d’époque.
L’affaire Darron Lee appartient à cette seconde catégorie. Non pas parce que cet ancien joueur de foot américain serait une figure familière en Europe, il ne l’est pas, mais parce qu’un nom a suffi à transformer la lecture du dossier : ChatGPT.
Imaginez la scène, telle que la décrivent les rapports de police : une maison de banlieue dans le Tennessee, une jeune femme gisant au sol après avoir subi des coups d’une violence folle, et dans le silence lourd qui suit le drame, la lumière bleutée d’un écran de smartphone.
Sur cet écran, un prompt tapé en urgence : « Que dois-je dire à mon ami pour gérer une personne inerte, mais sans impliquer la police ? »
Dès l'instant où le procureur a brandi ces historiques de conversation, accusant l'ancien sportif d'avoir utilisé l'intelligence artificielle comme « conseiller juridique » pour nettoyer une scène de crime, la machine médiatique s'est emballée. Le récit était trop beau, trop dystopique pour qu'on y résiste : un meurtre assisté par IA.
À partir de là, l’affaire ne parle plus seulement d’un homicide présumé. Elle devient un récit sur notre époque.
C’est presque mécanique. Le fait divers quitte la page justice pour entrer dans une autre catégorie : celle du vertige technologique. Ce dossier judiciaire n’est plus seulement lu à travers les éléments matériels, les versions contradictoires, les accusations et la procédure. Il est recodé comme une histoire sur l’IA. Tout change alors : le vocabulaire, l’angle, la portée symbolique.
L’anthropomorphisme de la culpabilité
Le premier enseignement de ce drame est psychologique. Face à l'insoutenable réalité de la violence, l'esprit humain cherche une validation extérieure. Traditionnellement, un criminel acculé pourrait appeler un ami, un avocat, ou chercher l'absolution auprès d'une figure religieuse.
Aujourd'hui, il s'en remet à une matrice mathématique.
Pourquoi ? Parce que nous avons commencé à percevoir ces modèles de langage non pas comme des générateurs de textes probabilistes, mais comme des entités empathiques et omniscientes. L’IA ne juge pas. Elle ne panique pas. Elle répond “J'ai compris” avant de lister méthodiquement une liste de solutions à notre problème.
Cette confusion, entre l'outil (un algorithme prédictif) et l'intentionnalité (un complice qui vous aide), est la maladie infantile de notre ère IA. La machine n'avait aucun moyen de savoir qu'un meurtre venait peut-être d'être commis ; elle répondait simplement à une requête sur une situation hypothétique fournie par un utilisateur qui lui mentait sciemment
D'ailleurs, confrontée à la gravité des symptômes décrits, l'IA a fini par alerter qu'il fallait chercher une aide médicale d'urgence. Preuve s'il en faut que le vernis du "robot complice" craque dès qu'on regarde le fonctionnement réel du code.
L'illusion du confessionnal numérique
Le second enseignement est d'ordre civil et légal. Combien de millions d'individus confient aujourd'hui leurs doutes, leurs erreurs professionnelles, leurs symptômes médicaux inavouables ou leurs secrets intimes à des chatbots, avec la certitude naïve que cet espace est totalement privé ?
L'affaire Darron Lee pulvérise cette illusion du confessionnal numérique. Contrairement à un avocat, à un médecin ou à un prêtre, les IA ne sont soumises à aucun secret professionnel.
Si vous n’avez pas pris les précautions nécessaires, chaque mot, chaque hésitation syntaxique, chaque question posée à 3 heures du matin est enregistrée sur un serveur tiers, métadonnée et potentiellement récupérable par la justice sur simple mandat.
Les avocats spécialisés le répètent depuis des mois : la vie privée conditionnelle offerte par les conditions d'utilisation des géants de la tech ne pèse rien face au droit pénal.
En pensant trouver un allié silencieux pour effacer ses traces, l'accusé a ironiquement généré la pièce à conviction la plus accablante et chronologique de son propre procès.
Le vrai révélateur : notre imaginaire collectif
L’intérêt de cette affaire n’est donc pas seulement judiciaire. Il est anthropologique.
Elle montre à quel point nous projetons sur les IA génératives des qualités qu’elles n’ont pas. Nous y voyons de l’intention là où il n’y a qu’une production probabiliste. Nous y voyons de la stratégie là où il n’y a qu’une reformulation. Nous y voyons parfois une forme de présence là où il n’y a qu’un système conversationnel bien entraîné à paraître cohérent.
Cette projection n’est pas anodine. Elle dit quelque chose de notre fragilité culturelle face aux machines qui maîtrisent le langage. Pendant longtemps, parler, argumenter, reformuler, persuader, ont été perçus comme des attributs profondément humains. Quand une interface technique entre sur ce terrain, elle dérègle nos réflexes d’interprétation. Nous avons tendance à lui accorder plus qu’elle ne fait réellement.
Le contrepoint nécessaire
Il serait absurde, à l’inverse, de balayer toute question technologique. Les modèles génératifs posent de vrais enjeux de sûreté, de garde-fous, de modération, d’usages détournés. Lorsqu’ils deviennent des interfaces quotidiennes de recherche, de reformulation ou de simulation, ils modifient les conditions d’exercice de certaines actions humaines, y compris les plus dangereuses.
Mais c’est précisément pour cela qu’il faut être rigoureux.
Le bon débat n’est pas : “L’IA est-elle devenue criminelle ?”
Le bon débat est : “Que change socialement l’accès permanent à des outils conversationnels capables de produire instantanément des formulations crédibles, des scénarios plausibles, des réponses fluides, y compris dans des contextes moralement problématiques ?”
La nuance est décisive. Dans un cas, on bascule dans la mythologie. Dans l’autre, on entre enfin dans une analyse sérieuse des usages, des limites des modèles et de la responsabilité des acteurs humains qui les conçoivent ou les mobilisent.
Ce que cette affaire dit vraiment de nous
Au fond, cette affaire ne marque pas l’entrée de l’IA dans le crime. Elle marque l’entrée du récit sur l’IA dans tous les domaines du réel.
Dès qu’un chatbot apparaît, même à la périphérie d’un fait divers, nous réorganisons le sens autour de lui. Nous cessons de voir un outil textuel pour lui donner une épaisseur dramatique. C’est ce réflexe qu’il faut interroger. Car il dit quelque chose de très contemporain : nous avons tendance à projeter sur la machine une part de notre malaise moral, comme si elle pouvait absorber ce que nous ne voulons plus regarder en face dans les comportements humains.
C’est peut-être cela, le vrai sujet. Non pas le fantasme d’une IA qui agirait comme un complice. Mais notre besoin croissant de transformer les technologies en personnages pour mieux raconter nos propres vertiges.
L'intelligence artificielle n'est pas un démon tapi dans l'ombre de nos poches, prêt à nous aider à enfouir nos cadavres. Elle n'est qu'un miroir. Un miroir algorithmique d'une froideur abyssale, qui reflète la requête qu'on lui tend, sans filtre, sans morale et sans oubli. Si l'image qui nous revient aujourd'hui depuis les tribunaux du Tennessee est insoutenable, ce n'est pas parce que le miroir est cassé. C'est simplement parce que le reflet de l'âme humaine, poussée dans ses ultimes retranchements criminels, reste la chose la plus terrifiante à contempler.