L’IA au banc des accusés : le procès Jubillar comme signal d’alerte
IA procès Jubillar : pour la première fois en France, une affaire criminelle majeure illustre les tensions entre vérité judiciaire et désinformation algorithmique. De fausses vidéos aux arguments produits par une intelligence artificielle, ce procès interroge la place de la machine dans la recherche de la vérité et les limites d’une justice confrontée à l’ère numérique.
L’affaire Jubillar, miroir d’une justice à l’ère numérique
Image issue du procès de Cédric Jubillar, 17 octobre 2025
Le procès de Cédric Jubillar, jugé pour le meurtre de sa femme Delphine, a bouleversé non seulement la France, mais aussi la manière dont nous percevons la justice à l’ère de l’intelligence artificielle.
Derrière la gravité des faits et l’émotion nationale, ce procès a révélé une fracture inquiétante : celle entre la justice humaine lente, méthodique, fragile et la justice médiatique dopée par les algorithmes.
Car pour la première fois, l’IA a pénétré un procès d’assises. Non pas comme outil d’enquête, mais comme distorsion du réel : génératrice de rumeurs, productrice de faux contenus, et même, paradoxalement, conseillère d’un témoin virtuel.
L’IA, fabrique moderne du faux judiciaire
image illustrative de la justice face à l'IA
Des vidéos “IA-fabriquées” plus crédibles que les faits : l'affaire Jubillar
À mesure que s’ouvrait le procès à Albi, les réseaux sociaux ont vu fleurir une multitude de vidéos au sujet de l’affaire Jubillar. Sur TikTok notamment, certaines cumulaient plusieurs millions de vues en prétendant révéler des éléments inédits : la découverte du corps de Delphine Jubillar, des aveux filmés, voire une reconstitution “exclusive”. En réalité, il s’agissait de contenus fabriqués à l’aide d’IA générative, mêlant voix de synthèse, photos truquées et fausses dépêches d’agences. (La Dépêche, 9 octobre 2025 🔗)
Ces vidéos témoignent d’un phénomène plus profond : la mutation du mensonge. Là où la rumeur autrefois se transmettait oralement, elle se matérialise aujourd’hui sous la forme d’un deepfake visuel et sonore, difficile à distinguer du vrai. La crédibilité n’est plus dans la preuve, mais dans la qualité du montage.
Une menace pour la présomption d’innocence
L’enjeu juridique est majeur. En saturant l’espace public de contenus falsifiés, ces IA sapent un pilier fondamental du droit : la présomption d’innocence, consacrée par l’article 9 de la Déclaration des Droits de l’Homme et du Citoyen et l’article 6 de la Convention européenne des droits de l’homme.
La désinformation algorithmique agit en amont du procès : elle fabrique l’opinion avant même que les juges délibèrent.
Or, dans les affaires pénales hypermédiatisées, la frontière entre justice et spectacle devient poreuse. Ce contexte médiatique “augmenté” rend d’autant plus fragile le principe selon lequel un accusé doit être jugé selon les preuves, et non selon la perception collective.
Quand un témoin se fait conseiller par ChatGPT : Affaire Jubillar
image illustrative de la justice face à l'IA
L’épisode surréaliste de “l’ami virtuel” de Jubillar
C’est un détail qui aurait pu prêter à sourire s’il n’avait pas révélé une mutation plus profonde du rapport entre l’homme et la machine.
Lors du procès, un témoin du nom de Cyril H. présenté comme un « ami virtuel » de Cédric Jubillar rencontré sur un jeu en ligne a pris la parole pour défendre l’accusé. Dans une salle d’audience stupéfaite, il a expliqué avoir “consulté” ChatGPT et Grok (IA de X) pour appuyer sa conviction de l’innocence de Cédric. Il aurait demandé :
« Au bout de combien de temps trouve-t-on des preuves dans les affaires de féminicide ? » et conclu, sur la base de réponses statistiques, qu’après quatre ans sans corps ni scène de crime, une condamnation serait “peu probable”.
Ce “témoignage augmenté” a déclenché un tollé. L’avocat général lui aurait rétorqué :
« On aurait préféré se passer de vous. »
Une dérive révélatrice
Derrière l’anecdote se cache une tendance lourde : l’externalisation du jugement moral à la machine.
Dans un contexte où l’opinion cherche des certitudes, certains confient à l’IA le soin d’évaluer la probabilité d’une culpabilité, comme on demanderait à un moteur de recherche une vérité mathématique.
Mais une IA ne juge pas. Elle corrèle, elle approxime, elle interprète des patterns dans des données passées. Elle ne connaît ni le doute, ni l’intention, ni la singularité d’une personne. Sa logique probabiliste est étrangère à la logique juridique, fondée sur le débat contradictoire et l’intime conviction.
Cette confusion entre assistance cognitive et décision judiciaire ouvre un risque inédit : celui d’une justice sans humanité, où la probabilité tend à remplacer la preuve.
Peut-on se confier à l’IA dans un procès ?
Les promesses techniques face aux limites morales
D’un point de vue pratique, l’IA séduit par sa puissance d’analyse. Elle peut trier des milliers de documents, extraire des motifs récurrents, repérer des contradictions, identifier des corrélations. Elle est déjà utilisée par certains tribunaux pour la gestion des flux de dossiers ou la recherche de jurisprudence.
Mais la confiance qu’on lui accorde doit rester instrumentale et non décisionnelle. Une IA n’a ni discernement, ni conscience juridique : elle calcule, elle ne juge pas. Confier à une IA le soin de statuer reviendrait à substituer le droit par le code, la raison humaine par la statistique.
La question n’est donc pas « faut-il une IA juge ? », mais :
comment encadrer juridiquement son usage sans altérer la fonction de juger ?
Les précédents : justice prédictive et encadrement européen
Depuis plusieurs années, la “justice prédictive” s’est imposée comme champ de recherche.
Des plateformes comme Predictice ou Case Law Analytics en France exploitent des algorithmes pour estimer les chances de succès d’un procès ou prédire le montant d’une indemnisation. Ces outils, souvent utilisés par les avocats, n’ont aucune valeur légale : ils fournissent une base statistique, non une interprétation du droit.
Le Conseil d’État, dans son rapport de 2022, a d’ailleurs souligné la nécessité de préserver la souveraineté du juge face à la donnée. Et le Règlement européen sur l’intelligence artificielle (AI Act) interdit déjà l’usage de systèmes décisionnels autonomes dans les fonctions régaliennes de justice.
Autrement dit : l’algorithme peut assister, jamais décider.
Vers une justice algorithmique ?
Le rêve d’un juge sans biais
Certains chercheurs et juristes, séduits par l’idée d’une justice “pure”, envisagent un futur où un algorithme juridique pourrait analyser objectivement les dossiers, comparer les éléments, et recommander une peine.
Une justice dépouillée de ses émotions, de ses subjectivités, de ses lenteurs.
Mais cette utopie cache un paradoxe : l’algorithme, censé éliminer le biais, ne fait que le reproduire. Formé sur des décisions humaines, il hérite de leurs erreurs, de leurs stéréotypes, de leurs angles morts. Un algorithme juridique deviendrait alors le reflet mathématisé de nos injustices passées.
Le juge, lui, demeure l’un des rares espaces où la subjectivité est non seulement tolérée, mais nécessaire. Car juger, ce n’est pas appliquer un modèle, c’est pondérer l’humain.
- Illustration de Cédric Jubillar se tenant debout lors de son procès en date du 17 octobre 2025 -
Les perspectives possibles : une justice augmentée
Plutôt que d’imaginer une justice automatisée, il faut penser une justice augmentée : où l’IA assiste dans l’analyse documentaire, aide à repérer les incohérences,
fluidifie la recherche juridique, mais laisse la décision à l’homme.
Cette justice hybride pourrait améliorer l’efficacité sans sacrifier la légitimité. Elle suppose toutefois un encadrement strict : traçabilité des algorithmes, transparence des critères, droit à la contestation des résultats.
La tentation de la justice algorithmique
Dans certains pays, la justice prédictive gagne du terrain. Aux États-Unis ou en Chine, des logiciels analysent les précédents pour estimer les peines ou la probabilité de récidive.
En France, cette réflexion s’est institutionnalisée : la Cour de cassation a publié en avril 2025 un rapport détaillant les usages possibles de l’IA au service de la justice et les garanties éthiques qui doivent l’encadrer. Ce document, que nous analysons plus en détail dans notre article L’intelligence artificielle au service de la justice : un rapport structurant de la Cour de cassation (avril 2025), rappelle que l’IA ne peut intervenir qu’en appui de la décision, jamais en remplacement du juge.
Mais ces outils posent une question centrale :
“Peut-on être jugé par un modèle entraîné sur les injustices du passé ?”
La leçon du procès Jubillar
Le procès de Cédric Jubillar, clos par une condamnation à trente ans de réclusion, restera comme un cas d’école. Il révèle une époque où la vérité judiciaire se joue autant dans la salle d’audience que sur les réseaux, entre les mains d’humains et d’algorithmes.
Cette affaire marque le point de bascule entre deux justices : celle des preuves, et celle des perceptions. Entre le discernement humain, capable d’hésiter, et la froide logique de la donnée, qui prétend conclure sans douter.
Demain, l’IA sera peut-être un acteur incontournable des tribunaux. Mais elle ne pourra jamais remplacer le regard d’un juge, ni la parole d’un témoin, ni la conscience d’une société. Car comme le rappelait le doyen Carbonnier :
« La justice est une œuvre humaine avant d’être un mécanisme. »
L’intelligence artificielle a-t-elle été utilisée pendant le procès ?
Non. L’IA n’a eu aucun rôle dans la procédure judiciaire, mais elle a été utilisée dans la diffusion de fausses vidéos sur les réseaux sociaux pendant le procès (La Dépêche du Midi, 9 octobre 2025).
Ces vidéos sont-elles illégales ?
Oui. La diffusion d’images ou de contenus falsifiés peut constituer une infraction au titre des articles 226-1 et 226-8 du Code pénal relatifs à l’atteinte à la vie privée et à la manipulation d’images.
Une défense peut-elle s’appuyer sur une IA ?
Non. Les productions issues d’une IA n’ont aucune valeur probante en droit : seules les preuves matérielles, scientifiques ou testimoniales reconnues par le juge sont recevables.
L’IA peut-elle être utilisée par la justice française ?
Oui, mais uniquement comme outil d’assistance (analyse de dossiers, recherche jurisprudentielle). L’AI Act européen et le Conseil d’État interdisent tout usage décisionnel autonome.
Qu’est-ce que la “justice algorithmique” ?
C’est une justice partiellement fondée sur des modèles de données. Elle pose des risques éthiques et juridiques majeurs : biais, opacité et atteinte au droit à un procès équitable garanti par l’article 6 de la CEDH.
CtrlZed prend-il position dans l’affaire ?
Non. CtrlZed ne se prononce pas sur la culpabilité ou l’innocence des parties. L’article a pour seul objet d’analyser les enjeux juridiques et technologiques liés à l’usage de l’intelligence artificielle dans le cadre judiciaire.
Note de la rédaction CtrlZed rappelle qu’il ne prend aucun parti dans l’affaire Jubillar et n’émet aucun jugement sur la culpabilité ou l’innocence des personnes concernées. Conformément à l’article 10 de la Convention européenne des droits de l’homme, cet article relève de la liberté d’expression et d’information, dans le respect de la présomption d’innocence et de l’indépendance de la justice. Il a pour seul objet l’analyse des enjeux juridiques et technologiques liés à l’usage de l’intelligence artificielle dans le cadre judiciaire.
IA procès Jubillar : pour la première fois en France, une affaire criminelle majeure illustre les tensions entre vérité judiciaire et désinformation algorithmique. De fausses vidéos aux arguments produits par une intelligence artificielle, ce procès interroge la place de la machine dans la recherche de la vérité et les limites d’une justice confrontée à l’ère numérique.
L’affaire Jubillar, miroir d’une justice à l’ère numérique
Image issue du procès de Cédric Jubillar, 17 octobre 2025
Le procès de Cédric Jubillar, jugé pour le meurtre de sa femme Delphine, a bouleversé non seulement la France, mais aussi la manière dont nous percevons la justice à l’ère de l’intelligence artificielle.
Derrière la gravité des faits et l’émotion nationale, ce procès a révélé une fracture inquiétante : celle entre la justice humaine lente, méthodique, fragile et la justice médiatique dopée par les algorithmes.
Car pour la première fois, l’IA a pénétré un procès d’assises. Non pas comme outil d’enquête, mais comme distorsion du réel : génératrice de rumeurs, productrice de faux contenus, et même, paradoxalement, conseillère d’un témoin virtuel.
L’IA, fabrique moderne du faux judiciaire
image illustrative de la justice face à l'IA
Des vidéos “IA-fabriquées” plus crédibles que les faits
À mesure que s’ouvrait le procès à Albi, les réseaux sociaux ont vu fleurir une multitude de vidéos au sujet de l’affaire Jubillar. Sur TikTok notamment, certaines cumulaient plusieurs millions de vues en prétendant révéler des éléments inédits : la découverte du corps de Delphine Jubillar, des aveux filmés, voire une reconstitution “exclusive”. En réalité, il s’agissait de contenus fabriqués à l’aide d’IA générative, mêlant voix de synthèse, photos truquées et fausses dépêches d’agences. (La Dépêche, 9 octobre 2025 🔗)
Ces vidéos témoignent d’un phénomène plus profond : la mutation du mensonge. Là où la rumeur autrefois se transmettait oralement, elle se matérialise aujourd’hui sous la forme d’un deepfake visuel et sonore, difficile à distinguer du vrai. La crédibilité n’est plus dans la preuve, mais dans la qualité du montage.
Une menace pour la présomption d’innocence
L’enjeu juridique est majeur. En saturant l’espace public de contenus falsifiés, ces IA sapent un pilier fondamental du droit : la présomption d’innocence, consacrée par l’article 9 de la Déclaration des Droits de l’Homme et du Citoyen et l’article 6 de la Convention européenne des droits de l’homme.
La désinformation algorithmique agit en amont du procès : elle fabrique l’opinion avant même que les juges délibèrent.
Or, dans les affaires pénales hypermédiatisées, la frontière entre justice et spectacle devient poreuse. Ce contexte médiatique “augmenté” rend d’autant plus fragile le principe selon lequel un accusé doit être jugé selon les preuves, et non selon la perception collective.
Quand un témoin se fait conseiller par ChatGPT
image illustrative de la justice face à l'IA
L’épisode surréaliste de “l’ami virtuel”
C’est un détail qui aurait pu prêter à sourire s’il n’avait pas révélé une mutation plus profonde du rapport entre l’homme et la machine.
Lors du procès, un témoin du nom de Cyril H. présenté comme un « ami virtuel » de Cédric Jubillar rencontré sur un jeu en ligne a pris la parole pour défendre l’accusé. Dans une salle d’audience stupéfaite, il a expliqué avoir “consulté” ChatGPT et Grok (IA de X) pour appuyer sa conviction de l’innocence de Cédric. Il aurait demandé :
« Au bout de combien de temps trouve-t-on des preuves dans les affaires de féminicide ? » et conclu, sur la base de réponses statistiques, qu’après quatre ans sans corps ni scène de crime, une condamnation serait “peu probable”.
Ce “témoignage augmenté” a déclenché un tollé. L’avocat général lui aurait rétorqué :
« On aurait préféré se passer de vous. »
Une dérive révélatrice
Derrière l’anecdote se cache une tendance lourde : l’externalisation du jugement moral à la machine.
Dans un contexte où l’opinion cherche des certitudes, certains confient à l’IA le soin d’évaluer la probabilité d’une culpabilité, comme on demanderait à un moteur de recherche une vérité mathématique.
Mais une IA ne juge pas. Elle corrèle, elle approxime, elle interprète des patterns dans des données passées. Elle ne connaît ni le doute, ni l’intention, ni la singularité d’une personne. Sa logique probabiliste est étrangère à la logique juridique, fondée sur le débat contradictoire et l’intime conviction.
Cette confusion entre assistance cognitive et décision judiciaire ouvre un risque inédit : celui d’une justice sans humanité, où la probabilité tend à remplacer la preuve.
Peut-on se confier à l’IA dans un procès ?
Les promesses techniques face aux limites morales
D’un point de vue pratique, l’IA séduit par sa puissance d’analyse. Elle peut trier des milliers de documents, extraire des motifs récurrents, repérer des contradictions, identifier des corrélations. Elle est déjà utilisée par certains tribunaux pour la gestion des flux de dossiers ou la recherche de jurisprudence.
Mais la confiance qu’on lui accorde doit rester instrumentale et non décisionnelle. Une IA n’a ni discernement, ni conscience juridique : elle calcule, elle ne juge pas. Confier à une IA le soin de statuer reviendrait à substituer le droit par le code, la raison humaine par la statistique.
La question n’est donc pas « faut-il une IA juge ? », mais :
comment encadrer juridiquement son usage sans altérer la fonction de juger ?
Les précédents : justice prédictive et encadrement européen
Depuis plusieurs années, la “justice prédictive” s’est imposée comme champ de recherche.
Des plateformes comme Predictice ou Case Law Analytics en France exploitent des algorithmes pour estimer les chances de succès d’un procès ou prédire le montant d’une indemnisation. Ces outils, souvent utilisés par les avocats, n’ont aucune valeur légale : ils fournissent une base statistique, non une interprétation du droit.
Le Conseil d’État, dans son rapport de 2022, a d’ailleurs souligné la nécessité de préserver la souveraineté du juge face à la donnée. Et le Règlement européen sur l’intelligence artificielle (AI Act) interdit déjà l’usage de systèmes décisionnels autonomes dans les fonctions régaliennes de justice.
Autrement dit : l’algorithme peut assister, jamais décider.
Vers une justice algorithmique ?
Le rêve d’un juge sans biais
Certains chercheurs et juristes, séduits par l’idée d’une justice “pure”, envisagent un futur où un algorithme juridique pourrait analyser objectivement les dossiers, comparer les éléments, et recommander une peine.
Une justice dépouillée de ses émotions, de ses subjectivités, de ses lenteurs.
Mais cette utopie cache un paradoxe : l’algorithme, censé éliminer le biais, ne fait que le reproduire. Formé sur des décisions humaines, il hérite de leurs erreurs, de leurs stéréotypes, de leurs angles morts. Un algorithme juridique deviendrait alors le reflet mathématisé de nos injustices passées.
Le juge, lui, demeure l’un des rares espaces où la subjectivité est non seulement tolérée, mais nécessaire. Car juger, ce n’est pas appliquer un modèle, c’est pondérer l’humain.
- Illustration de Cédric Jubillar se tenant debout lors de son procès en date du 17 octobre 2025 -
Les perspectives possibles : une justice augmentée
Plutôt que d’imaginer une justice automatisée, il faut penser une justice augmentée : où l’IA assiste dans l’analyse documentaire, aide à repérer les incohérences,
fluidifie la recherche juridique, mais laisse la décision à l’homme.
Cette justice hybride pourrait améliorer l’efficacité sans sacrifier la légitimité. Elle suppose toutefois un encadrement strict : traçabilité des algorithmes, transparence des critères, droit à la contestation des résultats.
La leçon du procès Jubillar
Le procès de Cédric Jubillar, clos par une condamnation à trente ans de réclusion, restera comme un cas d’école. Il révèle une époque où la vérité judiciaire se joue autant dans la salle d’audience que sur les réseaux, entre les mains d’humains et d’algorithmes.
Cette affaire marque le point de bascule entre deux justices : celle des preuves, et celle des perceptions. Entre le discernement humain, capable d’hésiter, et la froide logique de la donnée, qui prétend conclure sans douter.
Demain, l’IA sera peut-être un acteur incontournable des tribunaux. Mais elle ne pourra jamais remplacer le regard d’un juge, ni la parole d’un témoin, ni la conscience d’une société. Car comme le rappelait le doyen Carbonnier :
« La justice est une œuvre humaine avant d’être un mécanisme. »
L’intelligence artificielle a-t-elle été utilisée pendant le procès ?
Non. L’IA n’a eu aucun rôle dans la procédure judiciaire, mais elle a été utilisée dans la diffusion de fausses vidéos sur les réseaux sociaux pendant le procès (La Dépêche du Midi, 9 octobre 2025).
Ces vidéos sont-elles illégales ?
Oui. La diffusion d’images ou de contenus falsifiés peut constituer une infraction au titre des articles 226-1 et 226-8 du Code pénal relatifs à l’atteinte à la vie privée et à la manipulation d’images.
Une défense peut-elle s’appuyer sur une IA ?
Non. Les productions issues d’une IA n’ont aucune valeur probante en droit : seules les preuves matérielles, scientifiques ou testimoniales reconnues par le juge sont recevables.
L’IA peut-elle être utilisée par la justice française ?
Oui, mais uniquement comme outil d’assistance (analyse de dossiers, recherche jurisprudentielle). L’AI Act européen et le Conseil d’État interdisent tout usage décisionnel autonome.
Qu’est-ce que la “justice algorithmique” ?
C’est une justice partiellement fondée sur des modèles de données. Elle pose des risques éthiques et juridiques majeurs : biais, opacité et atteinte au droit à un procès équitable garanti par l’article 6 de la CEDH.
CtrlZed prend-il position dans l’affaire ?
Non. CtrlZed ne se prononce pas sur la culpabilité ou l’innocence des parties. L’article a pour seul objet d’analyser les enjeux juridiques et technologiques liés à l’usage de l’intelligence artificielle dans le cadre judiciaire.
Note de la rédaction CtrlZed rappelle qu’il ne prend aucun parti dans l’affaire Jubillar et n’émet aucun jugement sur la culpabilité ou l’innocence des personnes concernées. Conformément à l’article 10 de la Convention européenne des droits de l’homme, cet article relève de la liberté d’expression et d’information, dans le respect de la présomption d’innocence et de l’indépendance de la justice. Il a pour seul objet l’analyse des enjeux juridiques et technologiques liés à l’usage de l’intelligence artificielle dans le cadre judiciaire.