Sommaire du numéro de 2025

IA

Rémy Heitz, L'I.A. dans la justice : une promesse conditionnée,

Un entretien avec le Procureur général près la Cour de cassation
Mots-clef :




René Sève, L'I.A. dans son juste milieu.
Présentation générale du tome 66
Mots-clef :




Charlotte Jacquemot, Intelligence artificielle / intelligence humaine : qui contrôle qui ?,

À travers l’exemple du film 2001, l’Odyssée de l’espace, ce chapitre illustre les défis posés par une I.A. capable de prendre des décisions contraires aux intérêts humains. Mais les décisions humaines sont-elles toujours rationnelles et éthiques ? En réalité, le processus cognitif de prise de décision est influencé par des biais cognitifs qui affectent notre comportement et nos choix. L’I.A. reproduit ces biais, voire les exploite, ce qui peut influencer nos décisions et jugements.Derrière les algorithmes d’I.A., ce sont parfois des individus peu soucieux des droits fondamentaux qui imposent leurs règles. Pour faire face aux enjeux éthiques et sociétaux soulevés par l’I.A. et son contrôle, la régulation des plateformes numériques et l’éducation sont des leviers essentiels. La régulation doit incarner des choix éthiques, juridiques et politiques, tandis que l’éducation doit renforcer la littératie numérique et enseigner à faire des choix éclairés et critiques face aux technologies numériques.
Mots-clef : Biais cognitifs – processus de prise décision – régulation – éducation

t. 66, 2025, p.3-16


Paul Landrier, I.A. et recherche en mathématiques : théorie et leçons d’un colloque récent,

Nous traitons dans cet article des interactions entre l’I.A. et la recherche en mathé¬matiques. Dans un premier temps, nous rappelons et expliquons des résultats d’informatique théorique et de logique mathématique, notamment de Kurt Gödel et d’Alan Turing, qui permettent de préciser le rôle que peut jouer l’informatique, et en particulier l’I.A., pour la recherche en mathématiques. Dans un second temps, nous présentons certains exemples récents d’application de l’I.A. à la recherche en mathématiques issus d’un colloque. Ces exemples sont articulés avec le cadre théorique présenté en première partie, et permettent d’appréhender concrètement les apports de l’I.A. aux mathématiques. Un·e lecteur·ice non familier·ère des mathématiques devrait pouvoir apprécier pleinement ce texte en y trou¬vant un exemple rigoureusement encadré d’application de l’I.A. à une discipline. Cette rigueur mathéma¬tique permet à la fois de prendre en compte les limites inhérentes à ces systèmes, dont nous discutons, et de tirer profit des avancées technologiques les plus récentes.
Mots-clef : Mathématiques – logique – assistants de preuve

t.66, 2025, p.17-28


Yannick Menecoeur, La langue des probables. Principes techniques, enjeux linguistiques et limites des grands modèles de langage pour traiter du raisonnement juridique,

Est-ce que la modélisation opérée par les grands modèles de langage est parvenue à capturer la subtile palette des nuances du raisonnement juridique ? Pour instruire ce sujet, il doit d’abord être établi un cadre d’analyse réunissant les fondements techniques de ces modèles (plongements sémantiques, transformeurs, mécanismes d’attention), leurs enjeux linguistiques et philosophiques (hérités du distributionnalisme et du structuralisme) et leurs limites épistémologiques (opacité, « hallucinations » et absence d’une bonne représentation du monde). Appliqué au droit, ce cadre d’analyse révèle un potentiel réel (comme la recherche de corrélations dans de vastes volumes de textes ou encore la synthèse de contenu), mais limité s’agissant de la reproduction d’un raisonnement juridique rigoureux, notamment du fait du manque de capacités d’abstraction, de compréhension et de conscience normative. Le langage produit par ces modèles serait plutôt à concevoir comme une « langue des probables », un proto-langage vectorisé, calculable et probabiliste, très utile dans certaines hypothèses mais distinct des savoirs spécialisés.
Mots-clef : LLM Transformeurs Distributionnalisme – Structuralisme

t. 66, 2025, p. 29-50


Maël Pégny, Intelligence artificielle et cyber-sécurité,

Cet article présente à un public de juristes la cybersécurité pour l’IA -ou comment sécuriser les IAs- et l’IA comme facteur de risque, ou comment les dynamiques institutionnelles autour de l’IA influencent les risques de sécurité. Pour la sécurisation des IAs, nous présenterons tout d’abord les nouvelles menaces dues aux propriétés intrinsèques de la technologie, comme le prompt engineering ou l’empoisonnement de données. Nous évoquerons ensuite les problèmes liés aux pratiques : l’importance de la désinformation, de l’escroquerie et de la pornographie non-consensuelle assistées par ledeepfake ; l’IA agentique ou les grands modèles de langage comme nouvelles cibles stratégiques ; les risques liés au manque de management de l’IA dans les organisations. Pour l’IA comme facteur de risque, nous évoquerons brièvement les facteurs géopolitiques en décrivant les tensions entre USA et Europe sur les normes affectant l’IA et la cyber sécurité. Nous conclurons avec les facteurs commerciaux, notamment la querelle juridique sur la propriété des données d’entraînement des modèles de langage soumises à la propriété intellectuelle.
Mots-clef : Hacking – Adversarial Examples – Agents intelligents – Deepfake – Clause Opt-out – Model Evasion

t. 66, 2025, p.51-69


Giovanni Tuzet, Carbonell, Marchettoni, Intelligence artificielle, théorie du droit et preuve juridique,

Quel est l’impact de l’intelligence artificielle sur le droit, sa pratique et sa théorie ? L’article aborde deux points de cette question. Premièrement, l’impact sur la théorie du droit, étant donné la possibilité technologique de générer des micro-directives ou des règles personnalisées. Deuxièmement, l’impact sur la preuve juridique, comme l’intelligence artificielle permet non seulement la collecte et l’évaluation d’informations existantes, mais aussi la création d’informations supplémentaires, dont il faut évaluer la fiabilité.
Mots-clef : Micro-directives – Preuve juridique – Théorie du droit

t.66, 2025,p. 71-80


Aurélie Jean, La loi au temps des algorithmes,

Au temps des algorithmes, la loi vit une double transformation dans son utilisation de l’I.A. à travers le concept de justice algorithmisée mais aussi dans l’écriture de nouveaux règlements pour encadrer la conception et l’usage d’I.A. peu importe l’application. L’I.A. présente des opportunités mais aussi des menaces qu’il faut évaluer avec rigueur pour s’en prémunir. En cela, les réflexions et les décisions qui en découlent doivent être orientées par la science sans prendre le risque de construire des textes de loi ou de prendre des mesures déconnectées de la réalité du terrain. La déconstruction des mythes, des contre-vérités, voire des mensonges doit accompagner une consolidation des connaissances tant scienti¬fiques que législatives, et ce pour toutes les parties prenantes : du propriétaire d’une I.A. au législateur en passant par le concepteur et l’utilisateur. Cela passe entre autres par la constitution d’une gouvernance I.A. d’excellence.
Mots-clef : Algorithme

t. 66, 2025, p.81-91


Bruno Deffains, Effets macroéconomiques de l’I.A. et enjeux de sa régulation : une perspective internationale,

L’article analyse les effets macroéconomiques de l’intelligence artificielle et les enjeux liés à sa régulation dans une perspective internationale. Il met en évidence la structuration mondiale de la filière, de la production des semi-conducteurs aux applications sectorielles, en soulignant son rôle straté¬gique et géopolitique. Sur le plan économique, l’I.A. apparaît comme une technologie à usage général susceptible de stimuler la croissance, la productivité et l’innovation, mais avec des effets contrastés sur l’emploi et les inégalités. L’étude compare les approches de régulation aux États-Unis (orientation pro-innovation, encadrement limité), en Chine (planification étatique et contrôle autoritaire) et en Europe (régulation proactive et valeurs humanistes autour de l’AI Act). Elle montre enfin que l’avenir dépendra autant des choix collectifs en matière de gouvernance, de formation et de coopération internationale que des avancées techniques elles-mêmes, condition pour transformer le potentiel de l’I.A. en une prospérité inclusive et durable.
Mots-clef : Macroéconomie – Productivité – Emploi – Régulation

t. 66, 2025, p. 95-108


Yann Guttmann, I.A. générative : pratiques compétitives selon l’Autorité de la concurrence,

L’essor rapide de l’IA générative, portée par des acteurs tels qu’OpenAI ou Google, s’accompagne de mutations économiques et sociétales majeures. Sa conception repose sur trois intrants stratégiques – puissance de calcul, données et talents – dont l’accès, coûteux et limité, constitue une barrière à l’entrée favorisant la concentration du marché.
Dans son avis 24-A-08, l’Autorité de la concurrence (ADLC) analyse les stratégies déployées par les géants du numérique : verrouillage technique et financier via le cloud, accès discriminatoire aux données, prises de participation minoritaires, effets congloméraux et collusion algorithmique.
Soutenu par les nouvelles régulations européennes (AI Act, DMA, Data Act), le droit de la concurrence demeure central pour prévenir la domination d’un oligopole. L’ADLC émets des recommandations pour garantir un l’accès équitable aux capacités de calcul, pour un marché des données équilibré et pour une transparence accrue. L’objectif : faire de l’IA une « place publique » ouverte, et non un « jardin clos » réservé à quelques acteurs hégémoniques.

Mots-clef : Concurrence Régulation BigTech

t. 66, 2025, p.109-120


Blanche Savary, La fonction juridique en entreprise avec l’I.A. : le point de vue d’une entreprise française,

Mistral AI est aux avant-postes de la relation entre I.A. et droit, en tant que jeune fournisseur européen de modèles d’I.A., dans un univers à la réglementation émergente et dominé par des géants bien établis. L’I.A. est par ailleurs une technologie dont la pratique juridique est un des terrains de prédilection. De cette expérience croisée naissent certaines convictions fortes sur la manière dont l’interaction entre I.A. et droit peut participer à créer de la confiance.
Mots-clef : Concurrence – Modèles – Surcouches applicatives – Accessibilité du droit

t. 66, 2025, p. 121-123


Besma Bouzama, L’intelligence artificielle et les obligations réglementaires d’une grande entreprise,

Un entretien avec la Directrice juridique du groupe Accor
Mots-clef : Intelligence artificielle

t. 66, 2025, p. 125-127


Sonya Djemni-Wagner, L’approche européenne de l’impact de l’I.A. sur les métiers du droit,

L’Europe est devenue pionnière en matière de régulation de l’intelligence artificielle, avec l’adoption quasi simultanée du règlement de l’Union européenne (I.A. Act) et de la Convention-cadre du Conseil de l’Europe sur l’I.A. Cet article analyse les implications de ce double cadre pour la justice, en examinant les premiers usages de l’I.A. dans les juridictions et les conditions de leur légitimité, entre innovation, souveraineté et protection des droits fondamentaux.
Mots-clef : AI Act, CEDH, CEPEJ

t. 66, 2025, p. 131-140


Olivier Wiesike, L’Intelligence artificielle au service de la justice en Allemagne,

À l’instar de la France, l’Allemagne explore activement l’intégration de l’intelligence artificielle (IA), en particulier des grands modèles de langage (Large Language Model, LLM), dans le domaine de la justice. Si l’intérêt pour l’IA est principalement motivé par la recherche de l’efficacité et de gain de temps, des préoccupations fondamentales en matière de légitimité constitutionnelle demeurent et font l’objet de débats nourris. De nombreux projets ont été lancés dans différents Länder et une coordination au niveau fédéral par le ministère fédéral de la justice a été récemment mise en place. La manière dont ces différents systèmes pourront concrètement répondre aux (nombreuses) limites constitutionnelles reste, à ce stade, assez floue.
Mots-clef : Constitutionalité − Indépendance judiciaire − Droit au juge

t. 66, 2025, p. 141-150


Legendre, Drouard et Argyris, I.A. et common law : accompagner l’innovation sans la définir a priori,

La régulation de l'I.A. exacerbe les différences entre les systèmes juridiques de common law et de droit romano-germanique. Le common law privilégie une approche réactive, utilisant des normes traditionnelles (loyauté, non-discrimination, etc.) pour réguler l'usage de l'I.A., priorisant la compétitivité et la sécurité nationale. Cette approche, soutenue par l'OCDE, favorise l'émergence de champions technologiques nationaux, mettant l'accent sur l'accès aux données, aux semi-conducteurs et au stockage. L'Union européenne, au contraire, adopte une approche préventive et prescriptive, anticipant les risques sociétaux et démocratiques. Aux États-Unis, la régulation est fragmentée entre le fédéral et les États, tandis qu'au Royaume-Uni, une approche décentralisée évalue les impacts au cas par cas. L'Australie et la Nouvelle-Zélande utilisent des critères d'identification de risques sans restrictions contraignantes. Malgré des différences d'approche, tous ces pays accordent une attention particulière aux systèmes d'I.A. à risque (santé, justice, sécurité publique), mais la compétition économique et techno¬logique reste un facteur déterminant.
Mots-clef : Droit comparé – monde anglo-saxon

t. 66, 2025, p. 151-165


Bertrand Hartemann, La main invisible de l’infrastructure : vers un socialisme algorithmique en Chine,

La gouvernance numérique en Chine révèle l’émergence d’une souveraineté programmable, où les règles d’allocation et de contrôle s’inscrivent dans le système technique. Inspiré du légisme, le modèle déplace la centralité du droit vers la technè et engendre un capitalisme infrastructurel fondé sur l’hybridation État-marché. L’édification d’une architecture nationale de la donnée constitue le socle d’un environnement programmable.
Mots-clef : Chine infrastructures programmabilité

t. 66 2025, p. 166-176


Souichirou Kozuka, Le cas du Japon,

Au Japon, l’utilisation de l’intelligence artificielle dans le domaine juridique a commencé avec des services commerciaux destinés aux grandes entreprises, connus sous le nom de « legal tech », plutôt qu’avec les tribunaux. Elle a immédiatement suscité des controverses concernant la pratique illégale du droit (unauthorized practice of law). Le ministère de la Justice a publié des lignes directrices, suivies par la publication de principes de gouvernance émanant des principaux prestataires de services. Entre-temps, les technologies de prédiction des jugements progressent. Les données nécessaires pour alimenter les systèmes d’IA prédictifs seront disponibles lorsque la loi récemment adoptée, qui prévoit la publication de toutes les décisions civiles, entrera pleinement en vigueur. À l’avenir, le recours à l’IA par les tribunaux ou les services juridiques des entreprises pourrait influencer le raisonnement juridique en droit japonais. Par ailleurs, les attentes du public quant au rôle des avocats et des juges pourraient également évoluer. Il est attendu que cette tension entre la logique de l’IA et la logique du droit soit correctement comprise grâce au dialogue entre juristes et ingénieurs.Legal In Japan, the use of AI in law has started with commercial services for big businesses, known as “legal tech”, rather than with the court. It has immediately raised controversies about the unauthorized practice of law. The Ministry of Justice issued Guidelines, followed by the publication of governance principles by major service providers. In the meantime, technologies for judgment prediction are making progress. The data to feed the AI system for predicting judgments will be available when the law to publish all the civil court cases, just enacted, is fully in force. In future, the deployment of AI by the court or corporate legal division can affect the legal reasoning in Japanese law. Furthermore, the expectation of the public about the role of lawyers and judges may also change. It is expected that such tension between the logic of AI and logic of law is rightly understood, by dialogues between lawyers and engineers.
Mots-clef : publication jugement Japon

t. 66, 2025, p.177-188


Thomas Courbe, Innovation et Régulation : Le rôle de la Direction générale des Entreprises. ,

Un entretien avec le Directeur général de la DGE
Mots-clef :

t.66, 2025, p. 191-195


Denis Beau, Mettre en œuvre une surveillance efficace de l’I.A. dans le secteur financier,

L’intelligence artificielle transforme profondément le secteur financier, en apportant des gains d’efficacité, de sécurité et de personnalisation des services. Toutefois, elle comporte aussi des risques nouveaux, notamment en matière d’explicabilité, d’équité ou de cybersécurité. L’adoption du Règlement européen sur l’I.A. en 2024 introduit un cadre horizontal qui s’ajoute aux réglementations sectorielles existantes. L’ACPR, en tant qu’autorité de supervision du secteur financier, doit adapter ses méthodes, renforcer ses compétences et coopérer avec acteurs publics, privés et académiques pour assurer une surveillance efficace des systèmes d’I.A. L’article explore les enjeux juridiques, méthodologiques et opérationnels de cette évolution.
Mots-clef : Cybersécurité – RegTech – SupTech

t. 66, 2025, p. 197-203


Marie-Anne Barbat-Layani, Entre opportunités et risques : l’intelligence artificielle face aux défis de la régulation financière,

’intelligence artificielle (I.A.) transforme le paysage de la régulation financière, aussi bien pour les autorités de supervision que pour les acteurs de marché. Pour l’Autorité des marchés financiers, elle est un puissant levier pour renforcer sa surveillance, détecter plus efficacement les abus de marché, automatiser l’analyse documentaire et améliorer l’efficacité de ses missions. Du côté de la four¬niture de services d’investissement, l’I.A. ouvre la voie à des gains d’efficience et facilite l’accès à la concurrence, mais elle soulève aussi des enjeux potentiels en termes de stabilité financière, de maîtrise des risques et de protection des investisseurs. Autant de défis sur lesquels les régulateurs, aux niveaux international, européen et national, sont pleinement mobilisés.
Mots-clef : Protection des investisseurs – stabilité financière –Sup Tech – supervision intelligente

t. 66, 2025, p. 205-212


Arnaud Latil, Endiguer la propagation. L’encadrement juridique des risques systémiques en matière d’intelligence artificielle,

Le systémisme – ou la systémique – constitue un courant de pensées, pour certains une science, qui se trouve aujourd’hui au cœur du débat et des politiques publiques . Il figure en particulier au centre de la régulation européenne de l’intelligence artificielle. Le législateur européen a en effet choisi d’encadrer les risques systémiques générés par certains modèles d’I.A. à travers les dispositions du Règlement sur l’intelligence artificielle. L’objectif de cette étude est d’analyser ces dispositions juridiques singulières, en puisant à la source de leurs inspirations intellectuelles, afin d’offrir un cadre de réflexions propice à leur interprétation et leur application.
Mots-clef : Régulation – gouvernance – droits fondamentaux

t. 66, 2025, p. 213-224


Margot Sève, L’I.A. dans la compliance et les enquêtes,

Après avoir rappelé les principes du droit de la compliance, l'intervention traite des différents usages et apports de l'intelligence artificielle dans les programmes de conformité et les enquêtes des entreprises. L'intervention conclut sur les limites intrinsèques de l'usage de l'I.A. en droit, notamment dans l'exercice de l'activité d'avocat.
Mots-clef : Compliance –Enquêtes internes – Department of Justice – Parquet national

t. 66, 2025, p. 225,232


Arnaud Chneiweiss, L’I.A. à la Médiation de l’assurance : quels gains de productivité espérer ?,

Un entretien avec le Médiateur de l’assurance
Mots-clef :

t. 66, 2025, p. 233-236


Emmanuelle Hoffman &Paul Midy, Le parlementarisme renforcé par l’intelligence artificielle,

Entretien avec 2 députés
Mots-clef :

t. 66,2025, p. 239-243


Stéphane Cottin, Le schéma stratégique pour l’intelligence artificielle au Conseil constitutionnel,

Le Conseil constitutionnel français adopte une approche à la fois ambitieuse et prudente face à l’intégration de l’intelligence artificielle dans le domaine de la justice et pour les professionnels du droit. En novembre 2024, il a formalisé un schéma stratégique dédié à l’I.A., marquant sa volonté d’aborder cette technologie de manière structurée et vigilante. Cette position prospective et responsable permet d’envisager l’I.A. comme un levier de performance et de transparence, tout en veillant à ce que son usage reste compatible avec les valeurs républicaines et l’État de droit. Le Conseil constitutionnel se positionne ainsi comme un acteur clé dans la construction d’une justice augmentée par l’I.A., mais toujours centrée sur l’humain et le respect des principes constitutionnels.
En parallèle, le ministère de la Justice, les assemblées, la Cour de cassation, le Conseil d’État et d’autres acteurs du secteur juridique en France s’engagent également dans cette voie, avec de nombreuses expérimentations concrètes, notamment pour alléger les tâches répétitives et améliorer l’efficacité du service public de la justice.

Mots-clef : Production normative – Conseil constitutionnel

t.66, 2025, p. 245-254


Sandrine Zientara-Logeay, L’I.A. au service de l’institution judiciaire : quelles garanties pour le respect des droits fondamentaux ?,

A partir des travaux et des projets conduits tant par la Cour de cassation, pionnière en matière d’IA, que par le ministère de la justice, l’article dresse un panorama exhaustif des usages possibles de l’IA par les magistrarts, dans le cadre de leur activité juridictionnelle, à court et moyen terme. Il analyse les objectifs poursuivis, visant à la recherche de gain fonctionnels, y compris qualitatifs, et à la modernisation de la justice. Nonobstant l’approche, à ce jour prudente, qui est celle de l’institution, ces développement à venir de l’IA sont suceptibles d’avoir des impacts majeurs sur les droits fondamentaux, la place de la justice dans l’Etat de droit et l’office du juge. Se référant aux réflexions menées à cet égard à la Cour de cassation, l’article propose une méthodologie et une gouvernance pour garantir que les futurs programmes d’IA s’inscrivent dans le cadre juridique européen et dans le respect de principes directeurs éthiques.
Mots-clef : Cas d’usage – office du juge – assistance au juge – modernisation

t. 66, 2025, p. 255-266


Peimane Ghaleh-Marzban, L’intelligence artificielle et l’organisation du travail d’une juridiction,

Le développement de l’intelligence artificielle va impacter l’organisation du travail des juridictions. Cette question, qui doit être analysée avec le développement de l’open data, va profondément modifier la fabrique du droit, les décisions de première instance prenant une place inédite dans la construction de la jurisprudence. Au regard de la célérité de la justice, les cas d’usage pouvant être utilisés au sein des juridictions impacteront la bonne administration de la Justice. Le développement de l’intelligence artificielle doit être réfléchi avec celui des équipes juridictionnelles. Il pourrait être recouru à l’intelligence artificielle soit pour les contentieux de « basse intensité » par un traitement algorithmique, soit pour exploiter les pièces de procédure, soit pour la fonction de synthèse et de résumé des pièces de procédure, soit pour faciliter l’accès à la jurisprudence et la recherche juridique, soit pour améliorer les méthodes de retranscription et de traduction. L’enjeu est aussi d’éviter le risque d’asymétrie avec le barreau. L’I.A. est au coeur de la question de l’impartialité des juridictions et impactera les ressources humaines de la magistrature, sur les questions de formation, d’accompagnement au changement ou encore, sur l’attractivité de certaines fonctions civiles.
Mots-clef : Barreau – célérité de la justice

Bar - speed ofjstice


Bertrand Kleimann, Le Tribunal des activités économiques de Paris,

Le Tribunal des activités économiques de Paris (TAEP) expérimente l'IA pour moderniser la justice, améliorer son efficacité et gérer un nombre croissant de litiges économiques. Son approche progressiste vise à concilier innovation et respect des valeurs fondamentales de l’administration et de la justice françaises : impartialité, équité, dignité, transparence et bonne administration de la justice. Pour cela, le TAEP a mis en place une gouvernance solide, une charte éthique et un guide de conformité à la loi européenne sur l'IA. Le premiers exemples de mise en œuvre au TAEP concernent la « préparation du placement des affaires de contentieux » et la « modernisation de la procédure d'injonction de payer ».
Mots-clef : tribunal de commerce

t. 66, 2025,p. 277-292


Thomas Lyon-Caen, L’avocat au Conseil d’Etat et à la Cour de cassation à l’heure de l’intelligence artificielle,

L’Intelligence artificielle, spécialement générative, est sans doute de nature à permettre à l’avocat au Conseil d’Etat et à la Cour de cassation de faire, sinon mieux, à tout le moins plus vite. Les actions menées par l’Ordre des avocats aux Conseils, à ce sujet, sont de plusieurs ordres. Tout d’abord, l’Ordre coconstruit avec un partenaire choisi pour ses compétences en matière d’IA, des solutions originales, dédiées à des cas d’usage propres aux avocats aux Conseils, en phase avec leur spécificité d’avocats auprès des juridictions suprêmes, juges du Droit. Au-delà de cette approche résolument pragmatique, l’Ordre mène également une réflexion déontologique, les questions posées par l’IA sur cet aspect étant nombreuses et délicates.
Mots-clef : deontologie

t. 66, 2025, p. 293-299


Pierre Hoffman, Changer ou disparaître ? La profession d’avocat à l’heure de l’IA,

L’intelligence artificielle n’est ni un gadget, ni une menace. C’est une alliée – en particulier pour les avocats. Loin de confirmer les craintes qu’elle suscite, elle constitue plutôt un formidable levier de développement pour les cabinets, et un gain de temps considérable sur les tâches à faible valeur ajoutée.
C’est avec cette conviction que le barreau de Paris a entamé, dès octobre 2024, un grand plan de diffusion de l’IA au sein des cabinets parisiens, afin que tous puissent y accéder. Un chantier ambitieux qui trouve aujourd’hui écho dans d’autres barreaux et certaines juridictions, et que cet article vient retracer.
Car l’innovation n’est pas un club fermé : c’est un élan collectif. L’intelligence artificielle en est aujourd’hui une composante essentielle – mais pas la seule. Le barreau de Paris soutient aussi les acteurs qui conçoivent, chaque jour, des outils au service d’une justice plus efficace et plus accessible – en particulier les legaltechs.

Mots-clef : Barreau de Paris

t. 66, 2025, p. 301-310


Sacha Willaume, L'I.A. et l'arbitrage,

L’intelligence artificielle (IA) transforme en profondeur le domaine de l’arbitrage, offrant des opportunités majeures en matière d’efficacité et de réduction des coûts, tout en soulevant d’importants défis juridiques et éthiques. L’article analyse, dans un premier temps, l’émergence d’un cadre normatif pour encadrer et réguler l’usage de l’IA en arbitrage. Dans un second temps, il se penche sur les opportunités et défis de l’utilisation de l’IA en arbitrage au travers de quelques cas d’usage intéressant les différentes phases de la procédure, depuis la sélection des arbitres jusqu’à la rédaction de la sentence. Il met notamment en lumière la nécessité d’élaborer des normes adaptées pour concilier le bénéfice des apports de l’IA et le respect des principes directeurs du procès arbitral afin de garantir l’intégrité et la légitimité de ce dernier.
Mots-clef : Arbitre

t. 66, 2025, p. 311-318


Mahéo & Rouppert, L'IA et les métiers du juridique à la Direction Générale des Finances Publiques,

La DGFiP, pionnière en matière de transformation numérique, a étendu l'usage de l'IA de la détection de la fraude dans les années 2010 à l'ensemble de ses métiers depuis 2020. Ainsi a été lancé le programme "Transformation Numérique du Métier Juridique" (TNMJ) qui applique les outils et méthodes du numérique (dématérialisation des processus, gestion documentaire numérisée, intelligence artificielle, outils et modes de travail collaboratifs, …) au domaine juridique. Dans cette transformation, l’humain reste au coeur du dispositif, l’objectif étant d'instaurer une symbiose entre l'expert et l'IA. La formation prend alors toute son importance pour que les agents puissent exploiter les outils numériques tout en conservant leur esprit critique et leur expertise métier de façon à se concentrer sur les missions à plus forte valeur ajoutée.
Mots-clef :

t. 66, 2025, p. 319-330


Sumi Saint-Auguste, État des lieux et des enjeux du recours à l’intelligence artificielle dans l’écosystème du droit et de la justice,

Le droit en tant que langage offre un parallélisme d’avec les technologies d’intelligence artificielle qui, à partir de mots et de concepts, produisent un savoir simulant les mécanismes de pensée et de raisonnement du professionnel de droit. Avec l’IA générative particulièrement, la scène de l’innovation legaltech connaît un regain et se structure nouvellement autour de chaînes de valeur plus lisibles qu’auparavant. Parce que les thèses de ces acteurs technologiques sont désormais plus tangibles, les enjeux pour les praticiens usagers de leurs solutions d’IA n’en sont que plus prégnants : il convient qu’ils se donnent les moyens de la maîtrise de la technologie, qu’elle soit comprise dans ses limites et dans ses biais de conception. Il importe de se poser aussi la question de la chaîne de production de la valeur : savoir et conseil juridiques, sous l’angle économique voire géopolitique, la souveraineté culturelle dans la pratique du droit étant un enjeu crucial dans la forte distorsion actuellement observée sur le marché mondial de l’IA générative.
Mots-clef :

t. 66, 2025, p. 331-336


Jean-Baptiste Thierry, Le droit pénal à l’épreuve de l’intelligence artificielle,

Le développement de l’intelligence artificielle n’affecte pas le droit pénal de la même manière que les autres branches du droit. Le droit pénal général et le droit pénal spécial contiennent l’essentiel des mécanismes nécessaires pour appréhender les nouvelles problématiques délinquantes résultant de l’utilisation de ces outils. Le droit processuel est peut-être plus démuni pour répondre efficacement à ces nouvelles infractions, malgré l’intégration de l'intelligence artificielle au service des enquêteurs. En réalité, l’incursion de l’intelligence artificielle accompagne les évolutions qui affectent la procédure pénale depuis plusieurs années.
Mots-clef : droit pénal, procédure pénale, surveillance, infractions, preuve, imputation

t. 66, 2025, p. 339-346


Georgie Courtois, Propriété intellectuelle et intelligence artificielle : vers une redéfinition des cadres de la création ,

L’essor des systèmes d’intelligence artificielle générative brouille la frontière entre outil et créateur et met sous tension les catégories cardinales du droit d’auteur : auteur, originalité, titularité et équilibre entre incitation à la création et libre circulation des savoirs. Cet article propose un diagnostic de droit positif (UE/France, droit comparé) sur la protection des créations assistées par IA et sur l’entraînement des modèles (fouille de textes et de données, droit des bases), puis avance des perspectives normatives pratiques : standard exigeant de contribution humaine, gouvernance des corpus d’entraînement, opt-out lisible par machine, transparence des modèles à usage général et étiquetage des contenus synthétiques. L’objectif est de préserver un équilibre fonctionnel de l’écosystème créatif à l’ère des systèmes autonomes.
Mots-clef : droit d’auteur ; originalité ; fouille de textes et de données ; AI Act

t. 66,2025, p. 347-354


Jean-François Cesaro, L’homme est-il à la mesure de toute chose ? L’intelligence artificielle saisie par le droit du travail,

L’intelligence artificielle fait l’objet d’une règlementation qui tente de préserver les droits fondamentaux des salariés et, en particulier, leur droit à la santé et à la sécurité. L’édifice législatif vise à permettre un contrôle humain de cet outil, en amont par les représentants du personnel, en aval pour le contrôle des décisions qu’elle peut impulser. Un droit déjà consistant existe dans les textes qui attend ses premières interprétations jurisprudentielles.
Mots-clef : contrat de travail – RGPD

t. 66, 2025, p. 355-366


Godefroy de Boiscuillé , La responsabilité du fait des produits défectueux appliquée à l’intelligence artificielle : le choix de la raison,

L’article examine la pertinence de la responsabilité du fait des produits défectueux issue de la directive 2024/2853 pour réparer le dommage causé par un système d’intelligence artificielle (IA). La révision récente du texte permet en effet de répondre à un problème majeur de l’ancienne directive conçue à l’origine pour les seuls produits corporels. Le régime de la responsabilité du fait des produits défectueux offre une alternative aux régimes nationaux de responsabilité civile concurrents, lesquels ne semblent pas adaptés à la réparation des dommages causés par l’IA. L’article analyse ainsi le développement théorique de la nouvelle directive dont les innovations sont nombreuses. Cette dernière étend le champ d’application des produits et s’applique à de nouveaux responsables. Elle allège également la charge de la preuve des victimes tout en allongeant le délai de forclusion pour certains dommages. Cette évolution théorique de la matière n’est pas sans conséquence pratique. Elle pourrait renforcer considérablement l’effectivité des actions en réparation. L’étude relève néanmoins les nombreuses imperfections du régime et formule plusieurs recommandations, dont les principales sont les suivantes : la suppression de la cause d’exonération fondée sur le risque de développement, inadaptée aux dommages causés par l’intelligence artificielle ; l’allongement du délai de forclusion pour certains dommages économiques provoqués par l’usage d’un système d’intelligence artificielle ; la clarification du régime des présomptions ; ainsi que celle relevant de l’articulation entre les régimes nationaux existants et la directive sur la responsabilité du fait des produits défectueux.
Mots-clef : Responsabilité civile. Régime. Directive. Produits défectueux. Intelligence artificielle. Modernisation. Marché intérieur.

t. 66, 2025, p. 367-392


Pierre-Benoit Pabot du Chatelard, L’influence de l’intelligence artificielle dans la gestion de dossiers de financement,

Maître Pabot du Chatelard illustrera par des exemples concrets comment l’I.A. a révolutionné toutes les tâches nécessaires à la mise en œuvre d’un dossier de financement international, depuis la conception de celui-ci jusqu’à son exécution.
Mots-clef : Finance

t. 66, 2025, p. 393-396


Ducuing & Garsia, La réglementation de la soutenabilité environnementale de l’I.A. : reformulation critique au prisme du courant Law & Technology,

Le débat politique et juridique sur I.A. et environnement s’est développé autour d’une vision binaire : l’I.A. serait à la fois nuisible pour l’environnement mais constituerait aussi un moteur essentiel à la transition écologique. C’est sur cette base que l’Union européenne a développé une réglementation dense basée sur la gestion des risques et centrée sur la consommation de ressources et d’énergies de l’I.A. Influencée par des présupposés sur la technologie – techno-déterminisme, exceptionnalisme et solutionnisme, cette approche souffre de sérieuses limites. En mobilisant les leçons du courant Law & Technology, les autrices cherchent à dépasser cette vision et interrogent les logiques socio-économiques qui sous-tendent le développement de l’I.A. Elles introduisent le concept de « solutionnisme réglementaire » pour dénoncer une approche législative dense mais peu substantielle et proposent des voies alternatives.
Mots-clef : Soutenabilité – Solutionnisme réglementaire – Law & Technology

t. 66, 2025, p. 397-414


Stephanie Smatt Pinelli, L’I.A. au service de la décision juridique,

Le Doyen Carbonnier disait en 1978 que « le droit est une technique d’organisation de l’incertain ». Par extension, décider en droit, consiste à toujours arbitrer dans l’incertitude : un contrat à conclure, une voie à prendre, un litige à solutionner. L’I.A. promet de rendre cet aléa plus prévisible grâce aux outils statistiques qui cartographient tendances et probabilités. Mais la décision ne se réduit jamais à un calcul : elle engage des valeurs, des préférences, une responsabilité. Le risque, pour le juriste comme pour le juge, n’est pas de déléguer à la machine mais de s’y abriter. L’I.A. ne tranche pas ; elle éclaire. Elle ne libère pas de la responsabilité ; elle la rend plus exigeante. La vraie question n’est pas ce que l’I.A. peut prédire, mais comment le droit saura encadrer et gouverner ces prédictions pour qu’elles deviennent des instruments d’une justice toujours plus efficace, responsable et attractive.
Mots-clef : Justice prédictive – explicabilité – jurimétrie – responsabilité

t.66, 2025, p. 415-420


Didier-Roland Tabuteau, L'intelligence artificielle et le raisonnement du juge,

Quelques mots de conclusion
Mots-clef :

t. 66, 2025, p. 421-424


Éthique et exigence de justice

Caron-Déglise & Martinent, Éthique et exigence de justice.,

Une présentation du dossier
Mots-clef :

t. 66,2025, p.435-452


Éthique et exigence ddejustice

Chrystelle Gazeau, Violences de l'intime et violences du système de justice : regards historiques,


Mots-clef :

t. 66,2025,p. 453-460


Éthique et exigence de justice

Isabelle Rome, Une éthique politique de lutte contre les violences de l’intime,


Mots-clef :

t. 66, 2025, p.461-468


Danièle Churlet-Caillet, Les enjeux organisationnels au cœur des politiques de juridiction et de ses acteurs,

Une réflexion d’éthique judiciaire concernant l’organisation des pôles spécialisés dans la lutte contre les violences intrafamiliales
Mots-clef :

t. 66, 2025, p. 469-474


Andreaa Gruev-Vintila, L’éthique et l’exigence de justice au défi du contrôle coercitif : nommer, reconnaître, protéger,


Mots-clef :

t.66,2025 : p. 475-486


Jean-François Delfraissy, L’éthique relationnelle entre science, politique et médias,


Mots-clef :

T. 66, 2025 : p.487-494


Guillaume Fradin, Éthique, justice et médias ,


Mots-clef :

t. 66, 2025 : p. 495-501


Vincent Vantighem, L’éthique du journaliste judiciaire, le public et les juges ,


Mots-clef :

t. 66, 2025 : p.503-508


Christophe Soulard, L’éthique comme vecteur de confiance dans la justice ,


Mots-clef :

T. 66,2025 : P 509-512


Jean-Marie Sauvé, Rendre justice aux citoyens comme bien commun et politique publique,


Mots-clef :

t. 66, 2025 : p. 513-528


Denis Salas, L’ethos du juge en mutation ,


Mots-clef :

T. 66, 2025 : p. 529-536


Hélène Pauliat, Comment la Justice peut-elle être un vecteur de confiance ? ,


Mots-clef :

t. 66, 2025 : p. 537-540


Nathalie Ancel, Les travaux de l’Inspection générale de la justice facteur d’une confiance dans la justice comme institution,


Mots-clef :

t. 66, 2025 : p. 541-550


Guillaume Rousset, Les enjeux de l’acceptabilité sociale des décisions de justice : l’illustration de l’interruption de grossesse ,


Mots-clef :

t. 66, 2025 : p. 551-558


Sébastien Pellé, La pertinence des innovations de la motivation des décisions judiciaires,


Mots-clef :

t. 66, 2025 : p. 559-566


Chloé Lievaux, L’intelligibilité des décisions de justice pénale. L’éthique au service d’un droit pénal humaniste en mouvement,


Mots-clef :

t. 66, 2025 : p. 567-580



Cliquez sur le symbole pdf pour télécharger l'article s'il est en libre accès.