Le cadre légal de l’IA dans les marchés publics est un ensemble de règles encadrant l’utilisation des systèmes d’intelligence artificielle dans les procédures d’achat public. Il vise à garantir la transparence, la conformité et la sécurité juridique tout en favorisant l’innovation dans ce secteur.
Définition simple : Le cadre légal définit les obligations pour les acheteurs publics et les développeurs d’IA, imposant des exigences de traçabilité, d’équité et de respect des principes éthiques lors de l’intégration de ces technologies dans les marchés publics.
Quel est l’objectif principal du cadre légal de l’IA dans les marchés publics ?
- Assurer une utilisation transparente et responsable des algorithmes dans les achats publics
- Protéger les droits des parties prenantes en limitant les risques d’anomalies contractuelles
- Garantir la conformité avec les normes européennes et nationales en vigueur
- Maintenir un équilibre entre innovation technologique et sécurité juridique
- Renforcer la confiance du public dans les processus de passation des marchés
Points Clés
- Le cadre légal impose des règles strictes de transparence et de traçabilité des systèmes d’IA.
- Il prévoit des responsabilités claires pour limiter les risques juridiques liés à l’usage de l’IA.
- L’intégration de l’IA doit respecter les principes éthiques et les obligations légales dans la commande publique.
L’AI Act et son application aux marchés publics
L’AI Act impose un cadre précis pour l’usage des systèmes d’intelligence artificielle dans les marchés publics, notamment autour des systèmes à haut risque. Il définit des obligations strictes pour les fournisseurs et utilisateurs afin d’assurer conformité, transparence et protection des droits fondamentaux.
Champ d’application aux systèmes d’IA à haut risque
Les systèmes d’IA à haut risque sont spécifiquement encadrés dans les marchés publics lorsqu’ils impactent des secteurs sensibles ou des droits fondamentaux. Cela inclut, par exemple, les systèmes utilisés pour la sélection des candidats, la gestion des ressources humaines ou la sécurité publique.
Le règlement considère comme à haut risque tout système capable d’influencer significativement des décisions dans le cadre de la commande publique. Ces systèmes doivent respecter des normes strictes de transparence, de documentation technique et de gestion des risques, garantissant ainsi une évaluation rigoureuse avant leur déploiement.
Le pouvoir adjudicateur doit s’assurer que les systèmes fournisseurs respectent ces critères. Des contrôles réguliers et un suivi approfondi sont nécessaires pour éviter tout biais ou discrimination, conformément aux obligations de l’AI Act.
Calendrier d’entrée en vigueur et obligations pour les acheteurs publics

Le règlement européen sur l’intelligence artificielle est entré en vigueur partiellement depuis le 1er août 2024. Ses dispositions majeures concernant l’IA à usage général prendront effet à partir du 2 août 2025. Cette date marque une étape clé pour les acheteurs publics en matière d’intégration de l’IA dans leurs processus.
Les acheteurs publics devront se conformer à plusieurs obligations, notamment en matière de transparence, de sécurité et de respect des droits fondamentaux. L’objectif est d’assurer un investissement responsable et sécurisé dans des solutions d’IA conformes aux normes européennes.
En parallèle, des réformes récentes du code de la commande publique renforcent l’importance des critères de développement durable dans les marchés publics. Ces mesures introduites entre fin 2024 et début 2025 impliquent également des mécanismes d’achats mutualisés en situation de crise, ce qui impacte les stratégies d’investissement des acheteurs publics.
Points Clés du calendrier et des obligations :
| Date | Événement | Impact sur les acheteurs publics |
|---|---|---|
| 1er août 2024 | Entrée en vigueur partielle du règlement IA | Première conformité réglementaire obligatoire |
| 2 février 2025 | Mise en place des premières mesures IA | Début de l’application renforcée des normes |
| 2 août 2025 | Application complète des règles IA à usage général | Obligations accrues pour les investissements liés à l’IA |
| Fin 2024 – début 2025 | Nouvelles dispositions sur développement durable | Intégration de critères RSE dans les achats |
Les acheteurs publics doivent ainsi anticiper ces échéances pour adapter leurs procédures d’achat et garantir la conformité réglementaire tout en maîtrisant leurs investissements financiers dans ce secteur en pleine évolution.
Exigences de transparence et de traçabilité

La transparence est au cœur du cadre légal régissant l’usage de l’intelligence artificielle dans les marchés publics. Elle oblige les acteurs concernés à fournir des informations claires sur le fonctionnement, la finalité et l’impact des systèmes numériques utilisés.
Les fournisseurs doivent documenter leurs processus, notamment via des déclarations de conformité et des rapports garantissant la traçabilité des données. Cette traçabilité facilite le contrôle humain et la compréhension des décisions automatisées.
| Points clés des exigences | Description |
|---|---|
| Documentation technique | Description détaillée des algorithmes, données et risques associés |
| Rapport de conformité | Atteste le respect des normes et règles en vigueur |
| Transparence utilisateur | Information claire sur l’utilisation de l’IA et ses effets |
L’article 50 de l’IA Act, en lien avec le RGPD, impose le marquage explicite des systèmes d’intelligence artificielle pour informer les utilisateurs. Ce marquage vise à garantir la compréhension et la responsabilité dans le cadre des interactions numériques.
Enfin, la traçabilité s’étend aux phases de conception, mise sur le marché et exploitation. Elle permet d’assurer un suivi précis des données traitées, renforçant ainsi la sécurité, la conformité et l’éthique dans les projets d’IA publique.
Le code de la commande publique face à l’IA

Le développement de l’intelligence artificielle (IA) dans les marchés publics exige une adaptation rigoureuse du cadre réglementaire. Le code de la commande publique incorpore des exigences précises pour garantir l’intégrité des procédures, en insistant sur la conformité avec les principes d’égalité, de transparence et de liberté d’accès aux marchés.
Principes fondamentaux : égalité, transparence et liberté d’accès
Le code de la commande publique impose que l’usage de l’IA ne crée aucune discrimination entre les candidats. Tous doivent bénéficier des mêmes conditions et opportunités, ce qui souligne le respect du principe d’égalité. Les algorithmes utilisés doivent être conçus et contrôlés pour éviter tout biais ou favoritisme.
La transparence est également essentielle. Les critères d’évaluation et le fonctionnement des outils d’IA doivent être clairement expliqués aux acteurs. Cela garantit la traçabilité des décisions, minimisant ainsi les risques de contestation juridique.
Enfin, la liberté d’accès s’assure que les candidats disposent d’une information complète et équitable sur les marchés publics. Cela inclut l’accès aux données, aux outils et aux résultats produits par l’IA, afin que tous puissent concourir dans des conditions justes. Ces exigences protègent les intérêts économiques et sociétaux liés à la commande publique.
Interdiction de déroger aux justifications humaines

Dans les marchés publics impliquant l’intelligence artificielle générative (IAG), il est essentiel de respecter l’obligation de justifications humaines. Cette règle interdit de déroger à l’exigence que certaines décisions restent motivées par une appréciation humaine explicite.
L’IA peut automatiser des processus, mais ne peut remplacer la responsabilité humaine dans les choix stratégiques ou éthiques. La loi impose ainsi que les décisions importantes ne reposent pas exclusivement sur des algorithmes, notamment dans les cas où des impacts sociaux ou économiques majeurs sont en jeu.
Cette interdiction garantit la transparence et la légitimité des décisions dans les marchés publics. Elle vise également à prévenir les risques liés à une confiance aveugle dans des systèmes génératifs qui peuvent produire des résultats imprévisibles.
| Points clés | Description |
|---|---|
| Responsabilité humaine | Les justifications doivent être portées par une autorité humaine compétente. |
| Interdiction de dérogation | Aucune clause ne permet d’exempter l’obligation de motivation humaine. |
| Impact sur l’IA générative | L’IAG doit être un outil d’aide, non un décideur exclusif. |
Dans ce cadre, les acheteurs publics doivent veiller à ce que leurs cahiers des charges précisent précisément ces exigences. Ils ne peuvent se contenter d’une simple intégration technique de l’IA sans formaliser la place centrale de l’humain dans le processus décisionnel.
Cette interdiction se comprend aussi comme une mesure de protection contre les biais et erreurs potentielles des systèmes automatisés, en renforçant l’examen critique et l’analyse humaine des résultats générés.
Intégration des algorithmes dans l’évaluation des offres

L’utilisation d’algorithmes dans l’évaluation des offres transforme progressivement la passation des marchés publics. Ces technologies permettent notamment d’accroître la rapidité et la précision dans l’analyse des propositions, en automatisant certaines étapes considérées auparavant comme longues et complexes.
Les algorithmes peuvent traiter un grand volume d’informations, comparer des critères multiples et pondérer les scores conformément aux exigences définies. Le recours à l’intelligence artificielle dans ce cadre contribue à limiter les biais humains, tout en assurant une meilleure transparence du processus d’évaluation.
Cependant, plusieurs enjeux juridiques et éthiques accompagnent cette intégration. Il est essentiel que ces systèmes restent conformes aux principes d’équité, de non-discrimination et de transparence. Le contrôle des algorithmes par des instances compétentes garantit leur fonctionnement conforme au cadre réglementaire et aux besoins du service public.
| Avantages | Risques et contraintes |
|---|---|
| Automatisation rapide | Opacité possible des décisions automatisées |
| Analyse volumétrique | Nécessité de supervision humaine |
| Réduction des biais humains | Respect strict du cadre légal et éthique |
Cette intégration s’inscrit également dans une logique industrielle et technologique. Plusieurs PME développent des solutions adaptées aux exigences spécifiques des marchés publics. Après des phases d’expérimentation, ces outils pourront s’imposer comme des supports fiables pour soutenir les acheteurs publics dans leurs prises de décision.
L’encadrement juridique évolue parallèlement pour assurer une utilisation maîtrisée et responsable de ces algorithmes, point fondamental pour préserver la confiance dans cette transformation numérique du secteur public.
Responsabilités et risques juridiques
L’utilisation de l’intelligence artificielle dans les marchés publics soulève des questions précises quant à la responsabilité des acteurs et aux risques inhérents. Les risques concernent autant la gestion des algorithmes que les garanties légales à maintenir. Les acteurs du secteur public doivent donc veiller à une conformité rigoureuse.
Maintien de la responsabilité de l’acheteur public
L’acheteur public conserve une responsabilité pleine et entière dans les décisions prises, même lorsque l’intelligence artificielle est intégrée dans le processus d’achat. Il doit s’assurer que les systèmes utilisés respectent les réglementations et les principes de transparence.
Toute défaillance dans le choix ou le contrôle des outils d’IA engage directement la responsabilité de l’entité publique. Celle-ci doit documenter ses actions et veiller à l’évaluation constante des risques associés. Les entreprises impliquées, fournisseurs ou prestataires, sont également soumises à des obligations, mais la responsabilité principale demeure publique.
Biais algorithmiques et délit de favoritisme
Les algorithmes peuvent générer des biais qui faussent la concurrence et créent un risque de favoritisme. Ces biais peuvent découler de données incomplètes, mal sélectionnées ou d’une conception inadéquate de l’IA.
Le délit de favoritisme peut apparaître si l’algorithme privilégie systématiquement certains fournisseurs sans justification objective. Cela expose le secteur public à des risques juridiques importants, notamment des contestations de procédures. La surveillance active et la transparence des critères algorithmiques sont des mesures nécessaires pour limiter ces risques.
Nécessité d’un contrôle humain systématique
La réglementation européenne, notamment l’AI Act, impose que les décisions automatisées soient soumises à un contrôle humain effectif. Ce contrôle est indispensable pour garantir la conformité aux droits fondamentaux et éviter les erreurs graves.
Le secteur public doit mettre en place des mécanismes de supervision robustes pour vérifier les résultats produits par l’IA. Cela inclut l’intervention d’opérateurs formés capables d’interpréter et de corriger les décisions algorithmiques si nécessaire. Ce contrôle systématique protège à la fois les citoyens et les entités publiques des risques juridiques.
Dispositions nationales complémentaires

Plusieurs mesures nationales encadrent l’usage de l’intelligence artificielle dans les marchés publics, renforçant les obligations de transparence et de contrôle. Ces dispositions précisent notamment le régime des décisions automatisées et définissent les responsabilités des autorités de régulation en France.
Article L. 311-3-1 du CRPA sur les décisions algorithmiques
Cet article du Code des relations entre le public et l’administration (CRPA) impose une transparence obligatoire pour toute décision prise partiellement ou totalement par un système algorithmique. Cela concerne les marchés publics lorsqu’une IA intervient dans la sélection ou l’évaluation des offres.
La disposition exige que l’administration rende accessible, sur demande, des informations simples sur les critères, le fonctionnement de l’algorithme et la logique décisionnelle utilisée. Cette transparence vise à garantir un contrôle démocratique des décisions et à prévenir les risques de biais ou de discrimination.
L’article impose aussi une possibilité de recours effectif contre ces décisions, afin que les candidats puissent contester une décision prise par un système automatisé.
Rôles des autorités françaises : CNIL et DGCCRF
La CNIL supervise la conformité des systèmes d’IA aux règles de protection des données personnelles, un aspect central dans l’utilisation de l’IA pour les marchés publics. Elle contrôle particulièrement le respect des principes d’équité, de finalité et de transparence dans le traitement algorithmique.
La DGCCRF, en charge de la concurrence, quant à elle, intervient pour vérifier que l’usage de l’IA ne fausse pas la compétition entre entreprises. Elle surveille notamment les pratiques susceptibles de restreindre l’accès ou de biaiser la sélection des offres.
Ces deux autorités disposent de compétences complémentaires :
| Autorité | Compétences principales |
|---|---|
| CNIL | Protection des données, contrôle des algorithmes, transparence, respect des droits des personnes |
| DGCCRF | Surveillance des pratiques commerciales, concurrence loyale, prévention des abus liés à l’utilisation de l’IA dans les marchés publics |
Leur rôle est essentiel pour accompagner les acteurs publics dans une intégration conforme et équilibrée de l’intelligence artificielle.
Rapports Etalab et OCDE sur l’éthique des algorithmes publics

Les rapports d’Etalab et de l’OCDE jouent un rôle déterminant dans la définition du cadre éthique pour l’utilisation des algorithmes dans les services publics. Ils insistent sur la nécessité de garantir transparence, responsabilité et équité dans le déploiement des systèmes d’intelligence artificielle.
Le rapport d’Etalab accompagne les administrations françaises dans l’application du cadre juridique et éthique des algorithmes publics. Il propose des outils pour assurer la compréhension et la traçabilité des processus algorithmiques. Ce document souligne l’importance du contrôle humain afin de préserver la confiance des citoyens.
L’OCDE, de son côté, a publié des principes éthiques largement repris à l’échelle internationale. Ces recommandations insistent sur :
- Le respect des droits humains fondamentaux
- La non-discrimination et l’inclusion
- La sécurité et la confidentialité des données
- La transparence et l’explicabilité des algorithmes
Ces principes s’adressent aux gouvernements et acteurs publics impliqués dans la commande publique et visent à instaurer une gouvernance responsable des technologies.
| Points Clés | Description |
|---|---|
| Transparence | Clarté des décisions algorithmiques |
| Responsabilité | Suivi et audit des impacts |
| Contrôle Humain | Intervention possible dans les processus automatisés |
| Respect des droits | Protection des libertés individuelles |
Ainsi, ces rapports constituent une référence majeure pour encadrer l’intégration éthique des algorithmes dans la sphère publique.
Questions Fréquentes

Le cadre légal encadre précisément l’usage de l’intelligence artificielle dans les marchés publics, en insistant sur la conformité réglementaire, l’éthique, la protection des données et la responsabilité. Les normes européennes et françaises s’articulent pour garantir la transparence et la sécurité des procédures.
Quelles sont les normes régissant l’utilisation de l’IA dans les marchés publics en France ?
L’utilisation de l’IA dans les marchés publics est régie principalement par le règlement européen sur l’intelligence artificielle (AI Act) et le code de la commande publique. Ces normes imposent des règles strictes concernant le développement, la mise sur le marché et l’utilisation des systèmes d’IA, avec un accent sur la sécurité et la transparence.
Comment la réglementation française assure-t-elle l’éthique de l’IA dans le cadre des appels d’offres publics ?
La réglementation impose des critères éthiques précis, notamment la lutte contre les biais algorithmiques et le respect des principes de responsabilité et d’équité. Les acheteurs publics doivent privilégier des solutions d’IA vertueuses, intégrant une démarche écoresponsable et transparence dans les processus décisionnels.
Quels sont les critères de conformité pour les solutions d’IA dans les procédures de marchés publics ?
Les solutions d’IA doivent répondre à des critères de conformité liés à la traçabilité, la sécurité des données, la robustesse des algorithmes, ainsi qu’à la protection de la vie privée. Elles doivent également permettre un suivi fiable de leur performance et s’intégrer dans un cadre réglementaire clair.
De quelle manière le RGPD influence-t-il l’intégration de l’IA dans les marchés publics ?
Le RGPD impose que les données personnelles utilisées par les systèmes d’IA soient collectées, traitées et protégées conformément aux principes de minimisation, transparence et contrôle individuel. La confidentialité des données est un enjeu majeur, assurant que l’IA respecte les droits fondamentaux des citoyens.
Quels sont les dispositifs de contrôle de l’efficacité de l’IA appliqués aux marchés publics ?
Des audits réguliers et des évaluations de performance sont exigés pour garantir l’efficacité et la conformité des systèmes d’IA. Ces dispositifs incluent la vérification des résultats produits, la détection des anomalies et le contrôle des impacts sociétaux et environnementaux.
Comment la loi encadre-t-elle la responsabilité en cas de défaillance d’un système d’IA dans un marché public ?
La responsabilité est clairement établie et repose sur le fournisseur de la solution, ainsi que sur les utilisateurs publics en fonction de leur rôle. En cas de défaillance, des mécanismes de recours et de gestion des risques doivent être prévus pour limiter les impacts et garantir la réparation des préjudices.
Conclusion

Le cadre légal de l’IA dans les marchés publics vise avant tout à sécuriser l’innovation sans fragiliser les principes fondamentaux de la commande publique. Transparence, égalité de traitement, traçabilité et responsabilité demeurent des exigences non négociables, quel que soit le niveau d’automatisation des outils utilisés. L’IA peut assister, accélérer et structurer les processus, mais elle ne crée aucun régime dérogatoire : elle s’insère dans un droit existant qui reste pleinement applicable.
L’AI Act européen constitue désormais la colonne vertébrale de cet encadrement, en particulier pour les systèmes d’IA dits « à haut risque », fréquemment mobilisés dans l’analyse des offres, le scoring ou le suivi contractuel. Il impose des obligations renforcées en matière de documentation, de gestion des risques, d’explicabilité et de contrôle humain. En parallèle, le RGPD, le code de la commande publique et le CRPA continuent de s’appliquer pleinement, formant un socle juridique dense qui encadre strictement toute décision influencée par un algorithme.
Un point central demeure intangible : la responsabilité de l’acheteur public. Même lorsqu’une IA produit des recommandations, classe des offres ou signale des anomalies, la décision finale doit rester humaine, motivée et justifiable. Toute opacité algorithmique, tout biais non maîtrisé ou toute délégation excessive expose à des risques juridiques majeurs, allant de la contestation de la procédure au délit de favoritisme. Le droit impose donc un usage maîtrisé, documenté et auditable des outils d’IA.
En définitive, le cadre légal de l’IA dans les marchés publics ne vise pas à freiner son adoption, mais à en canaliser les usages. Les acteurs qui réussiront seront ceux qui intégreront l’IA comme un outil d’aide à la décision, inscrit dans une gouvernance claire, des procédures explicites et un contrôle humain constant. À cette condition, l’IA pourra devenir un levier de performance et de sécurité juridique, plutôt qu’un facteur de risque dans la commande publique.
Je veux remporter des appels d’offres ! 🏆
À propos de l’auteur (Philippe COURTOIS)

Après une première partie de carrière dédiée au commerce et à la vente (Banque LCL, Unilever, groupe Seloger.com) je me suis spécialisé dès 2010 dans la réponse aux appels d’offres, d’abord au sein de grands groupes (Essity, Bureau Veritas, groupe Sonepar) puis en tant que Consultant Marchés Publics dans un cabinet de conseil, avant de participer enfin au lancement des marchés publics pour la Société du Grand Paris dans le cadre du plus grand projet d’infrastructure d’Europe (Grand Paris Express).
C’est fort de cette expertise concrète et issue du terrain que j’ai décidé en 2022 de lancer mon activité et d’accompagner les entreprises souhaitant augmenter leur part de marché sur le secteur public.
À propos d’AO Conquête
AO Conquête accompagne les PME souhaitant se positionner efficacement sur les marchés publics afin de gagner en croissance.
Détection des appels d’offres, analyse du dossier de consultation, construction du dossier de réponse, rédaction ou refonte de votre mémoire technique : quel que soit votre secteur d’activité, c’est toute une gamme de solutions clé-en-main que nous proposons pour accompagner votre développement commercial.
Ne passez plus à côté des appels d’offres !

Augmentez dès maintenant votre taux de réussite sur les marchés publics en contactant un expert !

En savoir plus
AO Conquête s’engage à accompagner le développement de votre entreprise en la positionnant efficacement sur le secteur public.
Ne passez plus à côté des appels d’offres et contactez-nous dès maintenant :

