Les marchés publics sont des procédures réglementées permettant à l’État et aux collectivités d’acheter des biens ou services. Avec l’intégration croissante de l’intelligence artificielle (IA), ces processus connaissent une transformation majeure, tout en soulevant des défis liés aux biais algorithmiques, au respect du RGPD et à la transparence.
Définition simple : L’IA dans les marchés publics désigne l’utilisation d’outils automatisés pour optimiser les achats tout en devant garantir l’équité, la protection des données personnelles et la lisibilité des décisions prises.
Quels sont les principaux risques liés à l’IA dans les marchés publics ?
- La présence de biais algorithmiques peut fausser l’évaluation des offres.
- Le respect strict du RGPD est nécessaire pour protéger les données des soumissionnaires.
- La transparence des algorithmes est essentielle pour renforcer la confiance des acteurs.
- Des mesures de contrôle doivent être mises en place pour minimiser les risques juridiques.
- L’IA doit accompagner et non remplacer la vigilance humaine dans la commande publique.
Points Clés
- Les biais algorithmiques dans l’IA peuvent compromettre l’équité des marchés.
- La conformité au RGPD est indispensable pour la protection des données.
- La transparence renforce la confiance et la sécurité juridique des procédures.
Risques des biais algorithmiques
Les biais algorithmiques peuvent affecter la neutralité et l’équité des décisions automatisées dans les marchés publics. Ils proviennent souvent de données partielles ou mal représentatives et peuvent engendrer des discriminations involontaires. Ces risques sont importants à maîtriser pour garantir la transparence et la légalité des processus, notamment dans les appels d’offres.
Définition et origines des biais dans les systèmes d’IA
Le biais algorithmique se manifeste lorsque les résultats produits par un algorithme ne reflètent pas une impartialité réelle. Il peut naître de plusieurs origines : données historiques biaisées, choix inadéquats des critères d’analyse, ou encore insuffisance de diversité dans les jeux de données.
Dans les systèmes d’IA, ces biais sont souvent inconscients, liés aux données d’apprentissage qui reproduisent des discriminations sociales ou économiques préexistantes. Ils peuvent aussi s’expliquer par un manque de contrôle ou de supervision humaine.
L’absence d’explicabilité des algorithmes complique généralement la détection et la correction de ces biais, renforçant ainsi le risque d’atteinte à l’équité dans les décisions automatisées.
Exemples concrets dans les marchés publics (appels d’offres, évaluation)
Dans les appels d’offres, les biais peuvent surgir lors de l’évaluation des candidatures. Un algorithme mal paramétré peut favoriser certains profils au détriment d’autres, par exemple en surévaluant des critères non pertinents ou en négligeant la diversité géographique ou sectorielle.
Ces biais se traduisent aussi par une préférence indirecte pour certains types d’entreprises, comme les grandes structures disposant de plus de données historiques, ce qui peut exclure de petites PME innovantes.
Les biais peuvent encore apparaître lors du traitement des données utilisées pour noter les offres, avec un impact direct sur la transparence des procédures et le respect des principes d’égalité entre candidats.
Conséquences juridiques et discrimination involontaire
L’usage d’IA avec biais non maîtrisés expose les autorités contractantes à des risques juridiques. Cela peut constituer une violation des principes d’égalité et de non-discrimination, fondamentaux dans la commande publique.
La responsabilité peut être engagée si une décision automatisée aboutit à exclure ou défavoriser injustement un candidat en raison de critères biaisés ou mal interprétés.
Par ailleurs, le RGPD impose une obligation de transparence et de justification des traitements automatisés. En cas de recours, les impacts discriminatoires doivent pouvoir être expliqués et corrigés.
Le non-respect de ces règles entraîne un risque accru de contestations, impacts négatifs sur la confiance et potentiels recours devant les tribunaux administratifs.
Conformité au RGPD et IA

L’intégration de systèmes d’intelligence artificielle dans les marchés publics engage des obligations strictes relatives à la protection des données personnelles. Le respect du RGPD impose notamment une gestion précise du cycle de vie des données, incluant anonymisation, information des personnes concernées et anticipation des risques liés aux traitements.
Statut des modèles d’IA sous le RGPD (anonymat et mémorisation de données)
Les modèles d’IA traitant des données personnelles doivent garantir la conformité au principe de minimisation des données. Cela inclut la limitation de la collecte et la suppression des données non nécessaires. L’anonymisation est un levier clé pour sortir certaines données du champ du RGPD, mais elle doit être irréversible afin d’éviter toute réidentification.
Il est essentiel d’évaluer si les systèmes mémorisent des données personnelles pendant l’apprentissage ou l’inférence. Les modèles fondés sur un apprentissage supervisé doivent veiller à ne pas conserver d’informations sensibles sans consentement explicite. Sinon, des mesures techniques doivent être mises en place pour sécuriser et pseudonymiser les données stockées.
Obligations de transparence et d’information des personnes concernées
Le RGPD impose une obligation d’information claire et accessible envers les individus dont les données sont traitées. L’utilisation d’IA dans les marchés publics doit être accompagnée de communication sur les finalités, les catégories de données utilisées, ainsi que sur les droits d’accès, de rectification et d’opposition.
Les organismes publics doivent spécifiquement mentionner l’usage d’algorithmes, leurs impacts potentiels et les critères de décision automatisée. Cette transparence améliore la confiance et facilite l’exercice des droits. Les modalités d’information peuvent inclure des notices dédiées, intégrées aux contrats ou diffusées via les plateformes concernées.
Analyse d’impact et notification des violations
Lorsqu’un traitement d’IA peut engendrer un risque élevé pour les droits et libertés des individus, une analyse d’impact relative à la protection des données (AIPD) est obligatoire. Cette évaluation identifie, évalue et atténue les risques liés notamment à la discrimination, la définition d’automatismes non conformes, ou la fuite de données personnelles sensibles.
En cas de violation de données, la notification doit être effectuée sans délai excessif auprès de la CNIL et des personnes concernées si le risque est majeur. Les systèmes d’IA doivent donc intégrer des mécanismes de détection rapide des incidents, visant à limiter les conséquences pour les données personnelles et à respecter les prescriptions réglementaires.
Exigences de transparence dans les marchés publics
La transparence est un principe indispensable pour encadrer l’utilisation des outils d’intelligence artificielle (IA) dans les marchés publics. Elle impose des règles précises sur la responsabilité des acheteurs, la traçabilité des algorithmes, et la conformité aux réglementations européennes comme l’AI Act.
Règles spécifiques aux achats publics et IA (responsabilité des acheteurs)
Les acheteurs publics doivent veiller à la transparence tout au long du processus d’achat impliquant des systèmes d’IA. Ils sont responsables de la sélection d’outils respectant les principes d’équité et d’absence de biais.
Cette responsabilité implique une vigilance renforcée sur les données d’entraînement des algorithmes et sur les impacts potentiels des décisions automatisées. Ils doivent documenter clairement les critères utilisés pour évaluer les offres intégrant de l’IA.
Les acheteurs ont aussi l’obligation d’informer les parties prenantes sur les risques liés à l’IA, ce qui contribue à la confiance et à la bonne gouvernance des marchés.
Auditabilité des algorithmes et documentation requise
L’auditabilité est un levier central pour assurer la transparence dans l’utilisation de l’IA. Les algorithmes doivent être accompagnés d’une documentation complète et accessible, détaillant leur fonctionnement, leurs données d’entrée, et leurs critères de décision.
Cette documentation doit inclure :
- Les méthodologies de conception
- Les mécanismes de correction des biais
- Les protocoles de test et validation
Cela permet aux autorités de contrôle et aux acheteurs d’évaluer la conformité et l’intégrité des systèmes, garantissant une revue rigoureuse en cas de besoin.
Interaction avec l’AI Act pour les systèmes à haut risque
L’AI Act impose des exigences strictes aux systèmes d’IA qualifiés de « haut risque », catégorie souvent rencontrée dans les marchés publics. Ces systèmes doivent respecter des obligations renforcées liées à la transparence et à la responsabilité.
Concrètement, cela comprend :
- L’obligation de fournir des informations claires sur la finalité et le fonctionnement des systèmes
- La nécessité d’un suivi continu pour détecter d’éventuelles défaillances
- La garantie d’un contrôle humain effectif
Cette réglementation européenne vient renforcer le cadre juridique national en garantissant que les systèmes d’IA intégrés aux marchés publics ne compromettent pas les principes fondamentaux de transparence et d’équité.
Mesures de mitigation et bonnes pratiques

Pour limiter les risques liés à l’utilisation de l’IA dans les marchés publics, il est essentiel d’adopter des méthodes rigoureuses de contrôle des biais, d’assurer la conformité au RGPD et d’instaurer des critères clairs pour les acteurs publics et privés. Ces approches visent à garantir sécurité, transparence et respect des principes éthiques.
Stratégies pour détecter et corriger les biais
La détection des biais commence par une analyse fine des données d’entraînement des modèles IA. Il faut vérifier que ces données soient représentatives et non discriminatoires. L’usage d’audits réguliers multidisciplinaires, impliquant data scientists et experts éthiques, permet d’identifier les anomalies.
La correction des biais repose sur des techniques telles que la rééquilibration des jeux de données, la modification des algorithmes et la validation continue des résultats en conditions réelles. Les systèmes doivent intégrer des mécanismes de feedback pour corriger en permanence les défaillances. La transparence des modèles, par exemple via des explications accessibles, renforce aussi la confiance des utilisateurs.
Mise en œuvre du RGPD dans les projets IA publics
Le RGPD impose des règles strictes sur la collecte et le traitement des données personnelles, particulièrement dans les projets IA. Les acheteurs publics doivent s’assurer que les données utilisées font l’objet d’une base légale claire, comme le consentement ou l’intérêt public.
Les mesures techniques et organisationnelles doivent garantir la sécurité des données, notamment par le chiffrement et l’anonymisation. L’évaluation d’impact relative à la protection des données (DPIA) est obligatoire pour les systèmes présentant un risque élevé. Cette démarche aide à anticiper les risques pour les droits des personnes concernées.
La CNIL recommande aussi d’informer clairement les citoyens sur le traitement automatisé de leurs données, ainsi que de faciliter l’exercice des droits (accès, rectification, opposition). Cela permet d’assurer un usage responsable et conforme aux exigences légales.
Recommandations pour les acheteurs et fournisseurs
Les acheteurs publics doivent intégrer des critères précis de transparence et de responsabilité dans leurs consultations. Cela inclut des exigences sur la traçabilité des décisions prises par l’IA et leur explicabilité. Il est aussi conseillé de favoriser les solutions respectueuses des principes éthiques et intégrant la sécurité dès la conception.
Les fournisseurs doivent démontrer la robustesse et la conformité de leurs systèmes aux normes en vigueur. Ils doivent fournir une documentation détaillée, notamment sur la gestion des biais, la protection des données et la maintenance sécurisée. Un dialogue clair et structuré entre acheteurs et fournisseurs facilite l’achat responsable et améliore la performance globale des projets.
Points clés :
| Aspect | Action Recommandée |
|---|---|
| Biais | Audit régulier, correction algorithmique, feedback |
| RGPD | Base légale claire, DPIA, sécurisation et anonymisation |
| Acheteurs/Fournisseurs | Critères transparents, respect éthique, documentation |
Questions Fréquentes

L’utilisation de l’intelligence artificielle dans les marchés publics soulève des enjeux précis autour des biais algorithmiques, du respect du RGPD et de la transparence des systèmes. Ces défis engagent autant des cadres réglementaires que des bonnes pratiques à mettre en œuvre pour garantir l’équité et la sécurité juridique.
Quelles sont les régulations en place pour limiter les biais dans l’IA concernant les marchés publics?
Les régulations actuelles, notamment les recommandations de la CNIL, insistent sur une approche éthique et responsable encadrant l’usage de l’IA. Le cadre européen sur la gouvernance de l’IA vise à prévenir les discriminations et garantir l’équité, ce qui impacte directement les marchés publics.
La commande publique doit respecter ces règles pour garantir que les algorithmes ne reproduisent ni n’amplifient les biais existants. La transparence et les audits d’algorithmes font partie des mécanismes clés pour limiter ces risques.
Comment le RGPD affecte-t-il l’utilisation de l’IA dans la passation des marchés publics?
Le RGPD encadre strictement le traitement des données personnelles utilisées par les systèmes d’IA dans les marchés publics. Toute collecte ou usage de données doit respecter les principes de minimisation, finalité et consentement.
Le RGPD impose aussi des obligations sur la sécurité des données et prévoit des droits pour les personnes concernées, notamment en matière d’accès et de rectification. Ces contraintes doivent être intégrées dès la conception des projets IA liés à la commande publique.
De quelle manière peut-on assurer la transparence des algorithmes d’IA utilisés dans les marchés publics?
La transparence passe par la documentation précise des modèles algorithmiques, leur logique de décision, et leur impact potentiel sur les décisions de marché. Les audits externes et les rapports réguliers permettent de vérifier la conformité et l’équité.
Certaines expérimentations incluent des outils d’explicabilité afin que les parties prenantes, y compris les soumissionnaires, puissent comprendre les critères utilisés par l’IA.
Quels sont les risques principaux associés à l’utilisation de l’IA dans les marchés publics?
Les risques majeurs comprennent la discrimination discriminatoire liée aux biais algorithmiques, ainsi que la non-conformité réglementaire en matière de données personnelles. Le manque de transparence peut également bafouer les principes d’équité et de non-discrimination.
Par ailleurs, une mauvaise gestion des données ou un défaut de contrôle peut conduire à des failles sécuritaires, suscitant des enjeux éthiques et juridiques considérables.
Comment les données personnelles sont-elles protégées lors de l’emploi de systèmes IA dans les marchés publics?
La protection des données repose sur des mesures techniques et organisationnelles renforcées, comme le chiffrement, l’anonymisation et la pseudonymisation. La CNIL recommande aussi un contrôle strict des accès et une gouvernance claire pour ces systèmes.
Le respect des procédures d’évaluation d’impact sur la vie privée (PIA) est obligatoire avant le déploiement des technologies IA impliquant des données sensibles.
Quelles bonnes pratiques existent pour prévenir les biais dans l’IA au sein des marchés publics?
Parmi les bonnes pratiques figurent la diversité des jeux de données, la revue régulière des algorithmes par des experts indépendants et l’intégration d’équipes pluridisciplinaires dès la conception. L’adoption d’indicateurs spécifiques pour mesurer l’équité est aussi encouragée.
Enfin, il est primordial d’instaurer un suivi continu des effets de l’IA sur les procédures afin d’anticiper et corriger rapidement toute dérive.
Conclusion

L’intégration de l’intelligence artificielle dans les marchés publics apporte des gains réels d’efficacité, mais elle introduit aussi des risques structurants qui ne peuvent être ignorés. Les biais algorithmiques, les exigences du RGPD et les obligations de transparence constituent aujourd’hui les trois principaux points de vigilance pour les acheteurs publics. Mal maîtrisés, ces risques peuvent fragiliser l’égalité de traitement, la sécurité juridique des procédures et la confiance des opérateurs économiques.
Les biais algorithmiques représentent un danger particulier, car ils sont souvent invisibles et hérités des données d’apprentissage ou des choix de conception des modèles. Dans un contexte de commande publique, un biais peut conduire à des discriminations indirectes, à l’exclusion de certaines catégories d’entreprises ou à des notations faussées. Juridiquement, ces dérives exposent l’acheteur à des recours fondés sur la rupture d’égalité ou le favoritisme, même lorsque l’intention initiale était neutre.
Le respect du RGPD ajoute une couche de complexité supplémentaire. L’utilisation d’IA implique fréquemment le traitement de données personnelles, parfois sensibles, ce qui impose des obligations strictes de minimisation, de transparence et de sécurisation. Analyses d’impact, information des personnes concernées, contrôle des mécanismes de mémorisation et supervision humaine deviennent incontournables. Une non-conformité sur ces aspects peut entraîner des sanctions administratives, mais aussi fragiliser la légalité globale de la procédure de marché.
Enfin, la transparence reste le socle indispensable pour rendre l’IA acceptable dans les marchés publics. Les acheteurs doivent être capables d’expliquer le rôle de l’algorithme, les critères mobilisés et la place du jugement humain dans la décision finale. L’IA ne peut être ni une boîte noire ni un décideur autonome. Lorsqu’elle est correctement gouvernée, auditée et encadrée, elle devient un outil d’aide puissant ; lorsqu’elle est déployée sans maîtrise, elle se transforme en risque juridique et éthique majeur pour la commande publique.
Je veux remporter des appels d’offres ! 🏆
À propos de l’auteur (Philippe COURTOIS)

Après une première partie de carrière dédiée au commerce et à la vente (Banque LCL, Unilever, groupe Seloger.com) je me suis spécialisé dès 2010 dans la réponse aux appels d’offres, d’abord au sein de grands groupes (Essity, Bureau Veritas, groupe Sonepar) puis en tant que Consultant Marchés Publics dans un cabinet de conseil, avant de participer enfin au lancement des marchés publics pour la Société du Grand Paris dans le cadre du plus grand projet d’infrastructure d’Europe (Grand Paris Express).
C’est fort de cette expertise concrète et issue du terrain que j’ai décidé en 2022 de lancer mon activité et d’accompagner les entreprises souhaitant augmenter leur part de marché sur le secteur public.
À propos d’AO Conquête
AO Conquête accompagne les PME souhaitant se positionner efficacement sur les marchés publics afin de gagner en croissance.
Détection des appels d’offres, analyse du dossier de consultation, construction du dossier de réponse, rédaction ou refonte de votre mémoire technique : quel que soit votre secteur d’activité, c’est toute une gamme de solutions clé-en-main que nous proposons pour accompagner votre développement commercial.
Ne passez plus à côté des appels d’offres !

Augmentez dès maintenant votre taux de réussite sur les marchés publics en contactant un expert !

En savoir plus
AO Conquête s’engage à accompagner le développement de votre entreprise en la positionnant efficacement sur le secteur public.
Ne passez plus à côté des appels d’offres et contactez-nous dès maintenant :

