La chaîne d'approvisionnement de l'IA : une lacune en matière de gouvernance que la plupart des conseils d'administration ignorent
Votre système d'IA n'est pas seulement votre IA
Lorsqu'une organisation déploie un système d'IA agentique, elle met généralement en place un ensemble complexe de composants développés par plusieurs parties : un modèle de base provenant d'un fournisseur, un cadre de déploiement d'un autre, des sources de données tierces, des API externes, des modèles spécialisés pré-entraînés, des bibliothèques logicielles et une infrastructure cloud. Chacun de ces composants comporte des risques potentiels – et l'organisation qui déploie le système est en fin de compte responsable du risque global de l'ensemble, quelle que soit l'origine de chaque composant.
C'est là tout le défi que pose la gouvernance de la chaîne d'approvisionnement en matière d'IA, un enjeu que le profil de normes de gestion des risques liés à l'IA « Agentic » de l'Université de Californie à Berkeley identifie comme un domaine hautement prioritaire dans le cadre de la fonction « Govern » du cadre de gestion des risques liés à l'IA (AI RMF) du NIST. Pour la plupart des organisations, cela traduit un écart considérable entre la portée de leurs cadres actuels de gouvernance de l'IA et l'étendue réelle de leur exposition aux risques liés à l'IA.
Ce que recouvre la chaîne d'approvisionnement
L'article de Berkeley, s'appuyant sur les travaux de Sheh et Geappen, définit la chaîne d'approvisionnement de l'IA comme englobant : les données utilisées pour entraîner et affiner les modèles ; les modèles eux-mêmes ; les frameworks logiciels et les bibliothèques utilisés pour les déployer et les orchestrer ; l'infrastructure cloud sur laquelle ils s'exécutent ; les API et outils tiers auxquels les agents ont accès ; ainsi que tout agent externe ou système agentique avec lequel le système déployé interagit.
Chaque maillon de cette chaîne d'approvisionnement constitue une source potentielle de risque. Les données d'entraînement peuvent introduire des biais, des vulnérabilités ou des contenus préjudiciables dans le comportement des modèles. Les modèles pré-entraînés provenant de fournisseurs externes peuvent présenter des capacités, des limites ou des propriétés d'alignement qui ne sont pas entièrement divulguées ou bien comprises. Les bibliothèques logicielles peuvent contenir des failles de sécurité. Les API externes peuvent modifier leurs formats de données ou leur comportement d'une manière qui amène les agents à mal interpréter leurs résultats. Et les agents tiers – de plus en plus courants dans les architectures multi-agents – introduisent des risques qui dépendent des normes de gouvernance des organisations qui les ont développés.
Le cadre NIST AI RMF Govern 6 et la réponse à la norme ISO 42001
Le cadre de gestion des risques liés à l'IA (AI RMF) du NIST aborde la gouvernance de la chaîne d'approvisionnement dans le cadre du volet « Govern 6 », qui exige la mise en place de politiques et de procédures visant à gérer les risques et les avantages liés à l'IA découlant des logiciels tiers, des données et d'autres problèmes liés à la chaîne d'approvisionnement. Les recommandations du document de Berkeley concernant le point 6.1 sont précises : les mécanismes de gouvernance de l'IA agentique doivent tenir compte des risques liés aux interactions avec des agents externes, et la surveillance ne peut se limiter au comportement individuel de l'agent, mais doit porter sur la santé et la sécurité des interactions de l'agent avec les systèmes et outils agentiques externes.
La norme ISO 42001 fournit le cadre de référence du système de gestion nécessaire à la mise en œuvre de ces exigences. La clause 8 (planification et contrôle opérationnels) exige que des contrôles soient mis en place pour les risques identifiés lors de la phase de planification, ce qui, pour les risques liés à la chaîne d'approvisionnement, signifie : une évaluation documentée de tous les composants tiers utilisés dans les systèmes d'IA ; des critères définis pour la sélection des fournisseurs et des composants, incluant des considérations de risque spécifiques à l'IA ; une surveillance continue des composants tiers afin de détecter les changements susceptibles d'affecter le comportement du système ou son profil de risque ; et des procédures pour répondre aux incidents de la chaîne d'approvisionnement, y compris les vulnérabilités des composants ou les défaillances des fournisseurs.
La nomenclature de l'IA
L'un des outils pratiques de gouvernance recommandés dans l'étude de Berkeley pour assurer la transparence de la chaîne d'approvisionnement est la « nomenclature IA » (AIBOM) – un registre officiel des composants utilisés pour construire, former, tester et déployer un système d'IA, inspiré du concept de « nomenclature logicielle » (SBOM) désormais largement adopté dans la gouvernance de la sécurité logicielle.
Un AIBOM permet aux organisations de comprendre la composition de leurs systèmes d'IA, d'évaluer le profil de risque de chaque composant et de réagir efficacement lorsqu'une vulnérabilité ou un incident affectant un composant doit être traité à l'échelle de tous les systèmes qui en dépendent. Sans AIBOM, les organisations gèrent les risques liés à la chaîne d'approvisionnement de l'IA à l'aveuglette : elles peuvent ne pas savoir quels sont les systèmes affectés par une vulnérabilité révélée dans un modèle ou une bibliothèque couramment utilisés avant que les conséquences ne soient déjà visibles.
Pour les conseils d'administration qui souhaitent obtenir des preuves de la maturité de la gouvernance de l'IA, demander un rapport AIBOM pour chaque déploiement significatif d'IA constitue un point de départ raisonnable et pratique.
Propriété intellectuelle et autonomie d'action
Une dimension souvent négligée de la gouvernance de la chaîne d'approvisionnement en matière d'IA est le risque lié à la propriété intellectuelle. Les systèmes d'IA agents agissant de manière autonome peuvent prendre des mesures qui enfreignent les droits de propriété intellectuelle de tiers : reproduire du contenu protégé par le droit d'auteur, utiliser des données propriétaires lors de l'entraînement ou du réglage fin, ou générer des résultats intégrant du matériel protégé sans mention de la source ni licence.
Le document de Berkeley recommande de mettre en place un filtrage des contenus afin de réduire ce risque et de faire preuve d'une prudence particulière avec les systèmes qui apprennent en permanence de leur environnement. Pour les organisations évoluant dans des secteurs à forte intensité de contenu – médias, édition, recherche, services professionnels –, ce risque justifie une évaluation explicite des risques et la mise en place de contrôles documentés.
Suivi des changements dans la chaîne d'approvisionnement
Les recommandations du document de Berkeley concernant Govern 1.5 identifient plusieurs événements qui devraient déclencher une réévaluation complète du plan de gestion des risques, notamment l'intégration de nouveaux éléments dans la chaîne d'approvisionnement, la suppression d'éléments existants et les changements affectant les entités de la chaîne d'approvisionnement. Il s'agit là d'une exigence de gouvernance que peu d'organisations ont encore intégrée dans leurs processus opérationnels liés à l'IA.
Concrètement, cela implique de mettre en place un processus de surveillance permettant de suivre les changements significatifs intervenant dans la chaîne d'approvisionnement des systèmes d'IA déployés – mises à jour des modèles, modifications des API, changements d'infrastructure, nouvelles intégrations de tiers – et de déclencher des processus d'évaluation des risques lorsque ces changements se produisent. Sans cela, une organisation pourrait se rendre compte que le système d'IA qu'elle a déployé et évalué il y a six mois a subi, à son insu, des modifications qui invalident son évaluation des risques antérieure.
Un point de départ pratique
Pour les équipes de direction qui souhaitent faire de la gouvernance de la chaîne d'approvisionnement en matière d'IA une priorité à court terme, trois mesures méritent une attention immédiate. Premièrement, il convient de réaliser un inventaire de la chaîne d'approvisionnement pour chaque déploiement d'IA d'envergure, en répertoriant tous les composants, leur origine et leurs droits d'accès. Deuxièmement, il faut évaluer si les processus existants de gestion des risques liés aux fournisseurs couvrent de manière adéquate les risques spécifiques à la chaîne d'approvisionnement en matière d'IA, notamment les vulnérabilités des modèles, la provenance des données et les risques liés aux actions autonomes. Troisièmement, il faut mettre en place un processus permettant de surveiller les changements significatifs au sein de la chaîne d'approvisionnement et de déclencher des analyses de risques dès qu'ils surviennent.
La chaîne d'approvisionnement de l'IA n'est pas une question technique qu'il convient de confier entièrement aux services informatiques et aux achats. Il s'agit d'un enjeu de gouvernance qui comporte des risques à l'échelle de l'entreprise. Les conseils d'administration qui l'aborderont comme tel seront mieux à même de la gérer efficacement.
Cadres de référence pertinents : NIST AI RMF (Govern 6, Govern 1.5) | ISO 42001, clauses 6.1, 8.4 et 8 | Profil Berkeley Agentic AI : Govern 6.1, Govern 1.5