L’adoption massive de l’IA expose les organisations à un ensemble de risques : shadow IT, fuites de données, pratiques non maîtrisées et dépendance croissante aux fournisseurs technologiques. Dans ce contexte, les directions achats doivent jouer un rôle déterminant dans la gouvernance, l’encadrement contractuel et l’évaluation des solutions d’IA. Entre pilotage, conformité, réduction des risques et gestion du changement, les achats deviennent une fonction stratégique pour sécuriser les usages et préparer l’arrivée de l’AI Act.
L’essor rapide de l’intelligence artificielle en entreprise crée un paradoxe : un enthousiasme technologique fort d’un côté, et un ralentissement de certains projets, voire des retours en arrière, lorsque les risques ne sont plus maîtrisés. L’enjeu ne réside plus dans la question de savoir s’il faut recourir à l’IA, mais plutôt dans la manière dont ces outils doivent être intégrés, sécurisés et pilotés.
Les récentes annonces de suppressions de postes dans certaines organisations illustrent moins une destruction massive d’emplois qu’un phénomène de résistance au changement. Les collaborateurs peu enclins à adopter ces nouveaux outils deviennent, de fait, un premier frein à la transformation. Entre une génération Z habituée à expérimenter sans toujours mesurer les risques — notamment via des pratiques de shadow IT — et des générations plus anciennes favorables à la modernisation mais parfois déstabilisées par la vitesse des évolutions, les usages internes demeurent hétérogènes.
Cette situation met en lumière un premier chantier prioritaire : information, sensibilisation et formation. La maîtrise des outils d’IA ne peut reposer uniquement sur le discernement individuel. Elle nécessite une gouvernance, un cadre et des garde-fous clairs. Et c’est précisément sur ce terrain que les directions achats sont attendues.
Les signaux d’alerte s’accumulent. Les incidents impliquant des systèmes d’IA ont augmenté de 56 % en un an, avec plus de 230 cas recensés, incluant fuites d’informations, biais décisionnels et expositions non maîtrisées de données sensibles. Parallèlement, selon plusieurs études sectorielles, près de la moitié des organisations reconnaissent avoir déjà introduit des données non publiques dans des IA génératives sans véritable contrôle ou procédure interne.
Face à ces dérives, un consensus émerge : l’écosystème IA constitue désormais un risque majeur de sécurité. À l’image du RGPD, l’encadrement réglementaire devient indispensable. L’AI Act européen s’apprête à formaliser ce cadre, mais les entreprises ne peuvent attendre que la conformité soit imposée. Elles doivent anticiper et structurer leur gouvernance dès maintenant.
Les achats disposent de leviers concrets pour réduire cette exposition. Intégrer le risque IA dans la matrice globale des risques constitue une première étape pragmatique. Mettre en place des questionnaires de conformité pour les fournisseurs — incluant la localisation des serveurs, les modalités d’usage des données et les mécanismes d’entraînement des modèles — permet également de sécuriser la chaîne numérique. Ces contrôles peuvent ensuite alimenter des audits ciblés pour vérifier la réalité des engagements pris par les prestataires.
Au-delà des outils, l’enjeu est aussi culturel. Les achats sont idéalement positionnés pour structurer un modèle de gouvernance, accompagner les équipes dans le changement, instaurer des normes internes et développer des règles cohérentes sur la gestion des données sensibles, qu’il s’agisse d’informations contractuelles, financières ou opérationnelles.
Que l’entreprise choisisse d’industrialiser l’IA dans un SI achats ou de lancer des initiatives plus ambitieuses, la problématique reste identique : maîtriser les risques tout en permettant l’innovation. Aujourd’hui, nombre de grandes entreprises françaises adoptent une posture prudente, allant jusqu’à restreindre l’usage de certaines plateformes grand public. Un signal à interpréter comme une invitation à structurer, plutôt qu’à freiner, la montée en puissance de l’IA.