Offre principale

Intelligence artificielle

Impacts environnementaux, gouvernance, cadre réglementaire, acculturation des équipes. Un regard outillé sur l'IA : ni hype, ni posture, ni slogans.

Pourquoi ce sujet demande un cadrage sérieux
L'IA est présentée tantôt comme une solution universelle, tantôt comme une menace existentielle. Les deux postures court-circuitent les vrais arbitrages.
Les impacts environnementaux réels, consommation GPU, data centers, eau, cycles de renouvellement matériel, sont masqués par le vocabulaire du « cloud » et de l'immatériel.
Le cadre réglementaire européen (AI Act) entre progressivement en vigueur depuis 2024 : les obligations selon la criticité des usages ne sont pas encore correctement intégrées dans la plupart des organisations.
La dépendance à quelques fournisseurs dominants (hyperscalers, éditeurs de modèles) crée des risques de continuité, d'extraterritorialité et de verrouillage qui s'ajoutent aux enjeux de gouvernance.
Mon angle

L'IA n'est pas un sujet isolé. Elle s'inscrit dans un ensemble plus large : infrastructures, données, matériels, dépendances fournisseurs, flux d'énergie et usages réels. Mon travail consiste à rendre ces imbrications lisibles et à les traduire en décisions utiles.

Distinguer ce qui relève vraiment de l'IA de ce qui est surtout un effet de vocabulaire.
Mettre des ordres de grandeur sur les impacts environnementaux, sans alarmisme ni minimisation.
Lire les obligations réglementaires concrètes sans les réduire à une liste de cases à cocher.
Aider les équipes à s'approprier les usages sans perdre le sens critique sur les dépendances créées.

Trois axes d'intervention

Impacts, gouvernance et acculturation, trois entrées complémentaires selon la maturité et les besoins de l'organisation.

Impacts environnementaux de l'IA

Comprendre ce que consomme vraiment l'IA : énergie, eau, matériaux critiques, empreinte des modèles, des GPU et des infrastructures mobilisées.

  • Ordres de grandeur réels vs discours marketing
  • Analyse par usage : inférence, entraînement, stockage
  • Arbitrages entre utilité et coût environnemental
  • Intégration dans un diagnostic Green IT ou bilan carbone numérique

Gouvernance & cadre réglementaire

Lire les obligations issues de l'AI Act européen, des recommandations CNIL et des politiques d'usage internes, et les traduire en décisions concrètes.

  • Cartographie des usages selon la classification de risque AI Act
  • Obligations applicables selon le type d'organisation et d'usage
  • Politique d'usage IA : cadrage et rédaction
  • Articulation avec RGPD, CSRD et NIS2 le cas échéant

Usages & acculturation

Accompagner les équipes dans l'appropriation des outils IA sans perdre la lucidité sur les dépendances, les limites et les risques associés.

  • Ateliers d'acculturation adaptés au niveau et au contexte
  • Cadrage des usages pertinents vs usages à risque ou à faible valeur
  • Lecture des dépendances fournisseurs et des risques de verrouillage
  • Intégration dans une démarche de numérique responsable
AI Act, ce qui est en vigueur

Le règlement européen sur l'intelligence artificielle s'applique de façon échelonnée depuis août 2024. Les interdictions et obligations de transparence pour les systèmes à usage général sont déjà actives ou entrent en vigueur progressivement jusqu'en 2027.

Systèmes interdits : en vigueur depuis février 2025 (manipulation subliminale, notation sociale, surveillance biométrique de masse dans l'espace public).
Modèles à usage général (GPAI) : obligations de transparence et de documentation applicables depuis août 2025.
Systèmes à haut risque : obligations complètes (conformité, audit, enregistrement) à partir d'août 2026.
Point d'attention : les organisations qui déploient des solutions IA tierces peuvent être qualifiées de « déployeurs » au sens du règlement, avec des obligations propres, indépendantes de celles du fournisseur.
Pour qui, dans quel contexte
DSI : qui déploie ou évalue des outils IA et veut cartographier les risques, les dépendances et les obligations associées.
Direction RSE / ESG : qui intègre les impacts de l'IA dans son reporting CSRD ou sa feuille de route numérique responsable.
Établissements d'enseignement supérieur : qui encadrent les usages IA des étudiants, des chercheurs et des personnels administratifs.
Collectivités et ETI : qui évaluent une solution IA dans le cadre d'un marché public ou d'un déploiement interne, et doivent en maîtriser les risques et les obligations.
Comités de direction : qui veulent une lecture synthétique des enjeux IA pour prendre des arbitrages éclairés, sans plonger dans la technique.
Ma manière de travailler
1

Cadrage

Identifier les usages IA en place ou envisagés, les fournisseurs, les données impliquées et le contexte organisationnel.

2

Analyse

Qualifier les impacts (environnementaux, réglementaires, dépendances) et les risques associés à chaque usage identifié.

3

Hiérarchiser

Distinguer les sujets urgents des ajustements de fond, et éviter de traiter à égalité ce qui ne l'est pas.

4

Restituer

Traduire l'analyse en recommandations, politique d'usage, feuille de route ou contenu de formation selon le besoin.

Livrables possibles
Note d'analyse des impacts environnementaux d'un usage IA spécifique (modèle, infrastructure, flux de données).
Cartographie des usages IA selon la classification de risque AI Act et identification des obligations applicables.
Politique d'usage IA : cadrage, rédaction, adaptation au contexte de l'organisation.
Atelier d'acculturation : impacts, risques, gouvernance, format adapté au public (équipes métier, direction, étudiants, agents).
Conférence ou intervention en établissement d'enseignement supérieur.
Appui ponctuel à l'évaluation d'une solution IA dans le cadre d'un marché public.
En lien avec
Green IT, pour intégrer l'IA dans une analyse d'impact numérique plus large (cloud, data, cycle de vie matériel).
Résilience des SI, pour analyser les dépendances fournisseurs IA, les risques d'extraterritorialité et de continuité.