IA 7 min de lecture

Le rôle du conseil d'administration face à l'IA : cinq questions que chaque administrateur devrait poser

L’intelligence artificielle figure désormais à l’ordre du jour de la plupart des conseils d’administration. Et pourtant, dans bien des salles de réunion, la conversation n’a guère dépassé « que font nos concurrents? » et « devrions-nous en faire plus? »

C’est un problème.

Non pas parce que l’IA n’est pas importante — elle l’est — mais parce que le rôle du conseil n’est pas de courir après le cycle d’engouement. Son rôle est de s’assurer que l’organisation aborde l’IA avec le bon niveau de préparation, la bonne gouvernance et une compréhension réaliste de ce qu’il faut pour générer une valeur réelle.

Au cours des 25 dernières années, j’ai eu le privilège de présenter des stratégies technologiques à des conseils d’administration dans plusieurs organisations. J’ai vu ce qui se passe quand un conseil pose des questions pertinentes et bien informées — et ce qui se passe quand il ne le fait pas. La différence dans les résultats est significative.

Ce que j’ai observé, c’est qu’une supervision efficace de l’IA exige que les administrateurs jouent un double rôle : challenger la direction avec les bonnes questions, et évaluer honnêtement si le conseil lui-même est équipé pour évaluer les réponses.

Voici cinq questions que chaque administrateur devrait poser.

1. « Nos données sont-elles vraiment prêtes — ou construisons-nous sur du sable? »

Posez cette question à la direction.

C’est la question qui sépare les organisations qui réussiront avec l’IA de celles qui dépenseront des millions en leçons coûteuses.

Chaque initiative d’IA — qu’il s’agisse d’un moteur de recommandation, d’un modèle prédictif ou d’un chatbot intelligent — dépend des données. Pas simplement des données qui existent, mais des données qui sont inventoriées, comprises, propres, accessibles et gouvernées.

D’après mon expérience, la plupart des organisations surestiment leur maturité en matière de données. Elles ont des données, certes. Mais quand on procède à un inventaire et une évaluation de qualité approfondis, on découvre souvent qu’une portion significative est incomplète, incohérente, cloisonnée ou tout simplement structurée d’une façon que l’IA ne peut pas utiliser.

Le conseil n’a pas besoin de comprendre l’architecture des données. Mais il a besoin d’entendre une réponse crédible à cette question. Si la direction ne peut pas articuler clairement où en sont les données de l’organisation aujourd’hui — ce qu’elle possède, dans quel état de qualité, et quelles lacunes existent — cela en dit long sur la maturité de ses ambitions en IA.

2. « Sommes-nous vraiment capables de livrer ceci — et comment le savons-nous? »

Posez cette question à la direction.

C’est la question de crédibilité, et c’est une question que les conseils hésitent parfois à poser directement.

Les programmes d’IA ne sont pas des projets technologiques standards. Ils exigent des compétences spécifiques (ingénierie des données, apprentissage automatique, ingénierie de prompts), un état d’esprit de développement différent (expérimentation, itération, tolérance à l’incertitude) et une gestion du changement organisationnel significative.

Quand la direction présente une feuille de route en IA, le conseil devrait sonder la capacité de livraison derrière celle-ci. Avons-nous le talent? Construisons-nous, achetons-nous ou collaborons-nous? L’avons-nous déjà fait, même à petite échelle? Quel est notre bilan?

Un programme d’IA bien structuré commencera par une évaluation réaliste de la maturité — une évaluation honnête de la position réelle de l’organisation, pas de celle à laquelle elle aspire. Si le conseil ne voit pas de preuves de cette lucidité dans la proposition, c’est un signal d’alarme.

3. « À quoi ressemble le succès concrètement — en chiffres que nous pouvons suivre? »

Posez cette question à la direction.

J’ai observé un schéma récurrent : les conseils se laissent impressionner par ce que d’autres organisations font supposément avec l’IA et approuvent des programmes sur la base d’un sentiment général que « nous devons être dans cet espace ». Le dossier d’affaires est construit sur l’optimisme plutôt que sur des résultats mesurables.

Ce n’est pas suffisant pour tout autre investissement majeur, et ça ne devrait pas l’être pour l’IA.

Les administrateurs devraient s’attendre à une articulation claire des rendements attendus, liés à des résultats d’affaires spécifiques : réduction des coûts, croissance des revenus, gains d’efficacité, amélioration de l’expérience client. Pas des promesses génériques — des cibles spécifiques et mesurables avec des échéanciers réalistes.

Tout aussi important : le conseil devrait comprendre le séquençage des investissements. Les programmes d’IA nécessitent souvent des investissements fondamentaux — plateformes de données, infrastructure, cadres de gouvernance — avant que toute valeur d’affaires visible n’émerge. Un programme crédible expliquera cela honnêtement, plutôt que de mettre de l’avant les cas d’usage impressionnants pour obtenir l’approbation.

4. « Quels sont les risques que nous ne voyons pas? »

Posez cette question à la direction — et à vous-mêmes.

C’est peut-être la question la plus importante de cette liste.

Les risques évidents de l’IA — dépassements de coûts, projets échoués, manque de talent — sont généralement abordés dans tout dossier d’affaires décent. Les risques qui devraient préoccuper le conseil sont ceux qui ne figurent pas dans la présentation.

Quel est le scénario le plus plausible dans lequel l’IA cause du tort à l’organisation sans que personne ne s’en aperçoive immédiatement? Pensez-y : un modèle d’IA qui introduit graduellement des biais dans les décisions d’embauche. Un chatbot qui donne silencieusement des informations incorrectes aux clients. Un processus automatisé qui prend des décisions que personne ne comprend pleinement ou ne peut expliquer à un régulateur.

Ce ne sont pas des scénarios de science-fiction. Cela se produit aujourd’hui dans des organisations qui ont déployé l’IA sans mécanismes de surveillance adéquats.

Le rôle du conseil ici est de s’assurer que la direction a réfléchi aux modes de défaillance, pas seulement aux scénarios de succès. Et c’est aussi le moment où les administrateurs doivent retourner la question vers eux-mêmes : notre conseil a-t-il une compréhension suffisante de l’IA pour reconnaître ces risques? Si chaque membre du conseil s’en remet à la direction pour savoir de quoi s’inquiéter, c’est une lacune de gouvernance.

5. « Avons-nous mis les garde-fous en place — avant d’accélérer? »

Posez cette question à vous-mêmes en tant que conseil.

La gouvernance de l’IA n’est pas une case à cocher pour la conformité. C’est un catalyseur stratégique.

Les organisations qui établissent des politiques d’IA claires, des lignes directrices éthiques, des cadres de protection de la vie privée et des limites d’utilisation tôt dans leur parcours d’IA avancent en réalité plus vite que celles qui ne le font pas. Cela semble contre-intuitif, mais c’est vrai : quand les gens connaissent les règles, ils innovent avec confiance au lieu d’hésiter dans l’incertitude.

Le conseil devrait demander si l’organisation a une politique formelle en matière d’IA. S’il existe des lignes directrices claires sur les données qui peuvent et ne peuvent pas être utilisées. S’il y a un processus pour évaluer les initiatives d’IA par rapport aux normes éthiques et réglementaires avant leur lancement, et non après qu’un problème survienne.

Et le conseil devrait se demander : avons-nous défini nos propres attentes en matière d’utilisation responsable de l’IA? Avons-nous articulé à la direction quel niveau de risque est acceptable? Si ce n’est pas le cas, nous déléguons implicitement une responsabilité de gouvernance qui appartient au niveau du conseil.

La vraie question derrière les cinq

En fin de compte, ces cinq questions pointent vers une seule question plus profonde : ce conseil est-il équipé pour exercer une supervision significative de l’IA, ou approuvons-nous simplement ce que nous ne comprenons pas pleinement?

Ce n’est pas une question confortable. Mais c’est celle qui sépare les conseils qui gouvernent de ceux qui entérinent.

L’IA est trop conséquente — trop pleine de potentiel et trop pleine de risques — pour être laissée à la direction seule. Le conseil n’a pas besoin de devenir technique. Mais il a besoin de devenir suffisamment informé pour poser les questions qui comptent, et suffisamment honnête pour reconnaître quand il a besoin d’aide pour y répondre.

Partager cet article

À propos de l'auteur

André Boisvert

André Boisvert

CIO & Strategic Consultant

DSI et consultant stratégique accompagnant les organisations dans l'IA, la transformation numérique et la stratégie TI. Partage de perspectives stratégiques hebdomadaires sur la technologie d'entreprise.

LinkedIn

Articles connexes

Restez informé

Recevez chaque semaine des perspectives sur l'IA, la transformation numérique et la stratégie TI.