
#rinolabo : L’alignement se vérifie plus qu’il ne se déclare
By Pierre-Yves
March 2, 2026
L’alignement déclaré est souvent une stratégie de survie. Dans une réunion, dire “Je ne suis pas d’accord” à un coût. Alors on acquiesce, on temporise, on “s’aligne”. Ce n’est pas toujours de la manipulation : c’est souvent un comportement rationnel dans un système où chacun compose avec des contraintes, des jeux d’acteurs et des zones d’incertitude (Crozier et Friedberg, 1977).
Dit autrement : l’alignement peut devenir une façade utile pour avancer… Mais instable.
La mécanique est classique : plus l’enjeu est politique (priorités, budget, périmètre, responsabilités), plus le désaccord migre vers l’informel. C’est la logique “prise de parole VS défection” décrite par Hirschman : « Quand parler semble inefficace ou risqué, on se retire, on contourne, on fait “à sa façon” » (Hirschman, 1970, éd. fr.).
L’enjeux de gouvernance ? Repérer les faux alignements !
Un faux alignement ne se voit pas au moment où quelqu’un dit “ok !”. Il se voit après, dans les traces opérationnelles :
- Retours en arrière et rework anormalement élevés
- Décisions locales incohérentes (chaque équipe interprète différemment)
- Hausse des demandes de clarification, de support, de validations “de sécurité”
- Contournements : on fait passer des arbitrages ailleurs, autrement, plus tard
Ce sont des signaux faibles, mais ils deviennent des signaux forts quand ils se répètent.
L’IA, un radar d’écarts entre intention et exécution ?
L’IA ne “détecte pas le mensonge” au sens moral. En revanche, elle peut aider à cartographier des incohérences à partir de données déjà existantes : comptes rendus, tickets, délais de cycle, historiques de décisions, verbatims d’enquêtes internes. L’idée est proche d’une logique d’auditabilité : repérer lorsque le discours “on est alignés” n’est pas suivi d’effets.
Concrètement, on peut outiller au moins trois questions :
- Où est-ce que les décisions se contredisent dans le temps ou entre équipes ?
- Où est-ce que l’exécution diverge systématiquement de l’intention initiale ?
- Où est-ce qu’on observe du silence (peu de remontées) mais beaucoup de rework ?
La règle d’or : diagnostic, pas surveillance
Si on utilise l’IA pour prendre des gens en défaut, on risque de créer plus de silence et donc plus de faux alignement. La valeur est ailleurs : utiliser le radar pour rouvrir des conversations utiles avec un cadre clair : finalités, minimisation des données, accès limité, restitution collective.
Chez RINO, on aide les dirigeants à cadrer ces usages : quels signaux mesurer, quelles données éviter et comment transformer les alertes en décisions plus solides.
Pourquoi pas vous ?
Références :
Crozier, M., Friedberg, E. (1977), « L’acteur et le système », Paris : Seuil.
Hirschman, A. O. (1970), « Défection et prise de parole » (éd. française). Paris : Fayard (éd. selon tirage).