Parmi les anecdotes et les histoires toujours pertinentes que le psychanalyste Roland Gori partage dans ses livres et conférences, l’histoire du berger et de l’expert m’a toujours paru excellente pour comprendre les métiers du savoir et la fonction ou le statut d’expert dans nos sociétés dites modernes.
L’histoire du berger et de l’expert est une histoire où un berger fait tranquillement paître son troupeau au fond d’une campagne. Il se voit interpellé par un homme arrivant en Range Rover rutilante, complet Armani, chaussures Gucci, lunettes Ray-Ban, cravate Hermès. Ce dernier demande au berger : « Si je peux vous dire exactement combien de montons il y a dans votre troupeau, m’en donnerez-vous un ? » Après avoir trouvé le nombre exact de moutons à l’aide de son téléphone cellulaire, de navigations sur internet, de connexions avec la NASA et d’une base de données incroyables, il repart avec la bête qu’il met à l’arrière de son véhicule. Le berger l’interpelle alors : « Si je devine avec précision ce que vous faites comme métier, est-ce que vous me rendrez ma bête ! Vous êtes expert ! Vous faites des audits et du conseil » dit le berger. Le type acquiesce et lui demande comment il a deviné. Le berger répond : « C’est facile, vous débarquez ici, alors que personne ne vous l’a demandé. Vous voulez être payé pour répondre à une question dont je connais déjà la réponse et dont tout le monde se fout. Et manifestement vous ne connaissez rien au métier, rendez-moi mon chien ! »
Cette histoire de Roland Gori semble être devenue la matrice du marché des savoirs, et notamment celui du conseil aux organisations à l’ère de l’intelligence artificielle.
L’IA ou le nouveau complet Armani du consultant
Aujourd’hui, l’expert ne descend plus seulement d’une Range Rover rutilante ; il débarque avec une « solution IA générative propriétaire ». Les lunettes Ray-Ban ont été remplacées par des algorithmes prédictifs, et la connexion NASA par un abonnement premium à OpenAI, par exemple.
Le danger de l’IA dans les métiers du savoir, et notamment du conseil aux entreprises et organisations, et particulièrement en Afrique, réside dans le viol de l’imaginaire. Lorsque les décideurs africains achètent des analyses « augmentées » par l’IA, ils n’achètent pas de la neutralité. Ils achètent un regard préformaté.
Mais le problème reste identique : l’obsession pour la mesure (le nombre de moutons) au détriment de la compréhension de la nature même des choses (le chien). Dans les capitales africaines, on voit voir, de plus en plus, fleurir des rapports de 200 pages générés par des machines qui « auditent » les administrations. Ces machines comptent tout, indexent tout, mais finissent invariablement par repartir avec le chien, convaincues d’avoir emporté le plus beau mouton du troupeau.
Le danger de l’IA dans les métiers du savoir, et notamment du conseil aux entreprises et organisations, et particulièrement en Afrique, réside dans le viol de l’imaginaire. Lorsque les décideurs africains achètent des analyses « augmentées » par l’IA, ils n’achètent pas de la neutralité. Ils achètent un regard préformaté.
L’IA est l’expert de Roland Gori sous stéroïdes : elle répond à des questions que personne ne lui a posées avec une assurance mathématique effrayante. Elle traite les réalités sociopolitiques complexes de la RDC ou du Sahel comme de simples variables d’ajustement. Pour un algorithme entraîné dans la Silicon Valley, un « mouton » est une unité statistique. Il ne sait pas que dans le contexte d’une économie de résilience, ce que l’expert prend pour une bête à tondre est en réalité le gardien du système (le chien).
Le retour au « berger » comme leader stratégique
Le conseil traditionnel vendait du temps cerveau. Le conseil « IA » vend une rente. En s’appuyant sur des outils dont ils ne maîtrisent ni les sources ni les biais, les cabinets de conseil internationaux renforcent un technoféodalisme où les données africaines sont aspirées pour nourrir des modèles qui reviendront ensuite nous être vendus comme des aides à la décision.
La centralité de l’humain ne se décrète pas dans une charte éthique rédigée par un robot. Elle s’exerce par la souveraineté psychique.
C’est-à-dire que nous payons des experts pour qu’ils nous disent, via une machine, ce que nos populations savent déjà, tout en leur cédant la propriété intellectuelle de notre propre réalité. C’est l’aliénation 4.0.
Pour que l’humain africain reste pertinent dans le contexte actuel, il doit redevenir ce berger qui, lui, connaît son métier. La centralité de l’humain ne se décrète pas dans une charte éthique rédigée par un robot. Elle s’exerce par la souveraineté psychique.
Le leader de demain est celui qui saura dire à l’expert : « Votre chiffre est juste, mais votre diagnostic est absurde car vous n’avez pas vu que vous tenez un chien. » L’IA peut optimiser la logistique d’une mine de cobalt, mais elle ne pourra jamais comprendre la profondeur anthropologique du rapport à la terre.
