Puissance ou ergonomie ?

La bataille silencieuse de l'IA

IA

Sylvain Morizet

6/15/20254 min read

Il y a quelques années encore, la notion de « puissance » semblait suffire à qualifier le progrès technique. Le smartphone le plus rapide, l’ordinateur le plus véloce, le modèle d’intelligence artificielle le plus "performant". Nous avions l’impression que plus ça allait vite, plus c’était bien. Et plus c’était complexe, plus cela traduisait une supériorité.

Ce paradigme est en train de s’effondrer.

La révolution actuelle de l’IA générative ne manque ni de puissance brute, ni d’avancées spectaculaires. OpenAI, Anthropic, Google ou Mistral publient à un rythme effréné des modèles de plus en plus performants, capables de résoudre des équations, d’écrire du code, d’imiter les voix ou d’analyser des bases de données entières en quelques secondes. Mais une question fondamentale surgit de cette frénésie : à quoi bon toute cette puissance si elle n’est pas utilisée ?

Et surtout : à quoi bon une machine géniale si elle est inaccessible, illisible, inutilisable pour la majorité ?

La puissance ne fait pas l’usage

L’histoire des technologies regorge de cas similaires. En 1985, seulement 4 % des foyers français possédaient un ordinateur personnel. La puissance des machines était déjà là. Ce qui manquait, c’était l’ergonomie : des interfaces intuitives, une accessibilité réelle, un pont entre l’utilisateur et la machine. Il a fallu attendre l’arrivée des interfaces graphiques, de la souris, et d’une certaine forme de "design émotionnel" pour que les ordinateurs envahissent les foyers.

L’IA vit aujourd’hui un moment équivalent. Le modèle GPT-4o d’OpenAI est prodigieux sur le papier. Mais il reste, pour une immense majorité d’utilisateurs, une boîte noire intimidante. De même pour Claude, Gemini, ou les modèles européens. La vitesse d’évolution est telle que les utilisateurs n’ont plus le temps de s’approprier les outils : ce qui devait libérer la créativité commence à fatiguer les esprits.

C’est ce que la psychologie ergonomique appelle la feature fatigue : ce moment où la surabondance de fonctions engendre non pas l’envie, mais le rejet.

Le piège de la complexité

Les études en ergonomie cognitive sont limpides sur ce point : la facilité d’usage est un facteur bien plus déterminant que la puissance perçue dans l’adoption d’une technologie. Selon le modèle UTAUT (Unified Theory of Acceptance and Use of Technology), utilisé dans de nombreuses études sociologiques, ce sont l’effort requis, la compatibilité avec les habitudes, et la confiance dans la technologie qui déterminent l’usage réel — bien plus que les benchmarks ou les promesses de performance.

Autrement dit, la meilleure IA du monde ne sert à rien si elle exige un doctorat pour être utilisée.

C’est le paradoxe actuel : à force de vouloir prouver qu’elles sont les plus puissantes, les entreprises du secteur négligent l’essentiel — l’interface, le geste, l’expérience. Elles oublient que ce n’est pas l’exploit technique qui convertit, mais l’élégance de l’usage.

Une fracture sociale silencieuse

Ce déséquilibre entre puissance et ergonomie crée une nouvelle fracture numérique, plus insidieuse que la précédente. Elle ne se situe plus entre ceux qui ont accès à Internet et ceux qui ne l’ont pas, mais entre ceux qui savent naviguer dans la complexité et ceux qui s’y perdent. Elle oppose les « AI power users » — consultants, développeurs, ingénieurs — à ceux qui n’osent même plus cliquer, de peur de ne pas comprendre.

Une étude du Boston Consulting Group révèle que 78 % des entreprises testent des solutions d’IA, mais seulement 4 % parviennent à en tirer un retour sur investissement concret. Autrement dit : la majorité expérimente sans comprendre, investit sans bénéfice, s’épuise à essayer.

C’est là que se joue un glissement préoccupant : l’IA risque de ne plus être un levier d’égalité, mais un amplificateur d’asymétries. Elle renforce les plus agiles et laisse de côté les autres. Or, comme toute technologie systémique, elle n’est pas neutre. Son ergonomie — ou son absence — devient un fait politique.

L’enjeu de l’invisibilité

Les grands acteurs l’ont compris. Google intègre désormais son IA Gemini dans Gmail, Docs, Search. Microsoft dissémine Copilot dans toute sa suite Office. Apple annonce une "Apple Intelligence" embarquée, fluide, presque imperceptible. L’objectif est clair : ne plus demander à l’utilisateur d’aller vers l’IA, mais amener l’IA à l’utilisateur, sans friction.

Cette stratégie de "l’IA invisible" est diaboliquement efficace. Elle contourne l’effort, supprime le doute, rend l’automatisation fluide. Mais elle pose une autre question, plus vertigineuse encore : à quel prix ?

Si l’IA devient omniprésente et indétectable, si elle pense pour nous avant même que nous ayons formulé nos besoins, que reste-t-il de notre autonomie ? Et surtout, que reste-t-il de notre compréhension ?

Vers une ergonomie du sens

Le problème n’est pas technologique. Il est philosophique et sociétal. Il ne s’agit pas d’opposer IA forte à IA douce, ni experts à novices. Il s’agit de remettre au centre une éthique de l’usage.

Cela suppose une nouvelle ergonomie, non pas fondée sur la simplicité artificielle — celle des assistants magiques qui font tout pour nous — mais sur une simplicité maîtrisée, une transparence des processus, une capacité à comprendre ce que fait la machine et pourquoi.

Cela suppose aussi une pédagogie collective, un droit à l’expérimentation lente, une « slow IA » qui n’humilie pas ceux qui prennent le temps de comprendre.

Et surtout, cela exige de se souvenir que l’ergonomie est politique. Elle dit pour qui on conçoit un outil. Qui est inclus. Qui est laissé de côté.

Conclusion : faire société avec l’IA

Il est temps de sortir du mythe de la toute-puissance technique. L’intelligence artificielle ne changera pas le monde parce qu’elle est plus forte. Elle le changera si elle devient compréhensible, appropriable, partageable. Si elle permet à chacun de faire mieux ce qu’il sait faire, plutôt que d’en faire toujours plus à sa place.

Le progrès ne se mesure pas à la performance d’un modèle, mais à sa capacité à servir l’humain dans sa pluralité — et non uniquement dans sa technicité.

Puissance ou ergonomie ? Ce n’est pas un choix binaire. C’est un arbitrage culturel. Et il nous revient de le poser.