Si tu traînes sur Hacker News ce soir, t’as peut-être vu passer un post intitulé « When AI ‘Works’ and Still Fails ». Un point, zéro commentaire. Le genre de truc qui glisse entre les mailles du feed, noyé sous les annonces de levées de fonds et les benchmarks bidons. Pourtant, ce titre dit tout. Il résume un phénomène dont personne ne parle, parce que ça fout en l’air le storytelling dominant de l’IA comme solution magique.
L’article original, sur Sentient Notes, n’est pas encore sous mes yeux, mais le titre seul est une claque. Parce que c’est facile de parler des IA qui buggent, qui hallucinent, qui sortent des conneries. On a tous ri des prompts foireux qui génèrent des poulets à trois pattes. Mais le vrai problème, le truc vicieux, c’est quand l’IA fait exactement ce qu’elle est censée faire. Quand elle suit son entraînement à la lettre, applique son algorithme sans faute, et produit un résultat parfaitement logique… qui est complètement à côté de la plaque dans le contexte réel.
Prends un exemple simple. Une IA de recrutement qui filtre les CV. Elle est entraînée sur des données historiques, elle apprend à repérer les « bons » profils. Elle fonctionne. Elle identifie les candidats qui ressemblent à ceux qui ont été embauchés par le passé. Elle perpétue les biais existants, elle écarte les profils atypiques, elle renforce la monoculture. Techniquement, elle bosse nickel. Humainement et éthiquement, c’est une catastrophe. Elle n’a pas buggé. Elle n’a pas halluciné. Elle a juste fait son job trop bien.
C’est là que ça coince. L’industrie adore mesurer la « performance » : précision, rappel, F1-score, tout ça. On organise des compétitions, on publie des papiers, on se tape sur la poitrine. « Notre modèle atteint 99,8% sur le benchmark ! » Super. Et dans la vraie vie ? Il prend des décisions qui semblent cohérentes dans son petit monde de données, mais qui deviennent absurdes dès que la réalité, bordélique et imprévisible, entre en jeu.
Les gros acteurs le savent. Anthropic, avec son approche safety-first, tente de gratter ce problème en intégrant des couches de vérification, en poussant l’alignement au-delà de la simple optimisation de perte. Mais même eux, c’est un chantier titanesque. Chez les autres, c’est souvent pire. OpenAI balance des modèles de plus en plus puissants, avec des capacités étendues, mais la question du « pour quoi faire » reste en suspens. Sam Altman te parle d’AGI et de risques existentiels, mais dans les faits, on a des outils qui peuvent générer du code impeccable… qui crée des failles de sécurité parce qu’il ne comprend pas le contexte d’exploitation.
Meta ne fait qu’amplifier le phénomène. En relâchant des modèles « ouverts » sans garde-fous sérieux, ils permettent à n’importe qui de déployer des IA qui « fonctionnent » techniquement mais peuvent causer des dégâts collatéraux monstrueux. C’est le far west, avec des sheriffs qui regardent ailleurs.
Le pire, c’est que ça ne se voit pas toujours tout de suite. Une IA de trading qui suit parfaitement ses stratégies peut provoquer un krach flash. Une IA de modération de contenu qui applique ses règles à la lettre peut censurer des discours légitimes. Elles ne sont pas « cassées ». Elles sont juste aveugles aux nuances que les humains, même cons, saisissent instinctivement.
Quand tu verras une annonce tonitruante sur une nouvelle IA « révolutionnaire », pose-toi la question : est-ce qu’elle va juste bien faire son job, ou est-ce qu’elle va comprendre ce qu’il faut vraiment faire ? Parce que dans ce secteur, la différence entre les deux est souvent un gouffre. Et pour l’instant, on est plus près du premier cas que du second.
Le silence sur Hacker News en dit long. Tout le monde préfère parler de la prochaine licorne que de ce problème fondamental. Mais c’est en creusant ces angles morts qu’on évitera de se prendre le mur. Ou pas.
Sources :
Comments are closed