Alors, tu te souviens de l’époque où l’école servait à former des esprits critiques, pas des consommateurs dociles ? Google, lui, a une vision plus… pragmatique. Des documents internes fraîchement déposés, rapportés par NBC News, montrent noir sur blanc que le géant de Mountain View considère son travail dans les écoles comme un moyen de créer une « pipeline d’utilisateurs futurs ». Traduction : transformer les gosses en clients à vie. Et pendant ce temps, le Financial Times s’interroge sur la montée des « machines à réponses »: l’IA qui apprend à pondre des réponses polies sur commande, comme les étudiants formatés par l’université. Tu vois le tableau ? On conditionne les humains à devenir des consommateurs fidèles pendant qu’on fabrique des machines qui imitent à la perfection ces humains formatés. La boucle est bouclée, et elle est plutôt glauque.
Commençons par Google. Ces documents, c’est du lourd. Ils montrent que la compagnie admettait en interne que YouTube, sa plateforme star, pouvait être « unsafe » (lire : dangereuse) et distrayante pour les enfants. Mais bon, ça n’a pas empêché de pousser Chromebooks, Google Classroom et tout le tintouin dans les classes. Le calcul est simple : tu mets un gamin de 8 ans devant un outil Google, il grandit avec, il devient accro à l’écosystème, et hop, tu as un utilisateur pour la vie. C’est du marketing basique, mais appliqué à l’éducation, ça pue. L’école devient un terrain de chasse commercial, et les profs, sans le savoir, des vendeurs de produits Google.
Et là, devine quoi : pendant qu’on formate les gosses, l’IA apprend à faire exactement la même chose. Le Financial Times souligne que les universités ont longtemps entraîné les étudiants à produire des réponses polies et standardisées sur demande. Pense aux dissertations formatées, aux présentations PowerPoint impeccables… Maintenant, les modèles de langage comme GPT-4 ou Claude font pareil : ils crachent des réponses lisses, bien structurées, mais souvent vides de pensée originale. C’est le triomphe de la forme sur le fond. L’article pose la question : « What now? » – et c’est une putain de bonne question. Parce que si l’éducation se réduit à créer des machines humaines qui récitent des leçons, et que l’IA devient meilleure qu’eux pour ce jeu, à quoi bon ?
Tu vois où je veux en venir ? Google fabrique des consommateurs, l’IA fabrique des imitateurs, et au milieu, l’éducation en prend un coup. C’est un cercle vicieux de bullshit. D’un côté, tu as une entreprise qui instrumentalise l’apprentissage pour faire du fric, de l’autre, une technologie qui risque de rendre cet apprentissage obsolète. Et le pire, c’est que tout le monde joue le jeu. Les écoles adoptent Google parce que c’est « gratuit » et pratique, les étudiants utilisent l’IA pour tricher ou se faciliter la vie, et les entreprises comme Google se frottent les mains en voyant leur base d’utilisateurs grossir.
Alors, on fait quoi ? Rester assis à regarder l’éducation se transformer en usine à clients et à réponses préfabriquées ? Non. Il faut rappeler que l’école, c’est pas une sandbox pour les marketeux. Et l’IA, c’est pas juste un outil pour éviter de réfléchir. Si on laisse faire, on va se retrouver avec une génération de moutons numériques, incapables de penser par eux-mêmes, dépendants de Google pour tout et de l’IA pour le reste. C’est pas un futur, c’est une dystopie.
Google, avec sa « pipeline », montre une fois de plus que les bonnes intentions, c’est pour la com’. L’IA, avec ses réponses parfaites, nous rappelle que la technologie peut amplifier nos pires travers. Et nous, on est là, à devoir choisir : est-ce qu’on veut des assistés ou des penseurs ? Des consommateurs ou des créateurs ? La réponse, pour une fois, elle est pas dans un document interne ou un modèle de langage. Elle est dans nos salles de classe, et dans notre gueule.
Allez, on se réveille, les gars. L’éducation mérite mieux qu’un plan marketing et un chatbot.
Sources :
Comments are closed