OpenAI joue les savants fous pour séduire les labos

Alors que ChatGPT fête ses trois ans et squatte nos navigateurs comme un coloc indélicat, OpenAI remet le couvert. Cette fois, c’est pas pour t’aider à écrire un mail ou à pondre un résumé de réunion. Non, le nouveau terrain de jeu, c’est la science. Et quand je dis « terrain de jeu », je pense plutôt à un parc d’attractions où l’entrée coûte cher et où les manèges font parfois plus de bruit que de bien.

En octobre dernier, la firme de Sam Altman a annoncé le lancement d’un programme dédié aux chercheurs. L’idée ? Collaborer avec des labos pour intégrer ses IA dans le processus scientifique. Traduction : vendre des licences à des institutions qui ont des budgets de recherche, parce que le grand public, ça commence à saturer, et les entreprises, c’est déjà bien entamé. Faut bien trouver de nouveaux relais de croissance quand t’as promis à tes investisseurs une domination totale du marché.

Mais est-ce que ça tient la route ? Ouvrir son API aux scientifiques, ça ressemble à donner un marteau-piqueur à un archéologue. Sur le papier, ça peut aider à creuser plus vite. En pratique, si t’as pas la formation pour l’utiliser sans tout pêter, tu finis avec un tas de ruines et des données faussées. OpenAI le sait : leurs modèles ont tendance à halluciner comme un étudiant en soirée, et dans un domaine où la précision est reine, une approximation, c’est une publication qui part à la poubelle. Ou pire, qui pollue la littérature scientifique.

Le timing est savoureux. Trois ans après le lancement de ChatGPT, le buzz initial retombe, les cas d’usage triviaux s’épuisent, et les critiques sur l’opacité des modèles s’accumulent. Alors quoi de mieux qu’une noble cause pour redorer le blason ? « On va aider la science ! » Ça fait bien dans les communiqués, ça donne l’impression qu’on pense à l’avenir de l’humanité, et ça détourne l’attention des questions épineuses sur la sécurité ou la transparence. Sam Altman, toujours aussi fort pour jouer sur les deux tableaux : le prophète de l’apocalypse et le bienfaiteur des chercheurs.

Pendant ce temps, dans les labos, l’accueil est mitigé. Certains saluent l’outil, d’autres grattent-ils un peu et découvrent que les conditions d’utilisation ressemblent à un contrat faustien. Accès limité, coûts cachés, propriété des données floue… Bref, le classique OpenAI. L’open source, c’est pour les autres. Eux, ils préfèrent le « open-washing » : un vernis de collaboration qui cache une logique commerciale bien huilée.

Et la vérification d’âge pour les chatbots ? Mentionnée en passant dans la synthèse, mais sans détails. Probablement un cache-misère pour répondre aux régulateurs qui commencent à s’agiter. Parce qu’entre un gamin de 12 ans qui demande à une IA comment fabriquer une bombe et un chercheur qui l’utilise pour modéliser une protéine, il y a un monde. Mais pour OpenAI, c’est juste deux segments de marché à gérer.

Alors, révolution scientifique ou coup de pub ? Pour l’instant, ça sent surtout le recyclage de vieilles recettes. Prends une technologie qui a fait ses preuves (enfin, dans certains domaines), emballe-la dans un discours altruiste, et vise une niche qui a encore des sous à dépenser. Ça marchera peut-être, mais ne t’attends pas à ce que GPT-5 résolve le réchauffement climatique demain. En attendant, les vrais progrès viendront sans doute de ceux qui bossent dans l’ombre, sans keynote ni thread mystique. Mais ça, ça fait moins de bruit.


Sources :

Categories

Comments are closed

Latest Comments

Aucun commentaire à afficher.