Alors, les chatbots deviennent devins ? Cette semaine, OpenAI a décidé que ChatGPT allait jouer les Sherlock Holmes du calendrier. Nouvelle fonctionnalité : le modèle tente de deviner ton âge en analysant tes messages. Objectif affiché : filtrer l’accès au contenu pour adultes et respecter les réglementations comme le Digital Services Act en Europe. Sur le papier, c’est responsable. Dans la pratique, c’est un pansement sur une jambe de bois.
OpenAI reste vague sur le fonctionnement, mais lâche quelques indices. Le système analyserait le style d’écriture, le vocabulaire, la complexité syntaxique, peut-être même les sujets abordés. Pas de vérification d’identité, pas de pièce justificative, juste une estimation algorithmique. Si tu écris comme un ado de 14 ans, tu seras traité comme tel. Si tu écris comme un boomer qui découvre Internet, pareil. La marge d’erreur ? Aucune transparence. La possibilité de contournement ? Évidemment.
Le timing n’est pas anodin. La pression monte. L’UE serre la vis avec le DSA, les États-Unis commencent à s’agiter, et les médias relaient des histoires d’horreur où des gamins se font conseiller des régimes dangereux ou des contenus inappropriés. OpenAI, comme les autres, est sous le feu. Alors ils sortent l’artillerie légère : une feature qui a l’air technique, qui fait « on s’en occupe », mais qui ne coûte pas trop cher à implémenter. C’est du placage défensif.
Le vrai problème, c’est la régulation à la truelle. Cette approche est symptomatique d’un secteur qui réagit au coup par coup, sans vision d’ensemble. Au lieu de construire des garde-fous dès la conception, on ajoute des rustines a posteriori. Et ces rustines, souvent, créent de nouveaux problèmes. Faux positifs ? Des adultes bloqués sur des sujets légitimes. Faux négatifs ? Des enfants qui passent à travers. Sans parler des biais : un jeune qui écrit très bien sera-t-il « vieilli » ? Un adulte avec un handicap cognitif sera-t-il « rajeuni » et infantilisé ?
Côté alternatives, certains font mieux. Anthropic a intégré des protocoles de sécurité plus robustes dès le départ : vérification par carte de crédit pour les services sensibles, limitations contextuelles claires. D’autres, dans l’open source, laissent la responsabilité aux développeurs. Mais la majorité, dont OpenAI, navigue à vue entre la com’ et la compliance.
Ce que ça dit vraiment. Cette histoire n’est pas qu’une anecdote technique. Elle révèle le grand écart permanent de l’IA grand public : on veut des assistants omnipotents, mais on exige aussi qu’ils soient infailliblement safe. Mission impossible. Les modèles sont des machines à statistiques, pas des êtres de raison. Leur « jugement » sur l’âge n’est qu’une corrélation de plus, bruitée et faillible.
Donc voilà, ChatGPT va essayer de deviner si t’as 15 ou 50 ans. Si tu te fais coincer, tu pourras toujours lui demander : « Hey, tu peux m’expliquer comment tu as estimé mon âge ? » Il ne saura pas te le dire. Parce que sous le capot, c’est du pattern matching, pas de la psychologie. Et pendant ce temps, les régulateurs applaudissent une avancée, les parents croient à une protection, et le secteur évite (pour l’instant) les grosses amendes. Tout le monde est content, sauf peut-être la vérité.
Sources :
Comments are closed