Aller au contenu principal

L’IA TRANSFORME VÉRITABLEMENT NOTRE CONCEPTION DE LA CONNAISSANCE

ARTICLE – « Le succès de l’IA nous pousse aujourd’hui à redéfinir notre conception de la science et de la connaissance »

Par  Emma Carenini et  Louis Abraham. 19/08/2025

Le développement sans précédent des intelligences artificielles (IA), caractérisées par une forme de « bachotage intensif » nous invite aujourd’hui à interroger la conception même que nous nous faisons de l’intelligence, estiment, dans une tribune, Louis Abraham, expert de l’IA et enseignant à Sciences Po Paris, et Emma Carenini agrégée de philosophie et cofondatrice de l’agence Phronimos.

D’ici deux ans, les intelligences artificielles (IA) pourraient égaler le savoir académique de l’humanité. C’est ce que montre l’épreuve de référence « Humanity’s last exam » (« le dernier examen de l’Humanité ») qui mesure la connaissance des LLM (grands modèles de langage, IA créatrice de contenu) à travers un très grand spectre de disciplines, des mathématiques aux langues anciennes. Les IA obtiennent déjà 40 % de réussite, un score inatteignable pour n’importe quel humain. Le terme « examen » révèle notre vision de l’intelligence. Pour les humains, un examen traditionnel interdit l’accès aux ressources externes et teste les connaissances dans un temps limité. 

Lorsqu’on évalue un élève, on ne cherche pas seulement à savoir s’il a bien appris sa leçon. Dans l’idéal, on mesure sa compréhension du sujet. C’est pourquoi, à l’élève qui se contenterait de régurgiter des faits, le sens commun refuse le qualificatif d’intelligent. C’est tout au plus une « tête bien pleine », comme disait Montaigne. L’intelligence humaine ne peut apprendre qu’une quantité limitée de données. Ce n’est pas un défaut, mais son moteur : incapables d’absorber tout, nous devons créer des connexions, généraliser et discerner des régularités dans l’information.

L’EFFICACITÉ DÉRAISONNABLE DU BACHOTAGE

À l’inverse, les LLM excellent dans ce que nous dévalorisons chez l’humain : le bachotage intensif. Pour progresser, ils absorbent des quantités massives de données textuelles. Si Anthropic a identifié des capacités de planification via des circuits, ceux-ci relèvent de la reconnaissance statistique de motifs. Pour apprendre ces motifs, les concepteurs créent ce qu’on appelle des données synthétiques : de grandes quantités d’exemples inventés basés sur des problèmes redondants, accompagnés de leurs solutions. Ces jeux de données permettant d’améliorer les performances des algorithmes sont l’équivalent, pour un étudiant, de milliards d’annales corrigées.

L’efficacité stupéfiante du simple bachotage massif pour créer des IA polyvalentes nous désarçonne. Nous avions accepté la supériorité des machines dans des domaines spécifiques comme la reconnaissance d’images ou les échecs mais auparavant, l’excellence n’existait que par îlots. Le qualificatif d’« honnête homme » était réservé aux vénérables polymathes, comme Léonard de Vinci. Or aujourd’hui, cette même approche par bachotage conquiert l’ensemble du savoir humain formalisé, de la poésie médiévale à la physique quantique. L’intelligence pourrait-elle n’être que le produit d’une mémoire organisée aux proportions astronomiques ? Où tracer désormais la frontière entre mémorisation sophistiquée et intelligence véritable ? Cette universalisation du bachotage s’oppose à une certaine conception romantique de l’intelligence, celle du génie qui fait progresser la connaissance de l’humanité.

CRÉER DU SAVOIR : L’ULTIME FRONTIÈRE DE L’IA ?

Une IA est-elle capable de créer du savoir ? Et si oui, les disciplines seront-elles toutes touchées de la même manière ? Dans un domaine formel comme les mathématiques, une IA peut démontrer des théorèmes et vérifier ses propres preuves sans validation externe. L’IA AlphaEvolve a récemment inventé de nouveaux algorithmes de multiplication de matrices et découvert des résultats inédits en géométrie tandis que le dernier modèle d’OpenAI serait capable d’obtenir la médaille d’or aux Olympiades internationales de mathématiques.

À l’inverse, les sciences naturelles comme la physique restent liées à l’expérimentation : un modèle peut résoudre des équations et concevoir des expériences mais est incapable de les réaliser – du moins en l’absence d’un laboratoire robotisé. Qu’en est-il des sciences humaines ? Une IA peut analyser des milliers d’archives de la Révolution française, proposer une interprétation nouvelle et même déterminer si elle est originale. Mais elle ne pourra pas prédire sa réception par les historiens et donc son intérêt. De la même manière, une IA peut problématiser et écrire une dissertation de philosophie, mais nous n’avons pas de critères objectifs pour déterminer sa qualité.

Les sciences humaines sont-elles une exception ? Les autres sciences reposent aussi sur le consensus : un article n’est valide qu’après peer review, et n’est influent qu’une fois cité. Les critères d’évaluation ne sont pas absolus car ils découlent de la vie d’une communauté intellectuelle. L’IA peut donc certainement assister les chercheurs dans leur travail mais pas remplacer la communauté scientifique. Le succès des LLM nous pousse aujourd’hui à redéfinir notre conception de la science et de la connaissance. Ironiquement, « le dernier examen de l’Humanité » se révèle être autant un test pour les machines qu’un miroir du caractère profondément humain du savoir.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.