ChatGPT face au Brevet de Maths 2025 : GPT-5 écrase GPT-4o

gemini generated image knkz7aknkz7aknkz

Depuis quelques mois, les modèles d’IA sont de plus en plus utilisés pour résoudre des exercices scolaires. Mais qu’en est-il lorsqu’on leur fait passer un vrai examen ? J’ai testé ChatGPT sur le sujet officiel de mathématiques du Brevet 2025 et comparé les performances de GPT-5 et GPT-4o.

🎬 Première vidéo : ChatGPT seul face à l’épreuve

 

Dans la première partie de mon expérience [1], j’ai soumis à ChatGPT (GPT-5) l’intégralité du sujet. Voici un résumé des résultats :

  • Exercice 1 – Probabilités (00:08)
    ➝ Réponses correctes.
  • Exercice 2 – Géométrie et Algèbre (01:53)
    ➝ L’IA a su utiliser correctement les théorèmes de Thalès et Pythagore, mais ses explications étaient peu claires et mal présentées.
  • Exercice 3 – QCM (04:14)
    ➝ Erreur sur une transformation : ChatGPT a pris une symétrie axiale pour une translation.
  • Exercice 4 – Calcul et Scratch (05:56)
    ➝ Résultats justes, mais encore une fois, la mise en forme des réponses laissait à désirer.
  • Exercice 5 – Fonctions et Graphiques (08:05)
    ➝ Bonne résolution d’équation, mais non-respect de la consigne qui imposait une solution graphique.

👉 Verdict : GPT-5 sait faire les calculs, mais pêche encore dans la présentation et l’interprétation des consignes.


🎬 Deuxième vidéo : GPT-5 vs GPT-4o

 

Dans la deuxième partie de l’expérience [2], j’ai confronté GPT-5 et GPT-4o sur le même sujet de maths. Et là, l’écart est flagrant.

  • Score global (01:31)
    • GPT-5 : 94/100
    • GPT-4o : beaucoup plus bas
  • Erreurs de GPT-4o :
    • Mauvais calcul avec les multiples de 6
    • Difficulté à énoncer un théorème, sauf pour celui de Pythagore
    • Confusion sur une aire de triangle : calcul de 6 × 9 ÷ 2 alors que 9 n’était pas une longueur
    • Erreur monumentale sur la dernière question : point d’intersection de deux courbes donné à 80, totalement faux
  • Performances de GPT-5 :
    • Réussite parfaite sur le théorème de Pythagore
    • Moins d’erreurs majeures
    • Une capacité plus fiable pour les raisonnements algébriques et géométriques

👉 Verdict : GPT-5 dépasse nettement GPT-4o, offrant des réponses plus justes, plus cohérentes et un score quasi parfait.


🚀 Conclusion

Ces deux vidéos montrent bien la progression impressionnante de GPT-5 par rapport à GPT-4o.
Si GPT-5 reste encore critiquable dans la qualité des explications et la mise en forme, il atteint un niveau proche d’un très bon élève de 3ᵉ. GPT-4o, lui, semble nettement en retrait, avec des erreurs parfois grossières.

👉 Et toi, tu penses que dans quelques années, une IA pourra décrocher le Brevet (voire le Bac) sans faute ?

 

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Retour en haut