Sommaire
  1. Pourquoi un algorithme pour la mémoire ?
  2. La courbe de l'oubli : le problème fondamental
  3. SM-2 : le standard historique (et ses limites)
  4. FSRS : un modèle mathématique de la mémoire
  5. Les trois paramètres de FSRS : S, D et R
  6. Le rôle du machine learning
  7. FSRS vs SM-2 : comparaison concrète
  8. FSRS dans Personal Study Dashboard
  9. Questions fréquentes
  10. Sources et références

Pourquoi un algorithme pour la mémoire ?

Quand vous apprenez un théorème, une formule de physique ou une définition, votre cerveau commence immédiatement à l'oublier. Ce n'est pas un défaut : c'est le fonctionnement normal de la mémoire humaine. Le psychologue Hermann Ebbinghaus a montré dès 1885 que la rétention d'une information suit une courbe décroissante prévisible, connue sous le nom de courbe de l'oubli.

Le principe de la répétition espacée est de réviser chaque information au bon moment : juste avant que vous ne l'oubliiez. Trop tôt, vous perdez du temps sur une carte que vous connaissez encore. Trop tard, vous devez réapprendre la carte depuis zéro. L'intervalle optimal dépend de chaque carte et de chaque apprenant.

Un être humain ne peut pas calculer mentalement le moment idéal pour des centaines de cartes différentes. C'est le rôle de l'algorithme : prédire, pour chaque flashcard, quand la probabilité de rappel descend sous un seuil critique, et planifier la révision à ce moment précis. Plus l'algorithme est précis, moins vous perdez de temps en révisions inutiles, et moins vous oubliez de cartes importantes.

La courbe de l'oubli : le problème fondamental

La courbe de l'oubli décrit comment la probabilité de rappeler une information diminue avec le temps. Si vous apprenez une formule aujourd'hui sans la réviser, vous avez environ 50 % de chances de vous en souvenir dans 24 heures, et moins de 25 % après une semaine (Ebbinghaus, 1885 ; Murre & Dros, 2015).

Mais chaque révision réussie ralentit la courbe de l'oubli. Après une première révision bien placée, l'information reste accessible plus longtemps. Après deux, trois, quatre révisions espacées, l'intervalle avant l'oubli s'allonge considérablement. C'est ce qu'on appelle le renforcement de la stabilité de la mémoire.

Le défi est de quantifier ce phénomène. De combien de jours l'intervalle s'allonge-t-il après chaque révision ? Cela dépend de la difficulté de la carte, du nombre de révisions passées, de la qualité de chaque rappel, et même du temps écoulé depuis la dernière révision. C'est exactement ce que les algorithmes de répétition espacée cherchent à modéliser.

💡 À retenir

La mémoire suit des lois prévisibles. Chaque révision renforce la trace mnésique et allonge l'intervalle avant l'oubli. Un bon algorithme exploite ces lois pour planifier chaque carte au moment précis ou la révision est la plus utile.

SM-2 : le standard historique (et ses limites)

Avant de comprendre FSRS, il faut comprendre ce qui existait avant. L'algorithme SM-2, créé par Piotr Wozniak en 1987, est le standard historique de la répétition espacée. C'est l'algorithme par défaut d'Anki depuis sa création, et il a permis à des millions d'utilisateurs de réviser efficacement pendant trois décennies.

Comment fonctionne SM-2

Après chaque révision, l'utilisateur attribue une note de 0 à 5 (dans Anki, simplifiée en 4 boutons : Again, Hard, Good, Easy). L'algorithme calcule le prochain intervalle en fonction de :

La formule est simple : nouvel intervalle = ancien intervalle × EF. Si vous répondez bien (Good/Easy), l'EF augmente et l'intervalle s'allonge. Si vous échouez (Again), la carte est réinitialisée.

Les limites connues de SM-2

SM-2 a été conçu à une époque ou les données de révision étaient rares et la puissance de calcul limitée. Ses limites sont aujourd'hui bien documentées :

Wozniak lui-même a reconnu ces limites et a développé des versions ultérieures (SM-15, SM-17, SM-18) utilisées dans SuperMemo. Mais Anki est resté sur SM-2 pendant des années, ce qui a créé un écart croissant entre l'algorithme par défaut et l'état de l'art.

FSRS : un modèle mathématique de la mémoire

FSRS (Free Spaced Repetition Scheduler) a été développé à partir de 2022 par Jarrett Ye, un chercheur passionné de sciences cognitives et de machine learning. Le projet est open-source et a été construit sur une idée fondamentale : au lieu d'utiliser des heuristiques, modélisons directement la mémoire humaine avec des équations calibrées sur des données réelles.

FSRS s'appuie sur le modèle DSR (Difficulty, Stability, Retrievability), une formalisation de la courbe de l'oubli qui utilise trois variables pour décrire l'état de chaque carte dans votre mémoire. Ce modèle transforme l'intuition d'Ebbinghaus en équations concrètes, utilisables par un ordinateur pour planifier vos révisions.

L'innovation principale de FSRS est double. D'une part, il utilise un modèle de mémoire explicite (et non une heuristique comme SM-2). D'autre part, il calibre les paramètres de ce modèle par machine learning sur des millions de données de révision réelles, ce qui lui permet d'être à la fois plus précis et plus adaptable.

Les trois paramètres de FSRS : S, D et R

FSRS modélise l'état de chaque flashcard dans votre mémoire avec trois variables. C'est le coeur de l'algorithme, et c'est ce qui le rend fondamentalement différent de SM-2.

Stability (S) : la stabilité de la mémoire

La stabilité représente le temps (en jours) au bout duquel votre probabilité de rappeler la carte descend à un seuil donné (90 % par défaut). C'est une mesure de la solidité de la trace mnésique.

Une carte que vous venez d'apprendre a une stabilité faible (quelques heures ou jours). Après plusieurs révisions réussies, la stabilité augmente : elle peut atteindre des semaines, des mois, voire des années. La stabilité capture l'intuition que les informations bien ancrées résistent longtemps à l'oubli.

Concrètement, si une carte a une stabilité de 30 jours, cela signifie que 30 jours après votre dernière révision, vous avez encore 90 % de chances de vous en souvenir. C'est à ce moment-là que FSRS planifie la prochaine révision.

Difficulty (D) : la difficulté intrinsèque

La difficulté mesure la résistance intrinsèque de la carte à la mémorisation. Certaines informations sont naturellement plus dures à retenir que d'autres. Un théorème abstrait d'algèbre linéaire est souvent plus difficile à ancrer qu'une formule trigonométrique familière.

La difficulté dans FSRS évolue lentement au fil des révisions. Si vous échouez régulièrement sur une carte, sa difficulté augmente. Si vous la rappelez facilement à chaque fois, elle diminue. Ce paramètre influence la vitesse à laquelle la stabilité augmente après chaque révision : une carte difficile gagne en stabilité plus lentement qu'une carte facile.

Retrievability (R) : la probabilité de rappel

La probabilité de rappel (retrievability) est la probabilité que vous puissiez rappeler correctement la carte à un instant donné. C'est le paramètre central pour la planification.

R est calculée à partir de la stabilité et du temps écoulé depuis la dernière révision. Juste après une révision réussie, R est proche de 100 %. Puis R décroit progressivement selon la courbe de l'oubli. Quand R atteint le seuil cible (par exemple 90 %), FSRS programme la prochaine révision.

La formule simplifiée est : R(t) = (1 + t / (9 × S))^(-1), ou t est le temps écoulé en jours et S la stabilité. Cette formule, issue du modèle de loi de puissance de l'oubli, correspond mieux aux données empiriques que la décroissance exponentielle classique (Ye, 2024).

💡 En résumé

S (stabilité) dit combien de temps la carte résiste à l'oubli. D (difficulté) dit à quel point la carte est dure à apprendre. R (retrievability) dit quelle est votre probabilité de la rappeler maintenant. Ensemble, ces trois paramètres donnent à FSRS une vision complète de l'état de votre mémoire pour chaque carte.

Le rôle du machine learning

Ce qui distingue FSRS des algorithmes précédents n'est pas seulement son modèle théorique, mais la manière dont il est calibré. SM-2 utilise des paramètres fixes, déterminés par Wozniak en 1987 sur un petit ensemble de données. FSRS utilise le machine learning pour ajuster ses paramètres sur des millions de données de révision réelles.

Calibration sur données réelles

Jarrett Ye a collecté et analysé les historiques de révision de centaines de milliers d'utilisateurs d'Anki (avec leur consentement, via des exports anonymisés). Ces données contiennent des millions de paires (intervalle, résultat) : pour chaque carte, on sait combien de jours se sont écoulés depuis la dernière révision et si l'utilisateur a réussi ou échoué le rappel.

FSRS utilise ces données pour optimiser 19 paramètres internes (les poids du modèle). L'algorithme cherche les valeurs qui prédisent le mieux le résultat de chaque révision. C'est un problème classique de machine learning supervisé : on minimise l'erreur entre les prédictions du modèle et les résultats observés.

Personnalisation par utilisateur

FSRS peut aller plus loin. En plus des paramètres globaux (calibrés sur tous les utilisateurs), l'algorithme peut être recalibré sur vos propres données de révision. Plus vous utilisez la plateforme, plus FSRS apprend votre rythme d'oubli personnel et ajuste les intervalles en conséquence.

Cette personnalisation est un avantage considérable. Un étudiant qui mémorise rapidement les formules de physique mais a plus de mal avec les démonstrations d'algèbre verra ses intervalles s'adapter automatiquement. SM-2 ne fait pas cette distinction : ses intervalles sont calculés avec la même formule pour tous les utilisateurs et toutes les matières.

FSRS vs SM-2 : comparaison concrète

Les différences théoriques entre FSRS et SM-2 se traduisent par des résultats mesurables. Les benchmarks publiés par l'équipe FSRS (Ye, 2024) comparent les deux algorithmes sur les mêmes jeux de données et montrent des écarts significatifs.

Précision de prédiction

La métrique principale est le log-loss (ou perte logarithmique), qui mesure la qualité de la prédiction probabiliste. Plus le log-loss est bas, mieux l'algorithme prédit si vous allez réussir ou échouer une révision.

Sur les benchmarks publiés, FSRS obtient un log-loss significativement inférieur à SM-2 sur tous les jeux de données testés. Cela signifie que FSRS est plus précis pour prédire le moment ou vous allez oublier une carte. Cette précision se traduit directement en efficacité : moins de révisions inutiles, moins d'oublis évitables.

Réduction du nombre de révisions

Les simulations montrent que, pour un taux de rétention cible identique (par exemple 90 %), FSRS nécessite 15 à 40 % de révisions en moins que SM-2 (Ye, 2024). L'écart varie selon les utilisateurs et les matières, mais il est systématiquement en faveur de FSRS.

Pour un étudiant en prépa qui révise 10 minutes par jour avec 200 cartes actives, cette réduction représente plusieurs minutes quotidiennes, soit des heures gagnées sur un semestre. Ces heures peuvent être réinvesties dans d'autres formes de travail : exercices, problèmes, colles.

💡 À retenir

FSRS n'est pas une amélioration marginale de SM-2, c'est un changement de paradigme. Au lieu de deviner les intervalles avec une formule fixe, FSRS modélise votre mémoire et prédit quand réviser avec une précision validée sur des millions de données.

FSRS dans Personal Study Dashboard

Personal Study Dashboard intègre FSRS nativement depuis sa création. Pas d'add-on à installer, pas de paramètre à cocher. Quand vous révisez une carte sur PSD, l'algorithme calcule automatiquement le moment optimal pour la prochaine révision.

Chaque jour, PSD vous présente les cartes dont la probabilité de rappel approche le seuil cible, en commençant par les plus urgentes. En 10 minutes par jour, vous traitez les cartes qui comptent vraiment. Les cartes bien ancrées reviennent à des intervalles de plus en plus longs, ce qui libère du temps pour celles qui nécessitent encore du travail.

Depuis Anki 23.10, FSRS est aussi disponible en option, mais il faut l'activer et le configurer manuellement. Sur PSD, FSRS est actif par défaut. Pour un comparatif détaillé Anki vs PSD, consultez notre article dédié.

💡 En résumé

FSRS est l'algorithme de répétition espacée le plus précis disponible aujourd'hui. PSD l'intègre nativement pour que chaque minute de révision compte. Pour en savoir plus sur la science sous-jacente, consultez notre article sur le rappel actif et la répétition espacée.