Aller au contenu principal

C'est quoi un contexte IA ?

Après les tokens, il faut parler du contexte. Dans l'IA, le contexte, c'est tout ce que le modèle a sous les yeux au moment où il répond : ta question, les messages précédents, les instructions système, les fichiers envoyés, les extraits de documentation, et parfois même le résultat d'outils externes.

Un modèle ne réfléchit pas dans le vide. Il répond avec ce qu'on lui donne dans ce contexte. Si tu lui donnes une demande floue, il complète avec ses habitudes. Si tu lui donnes un fichier, une contrainte et un objectif clair, il a beaucoup plus de chances de produire quelque chose d'utile.

La fenêtre de contexte, c'est la taille maximale de cette zone de travail. Quand on dit qu'un modèle a 128k tokens de contexte, cela veut dire qu'il peut garder environ cette quantité d'information disponible pendant l'échange. Mais attention : avoir une grande fenêtre ne veut pas dire que tout sera compris parfaitement. Plus le contexte est long, plus il faut l'organiser.

C'est pour ça que, dans Codex ou ChatGPT, envoyer tout un projet sans expliquer ce qu'on cherche n'est pas toujours une bonne idée. Le contexte doit guider le modèle, pas l'ensevelir. Un bon contexte, ce n'est pas forcément beaucoup d'informations : c'est surtout les bonnes informations au bon endroit.

En pratique, retiens ceci : le contexte, c'est la mémoire de travail du modèle pendant une réponse. Les tokens sont les unités qui remplissent cette mémoire. Et plus tu apprends à construire un contexte propre, plus l'IA ressemble à un vrai assistant plutôt qu'à une machine qui devine dans le brouillard.