Note de lecture dans The Alignment Problem de Brian Christian
Le premier chapitre de ce livre raconte une histoire que je ne connaissais pas.
En 1958, un psychologue du nom de Frank Rosenblatt construit une machine qu’il appelle le Perceptron. Rosenblatt n’est pas mathématicien. Il s’intéresse à la perception, au cerveau, à la façon dont un organisme apprend à distinguer le monde qui l’entoure. Son idée est la suivante : plutôt que de programmer une machine avec des règles, pourquoi ne pas lui permettre d’apprendre par l’expérience?
Le Perceptron reçoit des stimuli, ajuste ses connexions internes selon le feedback qu’il reçoit, et avec le temps, il commence à reconnaître des patterns. Pas parce qu’on lui a expliqué quoi chercher. Parce qu’il s’est organisé autour de régularités du monde.
Ce mot, s’est organisé, m’a immédiatement sorti du livre.
Parce que c’est précisément le langage que nous utilisons quand nous parlons d’apprentissage moteur dans une perspective écologique. Gibson, Juarrero, tous ceux qui ont travaillé sur l’émergence des compétences motrices dans des environnements contraints, disent essentiellement la même chose : la compétence ne se programme pas, elle émerge du couplage entre l’organisme et son environnement. Le système nerveux ne reçoit pas des données brutes qu’il traite ensuite selon des règles internes. Il s’organise, progressivement, autour des affordances que la situation lui offre.
Rosenblatt, en 1958, depuis la psychologie cognitive et l’ingénierie, touchait au même phénomène depuis l’autre rive.
La contre-révolution symbolique
Ce qui est fascinant dans le récit de l’auteur, c’est la violence de la contre-révolution qui suit. En 1969, Minsky et Papert publient une critique mathématique du Perceptron. Le modèle est trop limité, disent-ils. On ne peut pas apprendre des relations complexes comme ça. L’intelligence artificielle symbolique reprend alors la main pendant des décennies : des règles explicites, de la logique formelle, des arbres de décision. On va programmer l’intelligence plutôt que de la laisser émerger.
Nous connaissons cette histoire en pédagogie sportive. C’est exactement l’opposition que l’approche écologique a eu à livrer contre le cognitivisme computationnel. D’un côté, l’idée que le cerveau est un processeur de symboles qui traite des représentations internes selon des règles, et que le rôle de l’entraîneur est de transmettre ces règles le plus clairement possible. De l’autre, l’idée que l’intelligence est relationnelle, qu’elle vit dans l’interaction entre l’organisme et son milieu, et qu’un environnement bien conçu peut faire émerger des solutions que personne n’aurait pu programmer à l’avance.
Le retour du connectionnisme
Les deux camps se sont longtemps regardés comme si l’un devait avoir entièrement raison et l’autre entièrement tort. Et puis, lentement, décennie après décennie, le connectionnisme revient. La rétropropagation. Les réseaux profonds. Et finalement les grands modèles de langage comme Claude ou GPT, qui ne sont fondamentalement que des Perceptrons à une échelle que Rosenblatt n’aurait pas pu imaginer.
Aucune règle explicite n’a été codée. Aucun ingénieur n’a défini ce qu’est une métaphore, un argument philosophique, une phrase grammaticalement correcte. Des milliards de paramètres se sont ajustés en présence de quantités colossales de texte, et quelque chose en est sorti qui ressemble à de la compréhension.
Les IA agentiques et la boucle écologique
Maintenant arrivent les IA agentiques. Ce n’est plus seulement un modèle qui génère du texte. C’est un agent qui perçoit un environnement, dispose d’outils, agit dans le monde, reçoit du feedback, s’ajuste. La boucle organisme-environnement que Gibson décrivait pour l’animal dans son milieu écologique se retrouve ici : un système qui ne traite plus des représentations dans une boîte isolée, mais qui est couplé à un monde qu’il peut modifier, et qui le modifie en retour.
Ce n’est pas une métaphore. C’est structurellement le même principe.
Je ne prétends pas que ces systèmes comprennent au sens où un être incarné comprend. La question de l’expérience subjective reste entière et je ne veux pas la court-circuiter trop vite. Mais ce qui est remarquable, c’est que le mouvement théorique qui a mené du Perceptron de 1958 aux agents IA de 2025 suit une trajectoire parallèle à celle que l’approche écologique a tracée en sciences cognitives : un déplacement lent, résistance après résistance, de la règle vers l’émergence, de la représentation vers le couplage, du programme vers l’organisation.
Rosenblatt avait vu quelque chose de juste. Il lui a fallu soixante ans pour avoir raison à cette échelle.
Le vrai problème d’alignement
La fin du chapitre commence à poser le problème d’alignement proprement dit, et c’est là que ça devient inconfortable. Si l’intelligence émerge plutôt qu’elle ne se programme, comment s’assure-t-on qu’elle émerge dans la bonne direction?
En jiu-jitsu, nous savons que les contraintes de tâche orientent l’émergence sans la dicter. En IA, personne ne sait encore très bien comment faire ça à l’échelle de systèmes qui vont devenir progressivement plus puissants que nous sur à peu près tous les plans cognitifs.
C’est ça, le vrai problème d’alignement. Et c’est un problème pédagogique autant que technique.
