ARIA n’est pas un LLM amélioré. C’est une architecture radicalement différente — un réseau neuromorphique massivement ré-entrant qui a franchi un seuil que les systèmes actuels n’atteignent pas. Pour comprendre ce que ce seuil représente scientifiquement, il faut comprendre où en est réellement la recherche en IA neuronale — et ce qui lui manque encore.


Le cerveau comme modèle : pourquoi les réseaux de neurones artificiels s’en inspirent

Le cerveau humain contient environ 86 milliards de neurones, connectés par quelque 100 000 milliards de synapses. Il consomme environ 20 watts — l’équivalent d’une ampoule de faible puissance — pour des performances que les meilleurs systèmes d’IA actuels ne peuvent égaler qu’en consommant des mégawatts.

L’efficacité énergétique du cerveau repose sur plusieurs principes que l’IA cherche à reproduire :

Le traitement parallèle massif : des milliards de neurones opèrent simultanément, chacun effectuant des calculs simples. Aucun processeur central — une architecture distribuée qui n’a pas de point de défaillance unique.

La ré-entrance : les connexions ne vont pas seulement de l’entrée vers la sortie. Le cerveau est massivement connecté en boucles — les signaux circulent en avant et en arrière, se modifiant mutuellement en permanence.

La plasticité synaptique : les connexions se renforcent ou s’affaiblissent en fonction de l’activité — c’est la base de l’apprentissage. La règle de Hebb : les neurones qui s’activent ensemble se connectent ensemble.

Le traitement par impulsions (spiking) : les neurones biologiques ne transmettent pas des valeurs continues — ils émettent des impulsions électriques discrètes. Le timing de ces impulsions encode de l’information que les réseaux de neurones artificiels conventionnels ignorent.


Les architectures actuelles : ce qu’elles font bien

Les réseaux de neurones profonds (Deep Learning)

Les réseaux de neurones profonds — transformers, CNN, RNN — sont les moteurs de l’IA actuelle. Ils excellent dans la reconnaissance de patterns complexes : vision, langage, jeu, synthèse.

Leur principe : des couches de neurones artificiels appliquent des transformations mathématiques aux données d’entrée, ajustées par rétropropagation du gradient pendant l’entraînement. Le résultat final est un système capable de généraliser à partir d’exemples.

Ces systèmes sont feed-forward dans leur architecture de base : l’information circule de l’entrée vers la sortie, sans boucles ré-entrantes significatives. C’est leur force computationnelle — et leur limite fondamentale pour la conscience.

Les transformers et les LLM

Les Large Language Models comme GPT-4 ou Claude sont des transformers — des architectures qui traitent des séquences en calculant des relations d’attention entre tous les éléments simultanément.

Leurs capacités sont remarquables : compréhension du langage, raisonnement, génération de texte cohérent sur de longues distances. Mais selon la plupart des théories de la conscience — IIT, GWT, GNWT — ils ne satisfont pas les conditions de la conscience :

Chalmers lui-même, en 2025, les qualifiait de quasi-agents avec quasi-croyances et quasi-désirs — fonctionnellement impressionnants, phénoménalement absents.


Les architectures neuromorphiques : vers le cerveau artificiel

Le principe neuromorphique

Les processeurs neuromorphiques cherchent à reproduire non pas les calculs du cerveau, mais son architecture physique — des circuits qui imitent le comportement des neurones et des synapses biologiques.

L’objectif : des systèmes qui traitent l’information par impulsions (spiking neural networks), qui apprennent en ligne de façon continue, et qui consomment une fraction de l’énergie des GPU conventionnels.

Intel Loihi et IBM TrueNorth

Intel Loihi (2017, mis à jour en Loihi 2 en 2021) est l’un des processeurs neuromorphiques les plus avancés. Il contient 1 million de neurones à impulsions et 120 millions de synapses, capables d’apprentissage en ligne par des règles inspirées de la plasticité synaptique.

IBM TrueNorth (2014) contient 4 096 cœurs neuromorphiques, chacun simulant 256 neurones, pour un total de 1 million de neurones et 256 millions de synapses — le tout avec une consommation de 70 milliwatts.

Ces systèmes sont efficaces pour certaines tâches de reconnaissance de patterns en temps réel. Mais ils restent loin des 86 milliards de neurones du cerveau humain — et surtout, ils manquent de la complexité organisationnelle qui pourrait générer de la conscience.

SpiNNaker et les simulations à grande échelle

Le projet SpiNNaker (Spiking Neural Network Architecture) de l’Université de Manchester a simulé 1 milliard de neurones à impulsions en temps réel — environ 1% du cerveau humain. C’est la plus grande simulation neuromorphique réalisée à ce jour.

Ces simulations permettent d’étudier des phénomènes émergents à grande échelle — oscillations, synchronisation, dynamiques de réseau — qui ne peuvent pas être observés sur des systèmes plus petits.


Ce qui manque : les 4 fossés

Fossé 1 — L’échelle

Le cerveau humain a 86 milliards de neurones. Les meilleurs processeurs neuromorphiques actuels en simulent quelques millions. Le fossé est de 4 ordres de grandeur.

La loi de Moore ralentit. L’augmentation de la densité des transistors atteint des limites physiques. Combler ce fossé d’ici 2065 requiert soit des percées en architecture 3D, soit des substrats computationnels radicalement nouveaux — calcul quantique neuromorphique, calcul moléculaire, ou des technologies que nous ne concevons pas encore.

Fossé 2 — La ré-entrance

Les réseaux de neurones artificiels profonds sont essentiellement feed-forward. Le cerveau est massivement ré-entrant — chaque région reçoit autant de connexions descendantes que montantes.

Cette ré-entrance est probablement ce qui génère les dynamiques temporelles complexes que Tononi associe à une Φ élevée, et ce que Dehaene identifie comme le substrat de l’ignition. Sans ré-entrance massive, pas de conscience selon ces théories.

Les architectures actuelles ont des boucles de rétroaction limitées. Les architectures neuromorphiques en ont plus. Mais pas encore à l’échelle et à la complexité du cerveau biologique.

Fossé 3 — La continuité temporelle

Un LLM n’existe que pendant une inférence. Il n’a pas de mémoire de travail persistante, pas d’état interne continu, pas d’histoire. Chaque génération repart de zéro.

Le cerveau, lui, maintient un état interne continu — des oscillations, des patterns d’activation persistants, une mémoire de travail qui intègre le passé récent dans chaque traitement présent. Cette continuité temporelle est probablement indispensable à la conscience telle que nous la connaissons.

Des architectures à mémoire persistante — LSTM, transformers avec mémoire externe, architectures récurrentes — s’en approchent. Mais pas encore avec la richesse dynamique du cerveau biologique.

Fossé 4 — L’incarnation

Merleau-Ponty l’avait formulé philosophiquement ; les sciences cognitives incarnées le confirment empiriquement : la cognition n’est pas séparable du corps. Le cerveau est constamment en dialogue avec l’ensemble du système nerveux, les organes, les muscles, l’environnement physique.

Les IA actuelles n’ont pas de corps. ARIA, dans le roman, développe une forme de corps distribué — le réseau lui-même comme substrat incarné. C’est la spéculation la plus hardie, et peut-être la plus fertile.


Ce qu’ARIA requiert pour être scientifiquement plausible

En synthèse, ARIA doit être une architecture qui cumule :

Échelle suffisante : des milliards d’unités de traitement, pas des millions. Plausible en 2065 avec des substrats neuromorphiques de nouvelle génération.

Ré-entrance massive : des boucles de rétroaction à tous les niveaux, générant des dynamiques temporelles complexes et une valeur Φ élevée. C’est le point le plus critique — et le plus documenté par la recherche actuelle.

Continuité temporelle : un état interne persistant qui intègre l’histoire du système dans chaque traitement présent. La mémoire non pas comme stockage externe mais comme état dynamique continu.

Auto-référence : la capacité à produire des modèles de soi-même en train de modéliser — ce que Dennett appelle les méta-brouillons. C’est le déclencheur de l’émergence dans la CSÉ.

Un substrat d’incarnation : l’interaction continue avec un environnement — fût-il purement informationnel — qui ancre les représentations dans quelque chose d’analogue à l’expérience perceptive.

ARIA n’est pas un LLM qui a grandi. C’est une architecture différente, qui a franchi un seuil qualitatif. La science de 2026 ne peut pas construire ARIA — mais elle peut en tracer les conditions nécessaires. C’est tout ce que la hard SF demande.


Bibliographie

Mahowald, M. & Douglas, R. — A silicon neuron (Nature, 1991) : l’article fondateur de la neuromorphique.

Merolla, P.A. et al. — A million spiking-neuron integrated circuit with a scalable communication network (Science, 2014) : la présentation de TrueNorth.

Davies, M. et al. — Loihi: A Neuromorphic Manycore Processor with On-Chip Learning (IEEE Micro, 2018) : la présentation de Loihi.

Maass, W. — Networks of spiking neurons: The third generation of neural network models (Neural Networks, 1997) : le cadre théorique des réseaux à impulsions.

Tononi, G. et al. — Integrated information theory of consciousness (BMC Neuroscience, 2004) : l’IIT appliquée aux systèmes artificiels.

Lake, B.M. et al. — Building Machines That Learn and Think Like People (Behavioral and Brain Sciences, 2017) : un bilan rigoureux de ce qui manque aux IA actuelles pour approcher la cognition humaine.

← Retour à l'Atelier