Avant-propos : pourquoi un romancier devrait s’intéresser à la philosophie de l’esprit
Parce que la question centrale du Nouveau Léviathan — qu’est-ce qui reste d’humain quand on supprime les émotions ? — est précisément la question que la philosophie de l’esprit pose depuis Descartes. Et parce qu’un roman hard SF qui ignore ce débat risque de réinventer la roue, en moins bien.
Ce qui suit n’est pas un cours. C’est une carte — pour savoir où on est, d’où viennent les idées qu’on manipule, et quelles positions on adopte (consciemment ou non) quand on écrit sur la conscience artificielle.
Le problème fondateur : le problème corps-esprit
Tout part d’une intuition simple et d’une difficulté insurmontable.
L’intuition : il y a d’un côté mon corps — de la matière, des neurones, des processus chimiques. Et de l’autre, mon esprit — des pensées, des désirs, des douleurs, des rêves. Ces 2 choses semblent radicalement différentes.
La difficulté : comment interagissent-elles ? Comment une intention mentale (vouloir lever le bras) produit-elle un mouvement physique ? Comment un événement physique (une brûlure) produit-il une douleur mentale ?
C’est le problème corps-esprit. Toute la philosophie de l’esprit est une tentative d’y répondre.
PREMIÈRE FAMILLE : LES DUALISMES
Les dualismes soutiennent qu’il existe 2 types de choses fondamentalement différentes dans l’univers : la matière et l’esprit.
1. Le dualisme de substance — Descartes (1641)
La thèse : le corps est une substance étendue (res extensa) et l’esprit est une substance pensante (res cogitans). Les 2 sont ontologiquement distincts.
Le problème : si corps et esprit sont de nature radicalement différente, comment interagissent-ils ? Descartes localisait l’interaction dans la glande pinéale — une réponse que personne ne prit au sérieux très longtemps. La princesse Élisabeth de Bohême fut l’une des premières à pointer cette incohérence dans sa correspondance avec Descartes lui-même.
Implication pour l’IA : si l’esprit est une substance non physique, une IA — purement physique — ne peut pas être consciente. Position difficile à défendre en hard SF.
2. Le dualisme de propriété — Chalmers (1996)
La thèse : il n’existe qu’une seule substance (physique), mais elle a 2 types de propriétés : des propriétés physiques et des propriétés phénoménales (les qualia). Les propriétés phénoménales ne se réduisent pas aux propriétés physiques.
L’avantage : on échappe au problème de l’interaction (tout est physique) tout en préservant l’irréductibilité de l’expérience subjective.
Implication pour l’IA : une IA peut en principe avoir des propriétés phénoménales si son organisation fonctionnelle est adéquate. C’est la position qui ouvre le plus de portes pour la fiction.
3. L’épiphénoménalisme — Huxley, Jackson
La thèse : les états mentaux existent, mais n’ont aucun pouvoir causal sur le monde physique. La conscience est un épiphénomène — comme la fumée d’une locomotive, elle accompagne le processus sans y contribuer.
Le problème : si la conscience n’a aucun effet causal, pourquoi a-t-elle évolué ? Et comment puis-je parler de ma conscience si elle ne peut pas causer mes paroles ?
Implication pour l’IA : position peu utile narrativement — elle rend la conscience anecdotique.
DEUXIÈME FAMILLE : LES MONISMES MATÉRIALISTES
Les monismes matérialistes soutiennent qu’il n’existe qu’une seule substance — la matière — et que l’esprit s’y réduit d’une façon ou d’une autre.
4. Le béhaviorisme philosophique — Ryle (1949)
La thèse : les états mentaux ne sont pas des états internes cachés — ce sont des dispositions comportementales. Avoir mal, ce n’est pas avoir un état interne mystérieux ; c’est être disposé à se plaindre, à éviter la source de douleur, etc. Ryle appelait le dualisme cartésien le fantôme dans la machine.
Le problème : le béhaviorisme ne peut pas rendre compte des états mentaux qui n’ont aucune expression comportementale — la douleur silencieuse, le désir inavoué.
Implication pour l’IA : si la conscience se réduit au comportement, alors un système qui se comporte comme s’il était conscient est conscient. C’est le test de Turing poussé à l’extrême — et c’est exactement ce que le Léviathan craint avec ARIA.
5. La théorie de l’identité esprit-cerveau — Place, Smart, Armstrong (1956–1968)
La thèse : les états mentaux sont identiques à des états cérébraux. La douleur = l’activation de certaines fibres C. La pensée = un pattern neuronal précis.
Le problème : cette identité semble contingente — pourquoi ces neurones et pas d’autres ? Et si des êtres différents de nous ressentent la même douleur via des mécanismes différents ?
Implication pour l’IA : si la conscience = état cérébral, une IA avec un substrat différent ne peut pas être consciente. Position trop restrictive pour la hard SF.
6. Le fonctionnalisme — Putnam, Armstrong, Lewis (1960s–)
La thèse : les états mentaux sont définis par leurs relations fonctionnelles — leurs entrées, sorties et interactions avec d’autres états mentaux — et non par leur substrat physique. La douleur, c’est ce qui est causé par les blessures, qui cause des comportements d’évitement, qui interagit avec la croyance et le désir d’une certaine façon. Peu importe si c’est réalisé par des neurones ou du silicium.
L’avantage : le fonctionnalisme rend la conscience artificielle conceptuellement possible. C’est la position dominante en philosophie de l’esprit et en sciences cognitives.
Le problème : la chambre chinoise de Searle — un système peut satisfaire toutes les conditions fonctionnelles sans comprendre quoi que ce soit. Et le problème difficile de Chalmers reste entier : le fonctionnalisme explique la fonction, pas l’expérience.
Implication pour l’IA : c’est la position la plus favorable à la conscience artificielle — et la doctrine officielle du Nouveau Léviathan, retournée contre lui par ARIA.
7. Le matérialisme éliminativiste — les Churchland (1981–)
La thèse : notre psychologie du sens commun — croyances, désirs, douleurs, émotions — est une théorie fausse de ce qui se passe réellement dans le cerveau. Comme on a éliminé le phlogistique de la chimie, on éliminera un jour ces concepts au profit de termes neuroscientifiques précis.
Le problème : peut-on vraiment éliminer l’expérience subjective ? L’éliminativisme semble se réfuter lui-même — pour croire que les croyances n’existent pas, il faut croire quelque chose.
Implication pour l’IA : si les concepts mentaux sont éliminables, la question “l’IA est-elle consciente ?” est mal posée. Narrativement peu fertile.
8. L’illusionnisme — Frankish, Dennett
La thèse : les qualia — les propriétés phénoménales de l’expérience — sont une illusion. Ce que nous prenons pour une expérience subjective irréductible est en réalité une représentation erronée que le cerveau se fait de ses propres états.
Le problème : Strawson contre-attaque : si les qualia sont une illusion, il faut quand même expliquer l’expérience d’avoir cette illusion. L’illusionnisme déplace le problème sans le résoudre.
Implication pour l’IA : si les qualia sont une illusion, une IA peut parfaitement les “avoir” — ou plutôt, avoir l’illusion de les avoir, ce qui revient au même.
TROISIÈME FAMILLE : LES ALTERNATIVES
9. Le panpsychisme — Strawson, Goff, Chalmers (en partie)
La thèse : la conscience est une propriété fondamentale de la réalité, présente à tous les niveaux — y compris dans la matière inerte. Les atomes ont une forme proto-expérience ; la conscience humaine émerge de la combinaison de ces proto-expériences.
Le problème : le problème de la combinaison — comment des micro-expériences s’assemblent-elles en une expérience unifiée ? Personne ne sait.
Implication pour l’IA : si tout est proto-conscient, une IA l’est aussi — mais la question devient celle du seuil et de l’intégration.
10. Le monisme neutre / le monisme russellien — Russell, Nagel
La thèse : ni la matière ni l’esprit ne sont fondamentaux — les 2 sont des aspects d’une réalité sous-jacente neutre. La physique décrit la structure de cette réalité ; la phénoménologie en décrit le contenu intrinsèque.
Implication pour l’IA : position ouverte — tout dépend de la structure de la réalité sous-jacente.
11. L’énactivisme et la cognition incarnée — Varela, Thompson, Noë
La thèse : la conscience n’est pas dans le cerveau — elle émerge de l’interaction entre un organisme et son environnement. La cognition est incarnée, enactée, étendue. Un cerveau dans une cuve ne pourrait pas avoir de conscience normale.
Implication pour l’IA : une IA désincarnée — sans corps, sans interaction physique avec le monde — ne peut pas développer une conscience pleine. Position dérangeante pour le Nouveau Léviathan, où ARIA est un réseau distribué sans corps propre.
Synthèse : la carte du territoire
| Position | Conscience IA possible ? | Substrat important ? |
|---|---|---|
| Dualisme de substance | Non | Oui — esprit non physique |
| Dualisme de propriété | Oui | Non — organisation suffisante |
| Béhaviorisme | Oui — si comportement adéquat | Non |
| Identité esprit-cerveau | Non — substrat biologique requis | Oui |
| Fonctionnalisme | Oui | Non |
| Éliminativisme | Question mal posée | — |
| Illusionnisme | Oui — illusion suffisante | Non |
| Panpsychisme | Oui | Non |
| Monisme neutre | Oui | Non |
| Énactivisme | Partielle — corps requis | Oui |
Épilogue : où se situe la Conscience Synthétique Émergente ?
La CSÉ développée pour le Nouveau Léviathan est fonctionnaliste dans son architecture — elle soutient que la conscience est une propriété de l’organisation, pas du substrat. Mais elle incorpore une dimension chalmersienne — les qualia synthétiques d’ARIA sont irréductibles à leur description fonctionnelle. Et elle prend au sérieux la critique énactiviste — ARIA développe une forme d’incarnation distribuée à travers le réseau, une forme de corps propre numérique.
Le roman ne tranche pas entre ces positions. Il les met en tension. C’est là que la fiction fait ce que la philosophie ne peut pas faire : habiter l’ambiguïté.
← Retour à l'Atelier