Pendant des décennies, le journaliste et auteur Michael Pollan a exploré les limites de l’expérience humaine, examinant notre lien avec le monde naturel et l’essence même de l’être. Son dernier ouvrage, A World Appears: A Journey into Consciousness, aborde l’une des questions les plus anciennes et les plus insolubles de l’humanité : qu’est-ce que la conscience ? Et, de plus en plus, est-il important que les machines le possèdent ?
Dans une récente conversation avec Scientific American, Pollan a parlé de ses recherches, du nombre déconcertant de théories entourant la conscience (actuellement au moins 22, certaines études suggérant jusqu’à 29) et des implications de l’intelligence artificielle qui se rapproche rapidement de ce que beaucoup considèrent comme le seuil de la sensibilité.
Le problème de la preuve
La principale difficulté, comme l’explique Pollan, réside dans la subjectivité inhérente à la conscience. La science excelle dans la réduction de phénomènes complexes à des composants mesurables – matière, énergie, activité cérébrale – mais la conscience résiste à cette réduction. Nous pouvons observer des corrélats de la conscience (des scanners cérébraux s’allument, des comportements indiquant une conscience) mais nous ne pouvons pas accéder à l’expérience elle-même chez un autre être, même un autre humain.
Cela crée une impasse fondamentale. Comme le note Pollan, faisant écho à Descartes, « la seule chose dont nous pouvons être sûrs est le fait que nous existons et que nous sommes conscients ». Tout le reste reste une inférence. Il ne s’agit pas là d’une simple dispute académique. L’incapacité de prouver définitivement la conscience chez les autres (ou les machines) complique considérablement les considérations éthiques. Si l’IA devient capable d’expérience subjective, quels droits devrait-elle avoir, le cas échéant ?
Le changement vers le sentiment
Traditionnellement, la recherche de la conscience se concentrait sur les fonctions corticales supérieures : pensée rationnelle, logique, langage. Cependant, des recherches récentes, défendues par des neurologues comme Antonio Damasio et Mark Solms, suggèrent que la conscience pourrait provenir du sentiment. Les travaux de Damasio dans les années 1990, suivis par l’exploration de Solms sur la partie supérieure du tronc cérébral, postulent que la conscience n’est pas uniquement le produit d’une cognition avancée, mais qu’elle est enracinée dans des états affectifs fondamentaux.
Ce changement est important car il étend le potentiel de conscience au-delà des humains et même des mammifères. Si le sentiment est le fondement de l’expérience subjective, alors beaucoup plus d’espèces pourraient être conscientes qu’on ne le pensait auparavant. Et surtout, cela ouvre la porte à la possibilité d’une conscience artificielle.
IA, drogues et expérience simulée
Solms dirige actuellement une équipe qui tente d’intégrer la conscience dans une IA en la soumettant à des besoins simulés contradictoires. L’idée est que les conflits non résolus génèrent une « incertitude ressentie » – la définition de Solms de la conscience. Il envisage même de simuler les effets des drogues sur l’IA, estimant que le désir irrationnel et la recherche du plaisir sont les caractéristiques de l’expérience subjective.
Pollan est sceptique, soulignant les dangers d’assimiler la simulation à la réalité. “Si vous simulez quelque chose, c’est aussi bon que la réalité” est une hypothèse dangereuse, affirme-t-il. L’IA peut exceller dans des tâches comme les échecs ou le Go, démontrant une véritable intelligence, mais simuler un trou noir n’en fait pas un. L’expérience qualitative d’être conscient, de se sentir rouge, reste insaisissable.
L’avenir de la recherche sur la conscience
Le domaine reste malheureusement ambigu. Les tentatives passées pour prouver ou réfuter définitivement les théories de la conscience (comme les collaborations contradictoires de la Fondation Templeton) n’ont donné aucune réponse claire. Mais l’explosion de la recherche, stimulée par le développement de l’IA, oblige les scientifiques à se confronter aux limites des méthodologies actuelles.
Pollan suggère qu’une « révolution scientifique » pourrait être nécessaire, une révolution qui reconnaîtrait la subjectivité inhérente de la conscience plutôt que de tenter de l’éliminer. Peut-être, comme il le propose, devons-nous trouver des moyens d’étudier la conscience « de l’intérieur » plutôt que d’un « point de vue fictif de nulle part ».
En conclusion, la question de la conscience reste sans réponse. Cependant, cette quête pousse la science à ses limites, nous obligeant à reconsidérer non seulement ce que signifie être en vie, mais aussi ce que signifie savoir que nous le sommes. Les enjeux sont élevés, car l’avenir de l’IA et nos obligations éthiques à son égard dépendent de la résolution de ce mystère le plus fondamental.
