Psychisme  Méthodologie

Le cognitivisme

Juignet Patrick, Psychisme, 2011


Le cognitivisme est un courant de la recherche scientifique concernant le domaine des capacités à connaître, agir, parler, comprendre, qui s’est amorcé au milieu du XXe siècle et se poursuit activement de nos jours. Le cognitivisme utilise et synthétise en un corpus original des disciplines diverses qui vont de la logique algébrique à la neurobiologie en passant par la linguistique et la psychologie ou encore la cybernétique et l’informatique.


1/ La naissance du cognitivisme et le computationnisme

Le cognitivisme doit être fermement distingué du comportementalisme car, bien que prolongeant certaines de ses tendances, il s’est développé sur une tout autre base et il a même fortement contribué à sa mise à l’écart. Ainsi en 1980, Mario Bunge se réjouit que l’on soit enfin sorti de la « longue et ennuyeuse nuit du behaviorisme ».

Tout en ayant une approche expérimentale, le cognitivisme y adjoint des réflexions issues de la théorie des systèmes, de la cybernétique, de l’informatique, de la linguistique, de la neurobiologie et de la philosophie du fonctionnement mental d’origine anglo-saxonne, disciplines qui lui ont apporté un enrichissement considérable.

Le projet original et fondateur du cognitivisme s’est formé dans les années 1940. Il s’agissait de créer une « science de l'esprit » valable pour la « machine » comme pour le « cerveau ».  Nous mettons ces termes entre guillemets, car leur signification n’est pas clairement définie et a été sujette à des variations au sein du cognitivisme.  Cette démarche est empreinte, au départ, d’une forte tendance réductionniste, car fondée sur l'affirmation d'Alan Turing (1936) selon laquelle tout ce que fait l’esprit humain peut être effectué par une machine. Le présupposé matérialiste se traduit par l’idée de chercher « comment les phénomènes mentaux peuvent être matériellement réalisés » (Dan Sperber, 1992).

Selon Francisco Varela, l'hypothèse cognitiviste fondamentale fut formellement posée en 1956 : la cognition peut être définie par la « computation de représentations symboliques » et ceci peut être fait aussi bien par le cerveau que par une machine. Cette hypothèse a été rendu plausible par l’algèbre de Boole qui permet de réaliser concrètement tout calcul. Elle peut être appelée du terme anglais qui s’est imposé, le « computationnisme », puisque dans ce cas l’esprit est considéré comme un traitement syntaxique, un calcul portant sur des représentations symboliques, qui sont elles-mêmes des traces, des marques matérielles. On retrouve, en 1989, le même projet exprimé par John Haugeland. « La pensée est une manipulation de symboles » et « la science cognitive repose sur l’hypothèse … que toute intelligence, humaine ou non, est concrètement une manipulation de symboles quasi linguistiques ».

Il y a au fondement du cognitivisme un postulat calculateur : la cognition serait fondamentalement du calcul. Cette manière computationniste de concevoir l’intelligence est centrale pour le cognitivisme, car c’est elle qui a permis de supposer que l'activité cognitive puisse être effectuée par un dispositif matériel. Il y a un parallélisme et une réduction possible entre cognition et traitement matériel électronique (ou neurologique) puisqu’un calcul peut être effectué par un machine. Citons Dan Sperber qui résume très bien la généralisation de la conception computationniste : si l'on considère une opération cognitive complexe, " il s'agit de décomposer le processus en opérations élémentaires et de ramener les représentations à des structures formelles dont la réalisation matérielle est concevable".  (Introduction aux sciences cognitives, Paris, Gallimard, 1992, p. 405).
Ce type de pensée s’inscrit dans une tradition de recherche sur la mathématisation de la pensée qui remonte à Leibniz. Elle a progressé avec George Boole qui a publié en 1854 son livre princeps : An investigation into the Laws of Thought, on Which are founded the Mathematical of logic and Probability. Il y montre comment marier logique et algèbre et fonde l’algèbre logique qui porte son nom. Cette algèbre porte sur des classes, pourvues de trois opérations. La restriction de cette algèbre à deux éléments remarquables, le 0 et le 1, a permis la réalisation matérielle des calculs. Après d’autres sont venus Babbage, Frege, Gödel, Shannon, etc.

Le début de la doctrine computationniste apparut lors de la jonction des travaux d’Alan Turing et de Claude Shannon à la suite de la thèse de ce dernier en 1937, lorsque ce dernier proposa une théorie mathématique applicable à la transmission des signaux par un canal physique comme une ligne téléphonique. Il utilisa l’algèbre de Boole ce qui rendit possible un isomorphisme entre logique et circuits électriques fonctionnant sur un mode digital. À partir de ce moment, « calcul booléen, arithmétique et logique propositionnelle ou booléenne, sont réalisables ou matérialisables dans un circuit de Shannon » (Andler D., « Calcul et représentations : les sources », (Introduction aux sciences cognitives, Gallimard, 1992).

2/ Des courants divers et peu homogènes

À partir du noyau originaire vu ci-dessus, se sont développés divers courants cognitivistes. Nous en décrirons quatre mais, il y en a d’autres, trop nombreux pour être étudiés ici.

Du côté de l’information

Il s’est développé un très large courant autour de la théorie de l’information qui a été initié par Shannon et Weaver (1949). La notion a été inventée par Claude E Shannon, ingénieur à la Bell Telephone. Elle concerne la transmission des signaux par un canal de communication comme une ligne téléphonique. À ce moment, le mot désigne précisément une quantité donnée par la théorisation statistique du signal. Par la suite la notion s’est très largement étendue, du fait de son ambiguïté sémantique, car l’information désigne aussi une connaissance en général. En 1963, elle prend une tournure duelle. Pour Couffignal c’est une « action physique qui s’accompagne d’une action psychique » qui associe « un support à une sémantique ». Pour le cognitivisme, l’information concerne aussi le « contenu d’un message » (Launay 2004). Sans contenu une information au sens ordinaire du terme n’en est pas une, mais un signal séquentiel n’a pas de contenu. De plus, Francisco Varela note que l'information "ressemble à un phlogistique moderne" (Invitation aux sciences cognitives, Paris, Seuil, 1996), car elle est faussement donnée pour exister intrinsèquement mais sans que l’on sache ce que c’est. Au total ce courant est devenu très vaste et très flou.

Du côté de l’intelligence artificielle

La recherche sur l’intelligence artificielle s’inscrit dans le cognitivisme. On pourrait, avec Daniel Kayser (1992), la définir comme « une tentative visant à analyser ce qu’est l’intelligence, en cherchant à la reproduire par des moyens artificiels ». Cette approche a nourri beaucoup d’espoirs sur la compréhension de l’intelligence, qui se sont ensuite éteints. Par contre, elle a produit des applications opérationnelles efficaces en informatique (systèmes experts, nouveaux environnements de programmation, etc). Finalement, cette recherche a abouti à ruiner l’hypothèse computationniste, en montrant que l’intelligence est complexe et donc qu’un fonctionnement logique unificateur ne peut être toujours retrouvé. Autrement dit, les intelligences sont hétérogènes et elles ne sont pas toutes interprétables en termes de logique. Elles s’appuient sur des stratégies utilisant des connaissances préalables et se situant à des profondeurs variables dans les niveaux de raisonnement.

La liaison avec les neurosciences

L'idée d'une jonction avec les neurosciences est arrivée assez vite toujours avec cette arrière-plan d'une analogie homme machine.  Peu de temps après les travaux de Shannon , H.H. Aiken élabora une théorie qui permettait de déterminer un circuit électronique réalisant une fonction logique. Suivi le développement de la cybernétique vers 1953 avec Warren McCulloch et Walter Pitts. Ceci était déjà possible dans les machines à calculer mécaniques. Maintenant, il s’agit d’un calcul logique fait grâce à des variables (0 et 1) et des opérateurs (non, et, ou, ou exclusif, non-ou, non-et). La reproduction concrète par l’électronique permet que les formes syntaxiques et les formes signalétiques électroniques aient un rapport de concordance parfaite. Des équations peuvent être « réalisées » par des circuits, ce qui veut dire qu’aux opérations sur les variables logiques, correspondent point par point des fonctionnements électriques.

L’idée vint qu’un calcul logique du même type pourrait être effectué par l’activité nerveuse. C’est la « Nouvelle synthèse » proclamée dans les années 40 par Stephen Pinker et Henry Plotkin. Pour eux, le calcul est enraciné dans le substrat biologique du cerveau humain et qui plus est de manière innée. Alan Nexell et Herbert Simon, lancent le dogme selon lequel l’intelligence, ou l’esprit, est un calcul symbolique de type informatique. Suit « l’information processing paradigme » annonçant que tous les aspects cognitifs (perception, apprentissage, intelligence, langage) sont des opérations de traitement de l’information (signal) similaires à celles que l’on peut implémenter dans un ordinateur. Il s’agissait de chercher « comment les phénomènes mentaux peuvent être matériellement réalisés », ainsi que l’écrit Dan Sperber.

En 1943, Warren Mc Culloch et Walter Pitt publient un article « Un calcul logique immanent dans l’activité nerveuse ». Ils indiquent la possibilité d’un calcul logique  dans le système nerveux en le comparant avec un réseau électronique calculateur. Il s’agit d’un point de vue formel et hypothétique, car les schémas proposés simplifient considérablement les neurones et rien n’indiquent que de tels réseaux existent vraiment dans le cerveau. Ils sont seulement au vu des connaissances de l'époque possibles. Franck Rosenblatt propose en 1962 une machine composée de deux couches de neurones simplifiés, liées entre elles par des connexions au hasard, et qui peuvent être modifiées pour apprendre. Malheureusement ce dispositif a montré rapidement des limites.

Le lien avec les neurosciences s’est progressivement développé et a pris de l’ampleur vers 1980-90. De nombreux laboratoires se sont créés et le Journal of Cognitive Neurosciences a vu le jour en 1989. « Les neurosciences cognitives sont une tentative pour comprendre comment la cognition émerge des processus cérébraux » écrit Kosslyn (1997 in Gazzaniga). Selon N. Franck (2003) « pour la neuropsychologie cognitive, les processus cognitifs représentent le traitement de l’information sous-jacent aux pensées. Dans cette acception, la cognition représente donc les mécanismes élémentaires de la pensée dont le sujet n’a pas conscience. Ce niveau réalise l’interface entre le cerveau en tant qu’organe et la pensée en tant que processus élaboratif ». Une partie des chercheurs cognitivistes ne sont pas réductionnistes et admettent dans l’approche symbolique « en plus des niveaux de la physique et de la neurobiologie … un niveau symbolique distinct irréductible » et même « un troisième niveau purement sémantique » ou encore dans l’approche connexionniste un « niveau sub-symbolique » (Varela, 1988). C’est une avancée considérable qui permet que certaines des options théoriques adoptées soient compatibles avec la psychanalyse.

L’extension vers la psychologie

Autour de la recherche fondamentale, on trouve des travaux de psychologie appliquée, dont le but est de rendre compte du fonctionnement mental en des termes spécifiques au cognitivisme, puis de le ramener à des processus pouvant être expérimentés. On constate une importation de théories diverses et leur application au fonctionnement mental, ce dernier étant ramené à des critères testables. Cette démarche a une validité certaine. Le cognitivisme s’intéresse à la perception, aux apprentissages, au langage et au raisonnement et laisse de côté ce qui est affectif et relationnel. (Pour plus de précision voir l'article : La psychologie cognitiviste)

La psychologie cognitiviste aurait  « pour objet de reconstituer et de décrire les différents processus internes que l’on suppose à l’origine des conduites » (Launay, 2004). De plus, le cognitivisme ne s’adresse pas spécialement aux faits conscients comme le note Mahoney (1974) et admet que les structures et fonctions cognitives soient inconscientes.
Par un étrange détour, on retrouve l’inconscient, mis en évidence par la psychanalyse et tant contesté par la psychologie, en particulier béhavioriste. Les processus concernés ne sont pas les mêmes, mais la catégorisation est identique : il s’agit de séparer les faits perçus, qui sont conscients, des processus qui les produisent et qui, eux, ne le sont pas. Par exemple Stich (1978) parle de processus ou d’états « infra-doxatiques ».

Comme exemple d’évolution du cognitivisme, on peut citer le travail de Gilles Vignaux. Cet auteur, dans, est amené à supposer que le travail cognitif du sujet est orienté vers le rétablissement ou la généralisation d'états harmonieux (Les Sciences cognitives, une introduction, 1991). Ce qui introduit le problème de l'homéostasie psychologique par rapport au plaisir-déplaisir et implique de tenir compte des émotions et de « l’univers cognitivo-affectif » du sujet. Pour résoudre ces problèmes l’auteur est amené à proposer l'opposition entre des « processus cognitifs », qui concerneraient le sujet épistémologique, et des « mécanismes intrapsychiques », qui concerneraient le sujet psychologique.

3/ Vers une définition synthétique

Au terme de cette première approche, qui en montre la diversité, on peut tenter une définition du cognitivisme. En rupture avec le behaviorisme, il apporte la reconnaissance de quelque chose de mal situé ontologiquement, mais dont on admet l’existence et qui est nommé, selon les auteurs, « esprit », « pensée », « intelligence », « cognition », « traitement de l’information », « système de représentation ». Deuxième point fondateur, le cognitivisme admet que ces aspects cognitifs sont réalisés concrètement grâce à un dispositif matériel qui peut être neuronal ou machinique.

Nous allons tenter une définition générale qui puisse s’appliquer à la plupart des courants de recherche cognitivistes, en nous servant de la distinction entre référent (la partie du monde désignée pour être étudiée) et objet de connaissance (le construit spécifique à une science). Le référent du cognitivisme porte sur la manière dont les capacités cognitives des entités organisées peuvent être réalisées par des dispositifs matériels quels qu’ils soient. À partir de ce référent central, des objets de recherche divergents ont vu le jour. Les divergences portent sur ce qu’est la cognition et sur son autonomisation possible vis-à-vis du dispositif matériel. Elles entraînent des différences de méthode.

Voyons les principales options concernant la cognition et sa réalisation concrète.

Pour les pionniers, la cognition est une « manipulation symbolique », une « computation ». L’homogénéité de ce niveau tient à un fonctionnement de type algorithmique que l’on pourrait toujours retrouver que ce soit directement ou de manière plus lointaine (en allant vers les couches plus profondes du fonctionnement cognitif).
Une autre manière de voir la cognition est de la situer dans un rapport adaptatif à l’environnement. Elle consiste à résoudre des problèmes et à choisir une conduite adaptée, sans que soit précisée la nature de ce qui le permet. Dans ce cas, le soubassement supposé n’est pas de type calcul.

Concernant la réalisation concrète des opérations cognitives, trois options divergentes sont présentes dans les courants cognitivistes, selon la volonté réductionniste ou non réductionniste des auteurs. La première est une option réductionniste forte : seul le hardware existe et le reste n'en est que le reflet. "Nous ne sommes rien d'autre qu'un paquet de neurones" dit F Crick (Cité par Varela dans Invitation aux sciences cognitives, Paris, Seuil, 1996, p.VIII). C'est la tendance matérialiste médiatisée par les Churchland.
Il existe un réductionnisme faible qui reconnaît le niveau cognitif et le rapporte au niveau matériel sous-jacent, neurobiologique ou électronique. Les propriétés cognitives sont « fondées sur » et explicables par les propriétés neuronales ou électroniques. La machine ou le cerveau « produisent » la cognition qui est la manifestation de son fonctionnement. C’est le point de vue fonctionnaliste.

Il existe aussi dans le courant cognitiviste une option non-réductionniste pour laquelle le niveau sémantique/représentationnel a une existence irréductible et une détermination autonome qui exige pour son explication une connaissance spéciale. Les propriétés de ce niveau sont en rapport avec les propriétés neuronales ou électroniques (mais indépendantes du support en tant que tel, car plusieurs supports sont possibles).
Selon la combinaison des manières de concevoir la cognition et le degré de réductionniste, un panel de possibilités se dessine et toutes sont présentes au sein du cognitivisme.

4/ Le rebondissement connexionniste

Vers les années 1980, le cognitivisme a subi un profond remaniement avec une nouvelle doctrine dite « connexionniste ».

Une autre approche

Le référent du connexionnisme s’est constitué par inversion du référent du computationnisme. Au lieu de se demander comment la logique peut être réalisée par un dispositif, on a eu l’idée d’étudier ce qu’un dispositif concret peut produire comme interaction cognitive avec l’environnement. Au lieu de dispositifs séquentiels commandés on a inventé des dispositifs formés de constituants en très grand nombre, associés en parallèle et par des connexions récurrentes aléatoires. Le référent est donc l’inverse de celui du computationnisme. Ce qui est désigné pour être étudié ce sont les productions cognitives de réseaux non programmés.

Dans cette perspective référentielle, un objet d’étude a été forgé. En reprenant la proposition d’Emmanuel Daucé (2000) nous dirons que le connexionnisme se fixe pour objet d’étudier les réseaux constitués de composants dont les états évoluent au cours du temps en fonction de leurs entrées. Le système se définit par les caractéristiques électriques des composants (leur fonction de transfert), les types de liaisons entre eux (routes possibles) et les valeurs de ces liaisons (force et temporalité du signal).

Une nouvelle théorisation a vu le jour.

 On peut la définir selon quatre axes.

1/ La théorie se rattache aux problèmes généraux des ensembles d’éléments en interaction, déjà traités par la physique contemporaine. Les premiers modèles mentionnant explicitement la correspondance entre les réseaux de composants récurrents et les systèmes de particules en interaction datent des années soixante-dix.

Trois points sont spécifiques de ces nouvelles théorisations  :     Elles concernent des ensembles d’éléments en interaction. Ces ensembles sont dynamiques, c’est-à-dire évolutifs dans le temps.    Les constituants sont en grands nombres, ce qui engendre des comportements particuliers et complexes.

Du point de vue mathématique les notions nouvelles d’attracteur et le chaos sont venues modifier profondément la manière de théoriser les systèmes dynamiques. La dynamique signalétique des réseaux est, à notre avis, l’une des plus prometteuse.

2/ Le rattachement à la théorie générale des systèmes qui étudie les rapports des ensembles à leurs parties (sans chercher à les dissocier), des parties entre elles (de leur influence réciproque, leur hiérarchie) .
Globalement nous dirons qu’il s’agit d’une approche systémique et statistique des grands ensembles en interactions dont on peut donner une modélisation mathématique.

3/ La reprise de l’idée de niveaux d’organisation ou d’intégration. Le problème (du niveau concerné) apparaît dans les années 1980 et a fait l'objet de controverses qui ne sont pas terminées (Stefen Stich, 1983, Jerry Fodor, 1981, 1987). L'idée de concevoir le monde en niveaux d'organisation/intégration n'est pas récente en philosophie, mais n'est venue vers la communauté scientifique que dans les années 1980. La controverse porte sur le nombre de niveaux à considérer. Trois niveaux sont concernés : un niveau basal qui est neurobiologique ou le hardware électronique selon le cas, un niveau signalétique/informationnel et un niveau sémantique/représentationnel. L'irréductibilité du niveau sémantique est évidemment le point le plus contesté.

4/ C’est une autre vision nouvelle de la cognition. C’est la version interactive adaptative qui est adoptée. La cognition est détachée de la pensée logico-symbolique pour être rapportée à la mise en place de schèmes permettant de résoudre des problèmes. Dans ce cas, le soubassement supposé n’est pas de type logique.

Une définition

À partir de là on peut définir plusieurs des approches complémentaires caractéristiques du connexionnisme :
- La recherche sur la manière selon laquelle les processus locaux peuvent s’auto-organiser en processus globaux (sans qu’il y ait de commande centrale). C’est la recherche de régularités au niveau global à partir du chaos des interactions locales.
- L’étude des systèmes signalétiques dynamiques visant à montrer comment par les bifurcations successives des routes empruntées par les signaux, il se produit une complexification croissante de leurs interactions.
- L’étude des effets de la règle de Hebb (renforcement de la connexion mise en jeu) et des possibilités d’apprentissage que cela donne (propriétés nouvelles après mise en jeu successives).
 - La recherche de nouveaux critères de définition de la connaissance comme interaction efficace avec l’environnement se mettant en place grâce à l’expérience. L’intégration de travaux traditionnels sur la psychologie de la connaissance comme ceux de l’école piagétienne.

Le moment novateur et le cœur du changement

Dans les années quatre-vingt, avec le connexionnisme, on a vu apparaître des dispositifs capables d’entretenir une activité dynamique, c’est-à-dire de produire un signal de façon autonome. Il y a là un vrai changement par rapport à ce qui précède. Au lieu d’une commande programmant intégralement la machine (ce qui ruine l’analogie possible avec le cerveau) on invente des dispositifs générant de manière autonome des signaux. Au lieu d’une logique, la cognition est conçue comme un processus constructif se produisant grâce à l’interaction entre la dynamique interne et les signaux provenant de l’environnement. Ceci se faisant de manière sub-symbolique infradoxatique (Smolensky) ou enactive (Varela). C’est un fonctionnement cognitif qui n’a pas besoin de symboles, ni de syntaxe.
 
Le schéma, contrairement au schéma computationniste, marche dans le bon sens. Le système envisagé est productif/inventif et non producteur/commandé. Son avenir est, d’après nous, dans la prise en compte d’un nombre plus important de niveaux.
Notons au passage que c’est une véritable rupture épistémique qui s’opère, un changement de paradigme. On trouve au cœur du cognitivisme un changement qui fait passer de la science classique à la science moderne. Concernant le même référent, qui est le rapport entre capacités cognitives et les dispositifs organisés, la manière de concevoir l’objet de recherche est radicalement changée.  On passe d’une conception orientée vers le mécanique, le séquentiel, le linéaire, la logique, la compréhension sur un mode causal, à une conception orientée vers le dynamique, l’aléatoire, une détermination systémique compréhensible selon une pensée complexe.

Toutefois les résultats sont encore limités, car ils ne concernent que la cognition simple, spécialisée, et se produisant dans des environnements stables. Il y a encore une distance énorme pour arriver à l’homme. Les développements les plus prometteurs se font actuellement en collaboration avec les neurosciences. Ils ont, au vu des avancées actuelles, un bel avenir devant eux.

Conclusion : Aller plus loin

Nous nous inscrivons dans le cognitivisme car nous refusons de considérer un esprit substance, notion qui est avantageusement remplacée par celle de processus cognitifs. Conformément à la thèse cognitiviste, il nous semble que ces processus dérivent du traitement de l’information. Mais cette thèse reste à nos yeux insuffisante. Il nous semble que l'on doit faire l'hypothèse d'un niveau de complexité supérieur à celui du traitement de l’information, niveau qui est probablement spécifique à l'homme. C'est l'hypothèse néocognitiviste. Elle a l'avantage de pouvoir être articulée avec la conception psychodynamique. 

Bibliographie

Anonyme, Notice CREA, Website de l'Ecole polytechnique.

Bunge M., The Mind-Body Problem, Montreal, McGill University Press, 1980.

Collectif (direction Andler D.), Introduction aux sciences cognitives, Gallimard, Paris, 1992.

Couffignal L., La cybernétique, Paris, PUF, 1963.

Daucé E., Adaptation dynamique et apprentissage dans des réseaux de neurones récurrents aléatoires, Thèse de doctorat, 13 janvier 2000.

Franck N., « Restauration des fonctions cognitives dans la schizophrénie », Neuronale, Paris, LEN Médical, n° 9, 2003.

Gazzanga M.S, The Cognitive Neurosciences, Cambridge, MIT Press, 1995.

Kosslyn S.M., « Mental Imagerie », in Conversations in the Cognitive Neurosciences, Cambridge, MIT Press, 1997.

Launay M., Psychologie cognitive, Paris, Hachette, 2004.

Le Ny J.-F., « Psychologie cognitive et psychologie de l’affectivité », in La psychologie de demain, Paris, PUF,1980.

Varela F., Invitation aux sciences cognitives, Paris, Seuil, 1989

Varela F. Thompson E., Rosch E ., L’inscription corporelle de l’esprit, Paris, Seuil, 1993.

Vignaux G., Les sciences cognitives, une introduction, Paris, Seuil, 1991.


Haut de page          Retour portail Méthodologie