Résumé. Les systèmes naturels autonomes, tels des systèmes biologiques, neuronaux, sociaux ou culturels sont ouverts, auto-organisés avec une hiérarchie de niveaux de complexité plus ou moins grande, imbriqués entre eux; ils sont capables de mémoriser leurs expériences et de s'adapter à des conditions variables en modifiant leur comportement. Les auteurs ont développé depuis une quinzaine d'années un modèle mathématique pour ces systèmes, basé sur la théorie des catégories. Le but de cet article est de donner une vue d'ensemble sur ce modèle, appelé SEM.

 

1. Introduction

Les systèmes biologiques, neuronaux, sociaux ou culturels sont des systèmes naturels complexes. En tant que tels, ils ont un certain nombre de caractéristiques communes : ils sont ouverts (ils ont des échanges avec leur environnement), ils sont auto-organisés, avec une hiérarchie plus ou moins grande de niveaux de complexité, imbriqués entre eux; et ils sont capables de mémoriser leurs expériences pour s'adapter à des conditions variables en modifiant leur comportement. Ces propriétés rendent difficile leur étude par les méthodes classiques inspirées du paradigme newtonien.

Pour étudier de tels systèmes, les auteurs ont développé progressivement depuis une quinzaine d'années la notion de Système Evolutif à Mémoire; les SEM sont un modèle mathématique basé sur la Théorie des Catégories.

Ici nous commencerons par indiquer de manière intuitive leurs principales caractéristiques, puis nous rappellerons formellement les notions utiles de théorie des catégories, enfin nous montrerons comment celles-ci permettent de mieux comprendre les propriétés et le fonctionnement de ces systèmes, avec application au cas des systèmes neuronaux. Pour plus de détails, nous renvoyons à notre site Internet [21] où se trouvent en particulier une liste de nos principales publications sur les SEM depuis 1987, un index et un glossaire des notions introduites, ainsi qu'un long article non encore publié.

 

2. Principales caractéristiques des Systèmes Evolutifs à Mémoire (SEM)

a) Systèmes Evolutifs et Hiérarchiques

a1. Suivant Bertalanffy [6], un système est un "ensemble d'éléments en interaction". Mais les éléments d'un système naturel complexe, et leur organisation, varient dans le temps, par suite d'échanges avec l'environnement (système ouvert), formation ou suppression interne de composants, par exemple par apprentissage de nouvelles actions. Ce qui ne permet pas leur étude à l'aide d'observables définis dans un espace fixe de phases, et obéissant à des lois uniformes. Pour tenir compte de cette évolution, on se donnera:

- d'une part les configurations successives du système, formées des composants et des relations entre eux à un instant donné t (catégorie-état en t),

- et d'autre part les processus de changement entre ces configurations (foncteurs transition).

a2. Les composants du système sont organisés en une structure hiérarchique à plusieurs niveaux de complexité; un composant complexe se présente lui-même comme le recollement ("glue" [37]) d'un sous-système, ou pattern, qui détermine son organisation interne; ce pattern est lui-même constitué de composants plus élémentaires reliés entre eux. Chaque niveau dépend de lois distinctes, mais les interfaces entre niveaux jouent un rôle essentiel [23]. Par exemple dans une cellule [8, 9], outre ses composants de niveaux croissants (atomes, molécules, macromolécules, organites), nous distinguons les relations chimiques et topologiques intra-niveaux mais aussi inter-niveaux.

a3. La transition entre configurations successives provient des opérations archétypes mentionnées par Thom [41]: "naissance, mort, scission, collusion". Ceci est modélisé par le processus de complexification par rapport à une stratégie. Il décrit le changement produit par

- adjonction de nouveaux éléments (exemple: endocytose pour une cellule)

- destruction ou rejet de composants dans l'environnement,

- recollement de patterns en composants plus complexes (synthèse d'une protéine),

- décomposition de composants d'ordre supérieur.

Une suite de complexifications peut conduire à la formation de composants dont l'ordre de complexité est strictement croissant (hyperstructures au sens de Baas [2]).

b) Régulations locales

b1. L'autonomie du système vient du fait que sa dynamique est engendrée par un réseau de régulations locales internes coordonnées et éventuellement conflictuelles. Pour modéliser ceci, l'architecture d'un SEM est un compromis entre un processus parallèle avec organisation modulaire (du type système multi-agents) [28, 36] et un réseau associatif hiérarchique (e.g., [1, 25, 40]). En effet, nous considérons que chaque régulation locale est dirigée par un sous-système, appelé un CoRégulateur (CR). Un CR consiste en un pattern formé d'un petit nombre de composants du système, ses agents, qui appartiennent à un même niveau de complexité et agissent coopérativement selon certains liens distingués.

Les CR de niveaux inférieurs représentent des modules spécialisés en relation avec l'extérieur. Dans les niveaux supérieurs, des CR associatifs coordonnent l'activité d'un certain nombre de CR inférieurs, soit directement, soit indirectement par les contraintes qu'ils leur imposent.

b2. Chaque CR opère un processus par étapes, à une échelle de temps spécifique; il agit successivement comme opérateur interne d'observation, de décision puis de contrôle, pour élaborer certains types d'actions (nous les appelons ses "stratégies") et en mémoriser les résultats via une boucle épistémo-praxéologique au sens de Vallée [42]. Une étape du CR s'étend entre deux instants successifs de son échelle de temps et se divise en plusieurs phases plus ou moins concomitantes:

- formation d'une représentation interne du système, le paysage du CR,

- recherche sur celui-ci des objectifs à atteindre et choix d'une stratégie admissible,

- commandes aux effecteurs pour mettre en oeuvre cette stratégie,

- évaluation du résultat obtenu et sa mémorisation.

b3. Le paysage actuel du CR regroupe les informations que ses agents peuvent percevoir du système pendant son présent actuel (informations partielles, plus ou moins déformées et perdurant "assez longtemps" pour être analysées). Ce n'est pas un sous-système du système, mais une description interne qui agit comme un filtre et masque ce qui n'est pas observable pour les agents; la distorsion qu'il introduit relativement au système n'est pas discernable par les agents. Il joue aussi le rôle de mémoire de travail, en conservant ses informations pendant toute l'étape.

C'est sur ce paysage qu'une stratégie est choisie par les agents, compte tenu des résultats de l'étape précédente, des diverses contraintes et des stratégies utilisées dans des situations antérieures analogues. Mais elle peut être aussi imposée "de l'extérieur' (par exemple par un CR supérieur).

Les commandes correspondantes sont alors envoyées aux effecteurs qui répercutent la stratégie sur le système.

b4. Le paysage n'étant qu'une représentation plus ou moins déformée du système, les différents CR peuvent avoir des stratégies conflictuelles. Ainsi les objectifs fixés risquent de ne pas être atteints, ce qui peut entraîner une fracture qui interrompt l'étape en cours.

A l'étape suivante, le CR retrouve, ou non, sur son nouveau paysage le résultat anticipé de la stratégie. La dynamique du paysage pendant une étape (une fois que la stratégie a été choisie et jusqu'à sa réalisation) peut être modélisée de manière "classique", comme un système physique (e.g. par des systèmes d'équations différentielles satisfaites par les observables appropriés, ou par un système dynamique [41]).

c) Dynamique globale

c1. Nous avons vu que les stratégies répercutées par les différents CR ne sont pas toujours compatibles et elles rentrent en compétition. En effet, les CR dépendent tous des mêmes ressources globales, et il y a des interactions directes et indirectes entre eux.

Il faut donc un processus d'équilibration entre leurs stratégies, appelé jeu entre les stratégies des différents CR. Il ne s'agit pas d'un processus central, mais d'une modulation dynamique entre les différentes stratégies, et les différents CR. Il dépend des "forces" respectives des stratégies et, de manière essentielle, de diverses contraintes temporelles reliant la période d'un CR (longueur moyenne de ses étapes) aux délais de propagation des informations et aux empans de stabilité des composants utilisés dans son paysage. Il écarte la stratégie d'un CR dont les contraintes ne peuvent pas être satisfaites, de sorte qu'une fracture est causée à son paysage (imposant ainsi un changement de stratégie pour la réparer). Dans la description d'une étape par un système simple, une telle fracture introduirait une singularité (bifurcation ou comportement chaotique, catastrophe au sens de Thom [41, 44]), ou imposerait un changement complet de représentation.

c2. Il s'instaure ainsi une dialectique via boucles fonctionnelles entre CR hétérogènes, de par leur complexité et leur temporalité, qui module l'évolution du système et rend son comportement global imprédictible à long terme. Elle peut conduire à l'émergence d'objets d'ordre supérieur et de phénomènes complexes adaptatifs, tels des changements de périodes pour certains CR.

Ainsi dans [19] nous avons proposé une théorie du vieillissement d'un organisme, basée sur une cascade de dé/resynchronisations: les périodes des CR de niveaux de plus en plus élevés augmentent, pour neutraliser un allongement des délais de propagation aux niveaux inférieurs, causé par une accumulation d'événements stochastiques externes non réparés à temps; ce processus s'arrête lorsque l'instabilité est trop grande (car la période doit rester inférieure à l'empan de stabilité), et les erreurs s'accumulent.

d) Mémoire

d1. Toutes ces opérations reposent sur une mémoire interne centrale flexible, qui se modifie et se développe au cours du temps pour mémoriser les nouvelles situations rencontrées, les stratégies utilisées et leurs résultats et pouvoir les rappeler plus tard.

Chaque CR a un accès différentiel à cette mémoire. Il accomplit un processus d'apprentissage par essais-erreurs en recherchant à chaque étape les stratégies possibles au travers de son paysage actuel, et en participant à la mémorisation des nouvelles informations et activités. Les CR inférieurs peuvent n'avoir qu'une stratégie possible, auquel cas il se développe un processus cyclique. Mais pour des CR supérieurs (e.g. dans un système neuronal), il peut exister un grand choix de stratégies qui leur permet de développer, par coordination d'actions déjà mémorisées, des actions de plus en plus complexes qu'ils mémoriseront à leur tour.

d2. Un objet dans la mémoire acquiert une identité propre, indépendante de la manière dont il a été construit; ainsi une certaine activité pourra ultérieurement s'appliquer à différents cas particuliers en adaptant les paramètres au contexte.

Cette flexibilité est encore accrue dans les systèmes neuronaux d'animaux supérieurs. Il s'y développe une sémantique qui permet la classification des items mémorisés et le rappel d'une classe d'invariance par n'importe laquelle de ses instances. Ainsi dans le jeu entre les stratégies, il y aura une double plasticité: choix d'une instance particulière, puis des paramètres de celle-ci les mieux adaptés à la situation.

Et il pourra se développer des CR conscients que nous caractérisons par la possibilité d'étendre leur paysage actuel par un accroissement de l'attention après une fracture, de sorte à rechercher la cause de celle-ci par un procédé d'abduction, et de construire des paysages anticipés "virtuels" pour planifier à long terme.

 

3. Rappels sur les Catégories

La Théorie des Catégories est un sous-domaine des Mathématiques qui développe une théorie générale des concepts de relation et de structure, unifiant une grande partie des Mathématiques. Elle a été introduite par Eilenberg et MacLane [22] en vue de transformer de difficiles problèmes de Topologie en problèmes plus abordables d'Algèbre. Plus tard, elle s'est beaucoup développée, à la fois pour elle-même [33] et pour ses applications dans divers domaines des Mathématiques; par exemple dès les années 50, C. Ehresmann la prend pour base de la Géométrie Différentielle [15]; et A. C. Ehresmann l'a utilisée en Analyse fonctionnelle [3] et dans des problèmes d'optimisation [4]. La théorie des topos [31] est appliquée en Logique et plus récemment en Physique, et une collaboration fructueuse s'est instituée entre catégoriciens et informaticiens [43]. Rosen a introduit le langage des catégories en Biologie dès 1958 [38] et divers auteurs l'ont suivi (e.g., [29, 32]).

Dans les SEM, la théorie des catégories n'est pas seulement utilisée comme un langage, mais comme une méthode puissante pour découvrir les processus fondamentaux à la base de la complexité. Pour cela, nous devons adapter et généraliser différents résultats fins, en particulier des théorèmes de la théorie des esquisses, développée par C. Ehresmann et A.C. Ehresmann dans les années 70 [5], et depuis largement utilisée en Informatique.

En fait l'idée de base est que la théorie des catégories est une réflexion des lois fondamentales du fonctionnement de notre cerveau telles qu'elles ont été déterminées par l'évolution: mise en relation d'objets de diverses natures permettant le transfert et l'analyse d'informations, formation et reconnaissance de patterns d'objets coordonnés entre eux, processus d'optimisation. Nous pourrions paraphraser pour cette théorie ce que Chapline [11] dit de la mécanique quantique:

"quantum mechanics can be regarded as a fundamental theory of distributed parallel information processing and pattern recognition... we are led to suggest that the fundamental link between mathematics and theoretical physics is the pattern recognition capabilities of the human brain".

a) Catégorie, système évolutif

Dans un SEM, la configuration du système à un instant donné sera modélisée par une catégorie.

a1. Un graphe (aussi appelé graphe orienté, ou schéma de diagramme, ou polygraphe) est formé d'un ensemble d'objets, appelés sommets du graphe, avec des liens entre eux, représentés par des flèches d'un sommet N vers un sommet N'; on dit que N est la source de la flèche, et N' son but. Il peut y avoir plusieurs flèches "parallèles" ayant la même source et le même but, ainsi que des flèches "fermées" dont la source et le but sont confondus. Deux flèches f, g sont consécutives si le but N' de la première est en même temps la source de la seconde; on dit alors qu'elles forment un chemin de longueur 2 de la source N de f vers le but N" de g. Plus généralement, un chemin (de longueur n) est une suite de n flèches consécutives .

Une catégorie est un graphe dans lequel on définit une loi de composition associant à tout chemin (f, g) de longueur 2 de N vers N" une flèche du graphe de N vers N" dite composée du chemin, et notée fg. Cette composition vérifie les conditions suivantes:

- Associativité. Si (f, g, h) est un chemin de longueur 3, les deux composés f(gh) et (fg)h qu'on en déduit sont égaux. Il s'ensuit qu'à tout chemin de longueur n est aussi associé un seul composé.

- Identités: A tout sommet N est associée une flèche fermée de N vers N, dite identité de N, dont le composé avec une flèche de source ou de but N est égal à cette autre flèche.

Les sommets du graphe sont aussi appelés objets de la catégorie et ses flèches morphismes (ou simplement liens).

a2. Exemples de catégories. Un groupe est une catégorie avec un unique objet et dont tous les morphismes sont inversibles. Une relation d'équivalence (ou une relation d'ordre) sur un ensemble E définit la catégorie dont les objets sont les éléments de E, et avec seulement une flèche entre deux objets qui sont en relation. A un graphe G est associée la catégorie de ses chemins, dont les objets sont les sommets du graphe, et les morphismes les chemins, composés par concaténation.

Par ailleurs on a la "grande" catégorie des ensembles et des applications entre eux; la catégorie des espaces topologiques et des applications continues entre eux; la catégorie des groupes et de leurs homomorphismes...; et aussi la catégorie dont les objets sont les "petites" catégories et les morphismes les foncteurs entre elles, c'est-à-dire les applications qui respectent leurs structures de graphes et la loi de composition.

Dans les catégories modélisant des systèmes naturels (exemple: catégories de neurones), les contraintes énergétiques ou temporelles se traduisent souvent en associant à leurs morphismes un poids (nombre réel ou vecteur) mesurant leur force ou leur délai de propagation; et le poids du composé d'un chemin est une fonction donnée du poids de ses facteurs. Dans ce cas, la catégorie peut être construite comme quotient de la catégorie des chemins d'un graphe (de générateurs) par la relation identifiant deux chemins de même poids.

a3. Pour tenir compte des changements du système au cours du temps, un SEM n'est pas la donnée d'une seule catégorie, mais de ce que nous appelons un système évolutif [16], qui est défini par:

- une partie (finie ou infinie) de la droite réelle R, appelée son échelle de temps,

- pour chacun de ses instants t, une catégorie Kt (dite catégorie-état en t),

- pour tout temps t' > t, un foncteur k(t,t') (appelé transition de t à t') d'une sous-catégorie de Kt vers Kt', ces transitions étant transitives au sens suivant:

si k(t,t')(Nt) = Nt' est défini et si t' < t", alors k(t',t")(Nt') est défini si et seulement si k(t,t")(Nt) l'est, et dans ce cas tous deux sont égaux.

b) Colimites; liens simples et complexes

De nombreuses constructions mathématiques (union d'ensembles, borne supérieure dans un treillis) peuvent s'interpréter à l'aide de la notion de colimite (ou limite inductive) introduite par Kan en 1958 [30]. Dans un SEM, les colimites sont utilisées de manière essentielle pour distinguer la hiérarchie des composants, un composant complexe étant représenté par la colimite d'un pattern de composants plus élémentaires correspondant à son organisation interne.

b1. Un pattern dans une catégorie K est la donnée d'un graphe I et d'un homomorphisme P de I vers K; il associe donc à tout sommet i de I un objet Ni de K, dit objet du pattern, et à une flèche x de i vers j dans I un morphisme P(x) de Ni vers Nj, dit lien distingué du pattern. On appelle lien collectif du pattern P vers un autre objet N' une famille de morphismes (fi) de chaque Ni vers N' corrélés par les liens distingués du pattern, c'est-à-dire que, pour tout x de i vers j on a: fi = P(x)fj. Un tel lien collectif définit un cône de base le pattern et de sommet N'.

On dit que le pattern P admet une colimite N s'il existe un objet N vérifiant les conditions suivantes:

(i) il existe un lien collectif canonique (ci) du pattern vers N, et

(ii) chaque lien collectif (fi) du pattern vers n'importe quel N' se recolle en un unique morphisme f de N vers N' (en formule: fi = ci f pour chaque i ).

La colimite peut ne pas exister, mais si elle existe elle est unique (à un isomorphisme près). Dans ce cas, le pattern est appelé une décomposition de N. Mais alors que le pattern détermine univoquement sa colimite (si elle existe), l'inverse n'est pas vrai car le même objet peut avoir plusieurs décompositions.

La cohérence et les contraintes introduites par les liens distingués du pattern sont mesurées en comparant la colimite N du pattern P à la somme (ou coproduit) de ses objets; celle-ci est la colimite du pattern formé par la famille des objets (Ni) sans aucun lien distingué entre eux, et on a un morphisme canonique comparaison de cette somme vers N.

b2. Dans un système naturel, les relations entre composants jouent un rôle important. Un des problèmes que la théorie des catégories va permettre de résoudre est de déterminer les liens (simples et complexes) qui se formeront entre objets complexes émergents. Les liens simples proviendront des interactions "directes" entre objets de deux patterns P et P' qui sont modélisées par la notion d'une gerbe.

Etant donné deux patterns P et P' dans une catégorie, une gerbe G de P vers P' est un ensemble maximal de morphismes entre les objets de ces patterns, appelés liens de la gerbe, satisfaisant les conditions suivantes:

(i) Pour tout objet Ni de P, il existe au moins un lien de la gerbe de Ni vers un objet de P' ; et s'il en existe plusieurs, ceux-ci sont corrélés par un zig-zag de liens distingués de P'.

(ii) Les morphismes obtenus en composant un lien de la gerbe à gauche avec un lien distingué de P ou à droite avec un lien distingué de P' appartiennent aussi à la gerbe.

 

Si les patterns P et P' admettent des colimites N et N' respectivement dans la catégorie, une gerbe de P vers P' se recolle en un morphisme unique de N vers N' qu'on appelle lien (P,P')-simple de N vers N'. Le composé de deux liens simples recollant des gerbes adjacentes est encore un lien simple: si f est (P,P')-simple et si f' est (P',P")-simple, alors leur composé est (P,P")-simple.

b3. Dans une catégorie, un objet N peut être colimite de plusieurs patterns. Mais un lien (P,P')-simple peut ne pas être (Q,Q')-simple pour d'autres décompositions Q de N et Q' de N'. On dira que deux décompositions P et Q de N sont équivalentes s'il existe une gerbe entre P et Q se recollant en l'identité de N (i.e., si cette identité est un lien (P,Q)-simple). En particulier, un sous-pattern R de P peut lui être équivalent, de sorte que P et R ont la même colimite (si elle existe); dans ce cas on dit que R est un sous-pattern représentatif de P.

Un objet N' est dit multiface s'il admet au moins deux décompositions P' et Q' non-équivalentes; dans ce cas, le passage de P' à Q' est appelé un balancement complexe. Ces objets sont à l'origine de l'existence de liens "complexes". En effet, si f est un lien (P,P')-simple de N vers N' et g un lien (Q',P")-simple de N' vers N", ces deux morphismes doivent avoir un composé fg dans la catégorie, mais il n'y a pas de raison pour qu'il recolle une gerbe de P vers Q"; on dit alors que c'est un lien (P,Q")-complexe de N vers N". Plus généralement on appelle lien complexe le composé d'un chemin de liens simples recollant des gerbes non-adjacentes, séparées par des balancements complexes.

b4. Colimites Itérées et ramifications. Si N est la colimite d'un pattern P d'objets liés Ni et si chaque Ni est la colimite d'un pattern Pi, on dit que N est la colimite 2-itérée de (P,(Pi)), ou que (P,(Pi)) est une ramification de N de longueur 2.

A partir de là, on définit par récurrence:

Une colimite k-itérée A est la colimite d'un pattern dont chacun des objets liés est lui-même une colimite (k-1)-itérée. Une k-ramification de cet A est la donnée d'une décomposition de A et d'une (k-1)-ramification de chacun des composants de cette décomposition.

c) Système Hiérarchique

Pour modéliser la structure hiérarchique d'un système, nous définissons un Système Evolutif Hiérarchique [16] comme un système évolutif dont les catégories-état sont hiérarchiques au sens suivant, et les foncteurs transition respectent le niveau d'un objet.

c1. Une catégorie est dite hiérarchique si ses objets sont répartis en une suite de niveaux de complexité 0, 1,..., m, de sorte que tout objet N du niveau n+1 soit la colimite d'au moins un pattern formé d'objets liés Ni du niveau n.

Il en résulte que N a aussi une 2-ramification aboutissant au niveau n-1. En effet, chacun des objets Ni de P est lui-même la colimite d'un pattern Pi du niveau n-1, de sorte que N est une colimite 2-itérée de (P,(Pi)). En continuant à descendre, N admet des ramifications aboutissant à des niveaux k de plus en plus profonds, définies par récurrence; pour les décrire, à chaque niveau il faut tenir compte à la fois des liens "verticaux" reliant les objets d'un pattern à sa colimite du niveau supérieur, et des liens "horizontaux" formés par les liens distingués du pattern.

Le problème du réductionnisme consistera à chercher si N peut aussi être directement représenté en sautant les niveaux intermédiaires comme la simple colimite d'un "grand" pattern du niveau k. Une analyse de la nature des morphismes va permettre d'aborder ce problème.

c2. Etant donnés deux objets de niveau n+1, un morphisme entre eux est appelé lien n-simple s'il est le recollement d'une gerbe entre deux patterns de niveau inférieur ou égal à n. Il est appelé lien n-complexe s'il est le composé de liens n-simples recollant des gerbes non-adjacentes, de sorte qu'il ne soit pas lui-même n-simple. L'existence de liens n-complexes nécessite que la catégorie vérifie le Principe de Multiplicité [20], à savoir:

(i) Pour tout n, il existe des objets de niveau n+1 qui admettent plusieurs décompositions non-équivalentes de niveau n ; on dit qu'ils sont n-multifaces.

(ii) Un objet du niveau n peut appartenir à plusieurs patterns ayant des colimites différentes de niveau n+1.

 

c3. Le niveau d'un objet n'est pas un indicateur fiable de sa complexité "fonctionnelle", qui sera mesurée par son ordre. On appelle ordre de complexité de l'objet N le plus petit k pour lequel il existe un pattern d'objets liés de niveau k dont N soit la colimite. Et N est dit p-réductible pour tout p supérieur ou égal à son ordre.

Par définition, tout objet du niveau n+1 est n-réductible. Mais dans quel cas est-il p-réductible, pour un p < n ?. Un théorème important pour comprendre la structure d'un système complexe est le suivant:

Un objet N du niveau n+1 qui admet une décomposition P du niveau n dont tous les liens sont (n-1)-simples est (n-1)-réductible. Par contre il ne sera pas (n-1)-réductible (ni a fortiori réductible à des niveaux inférieurs) si ses décompositions du niveau n ont certains liens distingués qui ne sont pas (n-1)-simples.

d) Complexification

Dans un SEM, les transitions proviennent d'un processus de complexification par rapport à une stratégie.

d1. Une stratégie S sur une catégorie K consiste en la donnée: d'un ensemble A d'éléments externes "à absorber"; d'un ensemble O d'objets de la catégorie "à supprimer"; d'un ensemble de patterns P sans colimite "à recoller" (afin qu'ils acquièrent une colimite); d'un ensemble de cônes "à transformer en colimites" (de sorte que le sommet du cône devienne la colimite de sa base); d'un ensemble de patterns Q ayant une colimite "à décomposer" (de sorte que le pattern perde sa colimite).

La complexification de K relativement à la stratégie S [16] est la solution "universelle" du problème de construire une catégorie K' dans laquelle les objectifs de S sont atteints de la manière "la plus économique".

d2. Pour modéliser ce processus, nous adaptons des résultats de la théorie des esquisses, en remarquant que la donnée de S détermine une certaine structure d'esquisse (cf. Appendice), et que la complexification cherchée revient à construire le prototype associé à cette esquisse (construction faite par A. et C. Ehresmann dans [5]). Cette construction montre en particulier que:

- Les objets de la complexification K' seront: tous les objets de K qu'on ne demande pas de supprimer, les éléments de A et, pour chaque pattern P "à recoller", un nouvel objet CP devenant sa colimite (dans un système naturel il correspond à un objet d'ordre supérieur émergeant par intégration du pattern en une unité supérieure).

- Parmi les morphismes, on aura des liens simples recollant des gerbes entre patterns à recoller, mais il peut aussi exister des liens complexes obtenus par composition d'une suite de liens simples recollant des gerbes non-adjacentes.

dessin

d3. Le processus de complexification peut être itéré. Un résultat important pour comprendre en quoi l'évolution d'un système naturel complexe diffère de celle d'un système physique simple est le suivant [20]::

Si le Principe de Multiplicité est vérifié, une suite de complexifications n'est pas réductible à une unique complexification relative à une stratégie englobant les stratégies successives, et elle peut conduire à l'émergence d'objets d'ordres de complexité strictement croissants dès lors que des liens complexes interviennent dans les patterns à recoller.

4. Systèmes Evolutifs à Mémoire

Ici les résultats catégoriques précédents sont utilisés pour définir et étudier les SEM de manière plus précise.

a) Définition des SEM

a1. Un SEM sera d'abord un système évolutif sur une échelle de temps continue. La catégorie-état Kt en t représente les composants existant à cet instant et leurs relations. Ainsi chacun de ses objets joue un double rôle:

- Il agit en émetteur, via ses morphismes (ou liens) vers les autres objets qui représentent ses actions, ou les messages qu'il envoie.

- Il devient récepteur via les morphismes qui lui arrivent et correspondent aux informations qu'il reçoit, ou aux contraintes qu'on lui impose.

La transition k(t,t') de t à t' permet de repérer ce que les composants existant en t sont devenus en t', comme on pointerait sur deux photos successives d'un organisme où se trouve une même cellule distinguée. Ce foncteur n'est que "partiel" pour tenir compte de la suppression possible de certains composants (mort de la cellule).

Ceci est différent des modèles usuels où, quand on parle disons d'une cellule dans un organisme, on considère que cette cellule reste la "même" aux différents instants. Ici un composant tel cette cellule sera représenté non par un objet mais par la suite de ses états successifs; plus précisément un composant N du système est une suite maximale d'objets (Nt) dans les catégories-état, telle que, pour t' > t, Nt' soit l'image de Nt par la transition de t à t'. Et de même pour les liens entre composants.

a2. Si le système évolutif est hiérarchique, cette définition d'un composant permet de comprendre comment un composant N de niveau n+1 peut garder son identité au cours du temps malgré un changement progressif de son organisation interne de niveau n; ainsi la cellule garde son identité globale malgré le renouvellement de ses composants. En effet, si son état Nt en t est colimite d'un pattern Pt du niveau n, il se peut qu'en t' > t, son état Nt' ne soit plus la colimite du pattern transformé Pt', des objets de Pt ayant pu être supprimés ou remplacés.

Pour mesurer la rapidité du changement, on définit l'empan de stabilité de N en t : c'est le plus grand réel dt tel qu'il existe un pattern Q de composants du niveau n dont l'état Qt', pour tout instant t' entre t et t+dt, a pour colimite dans la catégorie Kt' l'état Nt' de N en t'. Dans les périodes d'équilibre, cet empan est long, alors qu'il est plus court dans les périodes de développement ou de déclin.

Dans un SEM une transition résulte souvent d'un processus de complexification relativement à une stratégie S. Supposons donc que N a émergé en t en tant que colimite de Q. Jusqu'en t+dt, l'évolution propre de N et celle de Q restent corrélées, mais ensuite elles peuvent dévier. On dit que N acquiert une identité n-complexe propre, indépendante de Q.

a3. Un Système Evolutif à Mémoire (ou SEM) [17] est un système évolutif hiérarchique vérifiant les conditions suivantes:

- les catégories-états Kt sont pondérées en associant à chaque morphisme un nombre réel positif appelé son délai de propagation, le délai d'un composé fg étant la somme des délais de f et de g. Elles vérifient le Principe de Multiplicité (cf. Section 3, c).

- il admet un sous-système évolutif hiérarchique sur la même échelle de temps, appelé la Mémoire, pouvant se développer au cours du temps par émergence de nouveaux objets;

- sa dynamique est modulée par un réseau de sous-systèmes évolutifs à échelles de temps discrètes, appelés Corégulateurs ou CR. Les composants (ou agents) d'un CR sont d'un même niveau de complexité, celui-ci variant selon le CR. On suppose que le délai de propagation des liens entre agents d'un CR est inférieur à la durée de ses étapes, qui s'étend entre deux instants successifs de son échelle de temps.

Il peut y avoir plusieurs CR de même niveau (dits parallèles), éventuellement avec des temporalités différentes; et un agent peut appartenir à plusieurs CR. Par exemple, dans une multinationale, les CR seraient les organes de direction des différentes succursales, mais aussi des différents services dans chacune d'elles. Dans un système neuronal, les CR inférieurs reçoivent des messages de l'extérieur, et on distingue des CR "couleur", "forme",... ; le cortex contient des CR associatifs de plus en plus complexes.

b) Paysage d'un CR

b1. L'étape d'un CR s'étend entre deux instants successifs t et t+d de son échelle de temps; comme nous l'avons dit, elle se divise en plusieurs phases, dont la première, ou présent actuel du CR, conduit à la formation du paysage actuel. Les agents n'ayant pas accès directement au système, un composant B du système n'est observable qu'au travers d'une perspective qui est une gerbe du pattern réduit à B vers le pattern formé par le CR (dans la catégorie coproduit des catégories-état pendant le présent actuel); elle est entièrement déterminée par un quelconque de ses liens b.

Le paysage actuel L du CR en t est la catégorie ayant pour objets les perspectives pb relatives à des liens b dont le délai de propagation moyen est inférieur au présent actuel, et qui sont issues de composants B du système ayant un niveau voisin de celui du CR et un empan de stabilité supérieur à la durée de l'étape; les morphismes de pb vers une perspective pc de C sont déterminés par les liens de B vers C dans le système dont le composé avec c appartient à pb. On a un foncteur distorsion du paysage vers le système, associant à la perspective pb le composant B dont elle est issue.

b2. C'est sur ce paysage qu'est ensuite choisie une stratégie (en utilisant les perspectives venant de la mémoire accessible dans L) dont les commandes sont transmises aux effecteurs. Le paysage anticipé pour la fin de l'étape est modélisé par la complexification du paysage actuel relativement à cette stratégie. Mais les objectifs fixés peuvent ne pas être atteints.

Le résultat sera évalué au niveau du CR par un foncteur comparaison de ce paysage anticipé vers le paysage effectivement obtenu à l'étape suivante, qui indique les erreurs éventuelles et les ajustements possibles pour y remédier. La mémorisation de la stratégie et de son résultat sera l'un des objectifs du CR à cette étape suivante.

b3. Pour que l'étape se déroule sans problème, il faut que certaines contraintes temporelles soient respectées. Notons: d(t) la période du CR à un instant t, qui est la longueur moyenne des étapes du CR précédant t (la moyenne étant calculée sur toutes les étapes se déroulant pendant l'étape précédente d'un CR du niveau supérieur ayant sa période d'un ordre de grandeur supérieur), u(t) le délai moyen de propagation des liens qui interviennent dans le paysage actuel L du CR en t et v(t) la moyenne des empans de stabilité des composants intervenant dans L et dans la stratégie. Les contraintes structurales temporelles du CR s'énoncent:

Pour presque tout t (i.e. sauf sur un ensemble de mesure 0), l'ordre de grandeur de la période d(t) doit être plus grand que celui de u(t) et moins grand que celui de v(t).

Lorsque ces contraintes ne peuvent pas être vérifiées pendant plusieurs étapes, on dira qu'il y a dyschronie pour le CR. Dans ce cas, il pourra y avoir modification ultérieure de la période du CR (on parlera de dé/resynchronisation) pour que les contraintes puissent à nouveau être respectées.

c) Dialectique entre CR

c1. A un instant donné, les stratégies choisies sur les paysages actuels des différents CR sont répercutées en stratégies sur le système lui-même, via les foncteurs distorsions de ces paysages vers le système. Si toutes les stratégies répercutées sont effectuables et compatibles, la stratégie S qui sera finalement effectuée sur le système sera leur réunion . Sinon, il y a compétition entre elles et S résultera du "jeu entre ces stratégies" qui conservera le plus possible des objectifs des CR en éliminant ceux qui ne sont pas compatibles (d'où fracture dans les paysages correspondants). Dans ce processus, les CR ont des poids inégaux dépendant de leur niveau et de leurs périodes.

c2. Ainsi considérons deux CR hétérogènes, disons un "micro CR" de niveau inférieur à période courte et un "macro CR" de niveau supérieur, à période d'un ordre de grandeur plus élevé. Tous deux forment, dans leurs paysages respectifs, des représentations très différentes du système global, et de chacun d'eux en particulier. Au microniveau, on a de courtes étapes avec changements rapides; au macroniveau les étapes sont beaucoup plus longues et les microchangements ne sont pas transmis au macropaysage en "temps réel", mais connus seulement par leurs effets accumulés tout au long de la macroétape, à cause des délais de propagation. Par suite la représentation qu'ont les macroagents du micro CR est de plus en plus inadéquate, entraînant un risque accru de fracture dans le macropaysage. Pour réparer une telle fracture et maintenir son homéostasie, le macro CR devra changer sa stratégie, et éventuellement modifier sa période pour respecter ses contraintes temporelles. Ceci peut se répercuter au micro CR en lui imposant une nouvelle stratégie, et ultérieurement avoir des conséquences pour tout le système en entraînant une cascade de fractures entre les CR.

En pratique, les changements des CR supérieurs sont plus lents à intervenir, mais ils sont plus critiques pour le système, car retentissant sur les autres niveaux de manière plus profonde. Les fractures qu'ils subissent peuvent aussi avoir un rôle créateur en obligeant à revoir complètement la situation et à chercher des stratégies originales.

d) Fonctionnement de la Mémoire

Dans le choix des stratégies par les CR et dans le jeu entre celles-ci, la mémoire intervient de manière essentielle: par le rappel d'items mémorisés, elle permet de reconnaître des objets et des situations rencontrées précédemment et de sélectionner des stratégies déjà utilisées en tenant compte des résultats qu'elles ont eues. Et elle se développe et se modifie pour tenir compte des nouvelles conditions. Ainsi un des objectifs de la stratégie globale obtenue après le jeu entre stratégies sera la formation de nouveaux objets mémorisant la situation précédente, la stratégie et son résultat.

d1. Voyons par exemple comment sera mémorisé un nouveau signal C émanant de l'environnement (exemple: objet inconnu) ou du système lui-même (commande d'effecteurs, sensation,...). C est représenté internement par la formation d'un pattern P de composants liés (dit "activé" par C) qui se maintient pendant un certain temps dans les catégories-état; ses objets peuvent être directement des récepteurs, ou des composants en relation avec eux, tels des objets de la mémoire "reconnaissant" certaines parties de C.

Un CR particulier, disons E, ne peut distinguer que certains attributs d'un signal (e.g., couleur, forme... dans un système neuronal). Ainsi C ne sera observable dans le paysage actuel L de E qu'au travers du pattern pE des perspectives venant d'un sous-pattern (éventuellement vide) PE de P. C'est le fait que ce pattern pE apparaisse dans L et s'y maintienne de manière synchrone pendant le présent actuel qui permettra au CR de le repérer. Un des objectifs d'un CR étant de mémoriser les nouveaux patterns distingués dans son paysage, la stratégie suivante de E demandera en particulier de recoller le patern pE . Ceci se répercutera au système par la commande de recoller le pattern PE image de pE par le foncteur distorsion du paysage L vers le système.

On dit que C a une E-empreinte s'il se forme un composant ME dans la mémoire qui est colimite du pattern PE et qui a une perspective mE colimite du pattern pE de perspectives. (Cf. Figure 1)

En même temps, les autres CR ayant accès à des perspectives de P conduiront à la formation des empreintes relatives aux attributs qu'ils distinguent. La stratégie globale du système résultant du jeu entre les stratégies pourra recoller les ME des diverses CR-empreintes en une colimite de P tout entier, appelée empreinte de C. Celle-ci émergera comme nouvel objet M dans la mémoire, puis prendra une identité complexe propre (cf. a, 2).

Une présentation ultérieure de C réactivera le pattern P, donc aussi le sous-pattern PE et sa colimite ME , qui deviendra observable dans le paysage actuel de E via sa perspective, permettant la reconnaissance des attributs de C détectés par ce CR. Il en est simultanément de même pour les autres CR, de sorte que le jeu entre leurs stratégies pourra recoller les différents ME , ce qui rappellera l'empreinte M de C. Cette reconnaissance du signal par le système exige que les CR puissent coordonner leurs actions, tout en respectant leurs contraintes structurales temporelles respectives.

Remarquons qu'une fois formée, l'empreinte M peut participer à la mémorisation d'un signal plus complexe ayant C pour l'une de ses composantes.

d2. Le même processus s'applique au développement et à la mémorisation d'une nouvelle stratégie représentant une certaine action, qui pourra ensuite être prise comme l'un des éléments d'une activité plus complexe. D'une façon générale, l'apprentissage d'une nouvelle action reposera sur sa décomposition en actions plus simples déjà connues; sous l'effet du jeu entre les stratégies de différents CR; celles-ci seront coordonnées en patterns qui, en se renforçant par répétition, acquièrent une colimite les mémorisant. Ces nouvelles colimites peuvent elles-mêmes se regrouper en patterns plus complexes, se mémorisant sous forme de colimite itérée. Et ainsi de suite jusqu'à la formation d'une colimite itérée A mémorisant l'action.

Maintenant, A va prendre une identité propre, indépendante de la ramification ayant servi à la construire initialement, de sorte qu'elle pourra être réalisée ensuite avec différents paramètres pour mieux s'adapter au contexte. En effet, le rappel de A se fera par le déploiement de n'importe laquelle de ses ramifications, disons (R,(Ri)) pour une ramification d'ordre 2. Pour cela, différents CR vont simultanément activer (au travers de leurs paysages actuels) des objets d'un pattern R ayant A pour colimite, puis, à une étape suivante, chacun de ces objets à son tour activera un des patterns Ri dont il est la colimite par l'intermédiaire de CR inférieurs. Le choix de la ramification se détermine progressivement, du haut vers le bas: d'abord choix du pattern R, puis pour chacun de ses objets, choix d'un pattern Ri, ... et ainsi de suite si la ramification est "plus profonde". Quelle ramification est finalement déployée dépendra des contraintes de toute nature imposées par le contexte, et son choix se précisera ou se modifiera à chaque niveau au cours de la réalisation de l'action sous l'effet du jeu entre les stratégies des CR, en tenant compte de . leurs contraintes structurales temporelles propres. Si celles-ci ne peuvent pas être respectées, l'ation échouera.

Par exemple, avant de savoir marcher, un enfant apprend à coordonner divers mouvements simples plus ou moins innés pour se redresser et avancer une jambe lorsqu'il est tenu, ce qui conduit à la mémorisation des stratégies correspondantes dans les aires motrices. Puis ces stratégies sont elles-mêmes coordonnées en patterns qui acquièrent leurs propres colimites permettant de faire un pas sans perdre l'équilibre. Et ainsi de suite jusqu'à la formation d'une stratégie complète de marche, utilisable dans les conditions les plus variées [28]. Mais si l'enfant essaie d'avancer trop vite, la coordination motrice se fait mal, et il risque de tomber.

d3. Le développement de la mémoire par formation de composants d'ordres croissants mémorisant des signaux, des situations ou des stratégies résulte d'une suite de complexifications qui déterminent aussi quels sont les liens (simples ou complexes) compatibles entre les objets mémorisés. En particulier, l'empreinte M d'un signal C pourra être reliée par un lien f (simple ou complexe) dans la mémoire à une stratégie A en réponse à ce signal. Une présentation ultérieure de C rappellera son empreinte M et, par le lien f, la stratégie A. Ceci se fera par l'intermédiaire des différents CR et du jeu entre leurs stratégies, comme indiqué plus haut; avec risque de fracture si les contraintes structurales et temporelles de certains CR ne peuvent pas être respectées. Par exemple, la vue d'une proie C n'aura pas d'effet pour un animal rassasié. Mais s'il a faim, elle déclenche une stratégie pour la saisir; sa réalisation nécessite une coordination entre les CR visuels qui déterminent la location et la taille de la proie, et les CR moteurs qui contrôlent les mouvements pour l'attraper. Mais si la proie se déplace très vite, ou de manière imprévue, les informations venant des CR visuels sur sa position parviendront trop tard aux CR moteurs pour qu'ils puissent encore ajuster le mouvement, et la proie s'échappera.

e) Réductionnisme émergentiste

e1. Nous venons de voir que le développement de la mémoire se fait par itération du processus de complexification. Le SEM vérifiant le Principe de Multiplicité, une suite de complexifications n'est pas réductible à une unique complexification et elle conduit à l'émergence de composants d'ordres croissants, reliés par des liens simples ou complexes (cf. Section 3, d-3).

Ceci explique que toute représentation du système par les modèles classiques basés sur des équations différentielles (ou des systèmes dynamiques) ne peut être valable que "localement et temporairement" (comme l'a suggéré Rosen [39]; cf. aussi Matsuno [35]). En effet, un tel modèle ne peut décrire qu'un processus de complexification particulier entièrement déterminé par l'état initial (la catégorie qu'on complexifie) et la stratégie (qui donne les paramètres), et non pas une suite non-réductible de complexifications, dans laquelle des objets d'ordres croissants émergent.

e2. Reste le problème de savoir comment les propriétés d'un composant d'un niveau supérieur sont reliées à celles des éléments de niveaux inférieurs ayant servi à le construire, et comment de nouvelles propriétés peuvent émerger pour un tel composant par rapport aux niveaux inférieurs.

- Considérons d'abord le passage de n à n+1. Un composant de niveau n+1 est construit comme colimite d'un pattern d'objets liés de niveau n; donc ses propriétés sont déterminées par ces objets car elles correspondent aux liens collectifs de ce pattern. De même pour un lien n-simple, qui recolle une gerbe du niveau précédent. La situation est différente pour un lien n-complexe. Un tel lien de N vers N" est le composé d'un lien (P,P')-simple g de N vers N' et d'un lien (Q',P")-simple g' de N' vers N", avec balancement complexe entre P' et Q'. Les propriétés de ce lien se déduisent des propriétés locales des deux gerbes de niveau n que g et g' recollent, mais aussi du fait que les patterns P' et Q' ont la même colimite N'. Cette dernière condition signifie que les deux patterns imposent à chaque objet de niveau égal ou inférieur à n les mêmes contraintes, ce qui prend en compte le niveau n tout entier. Ainsi les contraintes imposées à N et N" par le lien complexe gg' ne peuvent pas être réduites à des contraintes locales imposées sur leurs composants dans P et P", mais émergent de la structure globale du niveau n.

- Ceci a des conséquences pour le passage du niveau n au niveau n+2. Un objet A du niveau n+2 est reconstruit en deux étapes à partir du niveau n comme colimite 2-itérée d'une 2-ramification (R,(Ri)). Si certains liens distingués de R sont complexes, il résulte de ce qui précède qu'ils imposent à A des propriétés émergeant de la structure globale de niveau n, et ne provenant pas des seules propriétés "locales" des composants de A de ce niveau n (comme le voudrait le programme réductionniste "dur").

- Et la situation se reproduit pour le passage à des niveaux supérieurs. Ainsi, les niveaux inférieurs permettent bien de reconstruire un niveau supérieur, mais à condition de faire intervenir dans chaque élément la structure holistique de chaque niveau intermédiaire et pas seulement la structure "locale" de ses propres composants des niveaux inférieurs. Nous parlerons d'un réductionnisme émergentiste (précisant le concept proposé par Mario Bunge [7]).

 

5. Application à un système neuronal

a) Assemblées de neurones

La réponse d'un système neuronal à un signal simple est l'activation d'un neurone spécialisé; par exemple, il existe, dans les aires visuelles, des neurones activés par un segment d'une certaine direction (cellules "simples"), ou par un angle (cellules "complexes"),... [27]. Mais des signaux plus complexes, sauf exception (e.g., un neurone représentant une main tenant une banane chez le singe [24]), ne possèdent pas leur propre "neurone de grand-mère".

Le développement de l'imagerie neuronale a montré que des signaux complexes, ou des programmes moteurs, sont représentés par la brève synchronisation d'une assemblée de neurones spécifique. Et l'apprentissage consisterait en la formation de telles assemblées synchrones, sous l'effet du renforcement des synapses entre leurs neurones, en suivant la règle déjà proposée par Hebb en 1949 [26]: une synapse entre deux neurones se renforce si les deux neurones sont actifs en même temps, et sa force diminue si l'un est actif tandis que l'autre ne l'est pas.

Ces processus peuvent être décrits dans un SEM modélisant un système neuronal [21], et ce modèle permet de comprendre comment ils sont à la base du développement d'objets mentaux de plus en plus complexes, jouissant d'une grande flexibilité.

  b) SEM des neurones

Dans un tel SEM, la catégorie-état à un instant t sera obtenue par complexifications successives de la catégorie des neurones définie comme suit:

b1. Nous considérons le graphe dont les sommets sont les neurones à l'instant t, et les flèches f de N vers N' sont les synapses ayant N pour partie pré-synaptique et N' pour partie post-synaptique. La catégorie des chemins de ce graphe est pondérée, le poids d'un chemin synaptique étant relié à la probabilité que l'activité de N, déterminée par sa fréquence instantanée d'impulsions, se propage à N' et au temps de propagation de cette activation. La catégorie des neurones à l'instant t est obtenue à partir de celle-ci en y identifiant deux chemins synaptiques de N vers N' de même poids.

b2. Une assemblée de neurones est représentée par un pattern P dans une telle catégorie de neurones. Sa synchronisation est alors modélisée par l'émergence d'une colimite de P dans une complexification de la catégorie; cette colimite opère comme un unique "neurone d'ordre supérieur" intégrant l'assemblée, et qui prend sa propre identité; on l'appelle un neurone de catégorie (ou cat-neurone).

La construction de la complexification détermine quels sont les "bons" liens entre cat-neurones (à savoir les liens simples et complexes), donc entre assemblées synchrones de neurones, ce qui résout un problème soulevé en Neurosciences [34].

Et, par itération du processus de complexification, on peut définir des cat-neurones d'ordre 2 représentant des assemblées d'assemblées de neurones, puis d'ordre 3 etc... de plus en plus complexes, modélisant des objets mentaux ou des processus cognitifs d'ordre supérieur. Ce qui permet de décrire explicitement comment se développe une "algèbre des objets mentaux" au sens de Changeux [10].

En particulier, l'extension de la mémoire, sous l'effet des différents CR, conduit à l'émergence de cat-neurones d'ordres croissants. Parmi eux, les cat-neurones qui "mémorisent" les stratégies effectuées et leurs résultats forment la mémoire procédurale.

c) Sémantique

Le système neuronal d'un animal évolué sera de plus capable de classifier les items reconnus par la formation de classes d'invariance.

c1. Pour un CR inférieur E, cette classification sera seulement "pragmatique": deux items sont "agis" comme équivalents lorsque leurs traces dans le paysage activent le même pattern d'agents: par exemple, c'est le même pattern d'agents d'un CR "couleur" qui est activé par tous les objets bleus. (Ceci est modélisé [18] à l'aide de la notion de forme au sens de la "shape theory" [12]. )

c2. Mais cette classification ne prendra un "sens" qu'au niveau d'un CR supérieur, à période plus longue, qui peut repérer ce qu'ont en commun les différents items classés ensemble et mémoriser une telle classe sous la forme d'un objet appelé un E-concept. Celui-ci sera modélisé par la limite du pattern d'agents de E activé par tous les items de la classe, et ses différentes instances forment la classe d'invariance du concept (par exemple, pour le couleur-concept "bleu", toutes les représentations d'objets bleus).

c3. Les CR-concepts relatifs aux différents CR formeront une Mémoire Sémantique qui s'enrichit sous l'effet de complexifications successives, par adjonction de concepts relatifs à plusieurs attributs (tel un "triangle bleu"), puis de concepts plus abstraits obtenus comme limites de patterns de tels concepts "concrets", liés par des liens complexes. Un concept peut être vu comme un prototype abstrait pour une classe d'items ayant un "air de famille" (au sens de Wittgenstein) et il ne suppose pas l'existence d'un langage.

L'activation d'un concept repose sur une double indétermination: d'abord choix d'une instance particulière du concept, puis choix d'une décomposition particulière de cette instance. Il en résulte que l'introduction d'une sémantique rend encore plus flexible le jeu entre les stratégies des différents CR. En effet, la mémoire procédurale se sémantisera, de sorte que, dans les CR supérieurs, le choix d'une stratégie pourra être fait sous forme de concept, sans préciser un objet particulier de la classe d'invariance du concept. Ceci donne un nouveau degré de liberté dans la formation de la stratégie effective sur le système, en permettant d'en activer l'instance la mieux adaptée compte tenu des stratégies répercutées par les autres CR. Par exemple la commande d'un mouvement de préhension se modulera en fonction de l'objet à soulever.

c4. Au cours de l'évolution d'un SEM, il peut y avoir formation, par regroupement d'objets et liens émergents, de nouveaux CR de niveaux de plus en plus élevés, développant des aptitudes particulières.

Ainsi, dans un SEM doté d'une mémoire sémantique, il peut se développer des CR "capables de conscience", qui internalisent la sémantique et la notion de temps. Un tel CR conscient est caractérisé par les capacités suivantes (cf. l'article sur la conscience dans [21]):

- étendre rétrospectivement son paysage actuel à des niveaux inférieurs du passé récent par accroissement de l'attention, en particulier après une fracture;

- opérer un processus d'abduction sur ce paysage étendu pour rechercher les causes de la fracture;

- planifier un choix de stratégies couvrant plusieurs étapes futures par la formation de paysages "virtuels" dans lesquels les stratégies (choisies sous forme de concept) peuvent être essayées sans coût énergétique.

Du point de vue neurologique, ces propriétés reposent sur l'existence de boucles fonctionnelles entre différentes aires du cerveau, qui forment ce que Edelman [14] appelle "boucle de la conscience" .

d) Problème corps/esprit

La représentation d'un état mental par un cat-neurone d'ordre supérieur conduit à une nouvelle approche du problème de l'identité entre états mentaux et états physiques du cerveau. En effet, un état physique, tel qu'il est vu par imagerie médicale, correspond à l'activation d'une simple assemblée de neurones (modélisée par un cat-neurone d'ordre 2). Mais un cat-neurone d'ordre supérieur n'est pas directement réductible à une telle assemblée: son activation exige plusieurs étapes, passant par les niveaux intermédiaires d'une de ses ramifications jusqu'au niveau 2 des états physiques; et, à chaque étape, elle peut se propager par l'une ou l'autre des décompositions non-équivalentes d'objets multifaces, avec balancement entre elles qui peut être d'origine aléatoire (bruit), quantique (selon Eccles [13]) ou contrôlé. Bien que ce processus représente un "événement" physique bien déterminé, il ne s'identifie pas à un "état" physique: les états mentaux émergent de manière dynamique (au travers du déploiement graduel d'une ramification) des états physiques, sans leur être identiques. Ceci définirait un monisme émergentiste au sens de Bunge [7].


 

Remerciements. La rédaction de cet article a bénéficié de stimulants échanges avec Jerry Chandler, George Farre et Brian Josephson.

 


Appendice

A une stratégie S sur une catégorie K, on associe l'esquisse suivante:

- elle contient K comme sous-catégorie,

- les autres objets sont: les éléments de A et un objet CP pour chaque pattern P à recoller. De plus, pour chaque objet Ni d'un tel pattern P, on ajoute une flèche di de Ni vers CP, de sorte que la famille des di définisse un cône cP de P vers CP.

- Les cônes distingués sur l'esquisse sont: les cônes "ajoutés" cP et les cônes à transformer en colimites; et on impose que les objets de O et les colimites des patterns Q soient transformés en objets initiaux. La complexification est la sous-catégorie pleine du prototype de cette esquisse (au sens de [5]) ayant pour objets les objets non-initiaux.


 

Références

1. Auger, P. (1989), Dynamics and thermodynamics in hierarchically organized systems, Pergamon Press.

2. Baas, N. A. (1992), Hyperstructures - a framework for emergence, hierarchies and complexity, in "Proceedings du Congrès sur l'émergence dans les modèles de la cognition", Télécom. Paris, 67-93.

3. Bastiani(-Ehresmann), A. (1964), Applications différentiables..., Jour. d'Analyse Math. Jérusalem XIII, 1-113.

4. Bastiani(-Ehresmann), A. (1967), Sur le problème général d'optimisation, in "Identification, Optimalisation et stabilité des systèmes automatiques", Dunod, 125-135.

5. Bastiani(-Ehresmann), A. & Ehresmann, C. (1972), Categories of sketched structures, Cahiers Top. et Géom. Diff. XIII-2; reprinted in "Charles Ehresmann, Oeuvres complètes et commentées", Partie IV-1, Amiens (1984).

6. Bertalanffy, L. von (1973), General System Theory, Harmondsworth, Penguin.

7. Bunge, M. (1979), Treatise on Basic Philosophy, Vol. 4; Reidel, Dordrecht.

8. Chandler, J.L.R. (1997), Semiotics of complex systems: a hierarchical notation for the mathematical structure of a single cell, in "Proceedings Conference Euro'97".

9. Chandler, J., Ehresmann, A.C. and Vanbremeersch, J.-P. (1995), Contrasting two representations of emergence of cellular dynamics, in "Proceedings Symposium on Emergence, Inter'Symp'95", The International Institute for advanced studies in Systems research and Cybernetics, Windsor.

10. Changeux, J.-P. (1983), L'homme neuronal, Fayard, Paris.

11. Chapline, G. (1999), Is theoretical physics the same thing as mathematics, Physics Report 315, 95-105.

12. Cordier, J.-M & Porter, T. (1989), Shape Theory, Wiley.

13. Eccles, J.C. (1986), Do mental events cause neural events? Proc. R. Soc. Lond. B227, 411-428.

14. Edelman, G.M. (1989), The remembered Present, Basic Books, New York.

15. Charles Ehresmann, Oeuvres complètes et commentées, Partie I, Amiens, 1983.

16. Ehresmann, A.C. and Vanbremeersch J.-P. (1987), Hierarchical evolutive systems, Bull. Math. Biol. 49, 13-50.

17. Ehresmann, A.C. and Vanbremeersch J.-P. (1991), Un modèle pour des systèmes évolutifs avec mémoire..., Revue Intern. de Systémique 5 (1), 5-25.

18. Ehresmann, A.C. and Vanbremeersch J.-P. (1992), Outils mathématiques pour modéliser les systèmes complexes, Cahiers Top. et Géo. Diff. Cat. XXXIII, 225-236.

19. Ehresmann, A.C. and Vanbremeersch J.-P. (1993), Memory Evolutive systems: An application to an aging theory, in "Cybernetics and Systems" (Ghosal & Murthy, Ed.); Tata McGraw-Hill Pub. C° New Delhi, 90-92.

20. Ehresmann, A.C. and Vanbremeersch J.-P. (1996), Multiplicity Principle and emergence in MES, SAMS 26, 81-117.

21. Ehresmann, A.C. and Vanbremeersch J.-P. (1999), Site Internet: http://perso.wanadoo.fr/vbm-ehr.

22. Eilenberg, S. & Mac Lane, S. (1945), General theory of natural equivalences, Trans. Am. Math. Soc. 58, 231-294.

23. Farre, G.L. (1994), Reflections on the question of emergence, in "Advances in Synergetics", Volume I, The International Institute for advanced studies in Systems research and Cybernetics, Windsor.

24. Gazzaniga, M.S. (1985), The social brain, Basic Books, New York.

25. Goguen, J.A. (1970), Mathematical representation of hierarchically organized systems, in "Global Systems Dynamics", Ed. Attinger, Basel, 65-85.

26. Hebb, D. O. (1949), The organization of behaviour; Wiley, New York.

27. Hubel, D.H. and Wiesel, T.N. (1962), Receptive fields..., J. Physio.160 (1) (1962).

28. Josephson, B. (1998), Extendibility of activities and the design of the nervous system, in "Proceedings third international conference on emergence ECHO III" (ed. Farre), Helsinki.

29. Kainen, P.C. (1990), Functorial cybernetics of attention, in "Neurocomputers and Attention II" (ed. Holden and Kryukov), Manchester University Press, Chap. 57.

30. Kan, D. M. (1958), Adjoint Functors, Trans. Am. Math. Soc. 89, 294-329.

31. Lawvere, F.W. (1972), Introduction: Toposes, Algebraic Geometry and Logic, Lecture Notes in Math. 274, Springer, 1-12.

32. Louie, A.H. (1983), Categorical System Theory, Bull. math. Biol. 45, 1029-1072.

33. Mac Lane, S. (1991), Categories for the working mathematician, Springer.

34. Malsburg C. (von der) & Bienenstock E. (1986), Statistical coding and short-term synaptic plasticity, in "Disordered systems and biological organization", NATO ASI Series 20, Springer.

35. Matsuno, K. (1989), Protobiology: Physical basis of Biology, CRC Press, Boca Raton.

36. Minsky, M. (1986), The society of mind, Simon & Schuster, New York.

37. Paton, R.C (1997), Glue, verb and text metaphors in Biology, Acta Biotheoretica 45, 1-15.

38. Rosen, R. (1958), The representation of biological systems from the standpoint of the Theory of Categories, Bull. math. Biophys. 20, 245-260.

39. Rosen, R. (1986), Theoretical Biology and complexity, Academic Press.

40. Salthe, S.N. (1985), Evolving hierarchical systems: their structure and representation, Columbia University Press.

41. Thom, R. (1988), Esquisse d'une Sémiophysique, InterEditions, Paris.

42. Vallée, R. (1995), Cognition et Système, L'Interdisciplinaire, Limonest.

43. Walters, R.E.C. (1991), Categories and computer science, Cambridge University Press.

44. Zeeman, E.C., Catastrophe Theory, selected papers, Addison-Wesley (1977)