OLATS : PROJETS EN PARTENARIAT > ARTMEDIA VIII - PARIS > Louis-Josè LESTOCART


Emergence - L'Art en espace partagé

Louis-Josè LESTOCART


Je parlerai ici du paradigme de l’émergence et de la genèse, puis du développement des univers distribués. Tout se passe comme si, dans l’évolution artistique sur un siècle, tout s’était joué entre ces deux notions qui aujourd’hui font florès. Dans Matière et mémoire (1896), L’évolution créatrice (1907) et surtout La pensée et le mouvant (1934), Bergson, à travers son étude de la perception de l’espace et du champ du réel, révèle que devant ce "jaillissement ininterrompu de nouveautés" (La pensée et le mouvant), réservoir inépuisable dont les choses sont tirées, notre perception demeure partielle. Nourrie au sens commun, celle-ci s’est confortablement installée dans un monde intermédiaire où le devenir n’est fait que d’états (une succession d’états distincts, simples instantanés), et la durée que d’instants. Et ce faisant, par effet purement mécanique, brutal, morne et évident, on pratique une sorte de coupe instantanée du devenir par l’attention pour en faire un présent pourvu de côtés (objet, tableau, concept, idée). Une idée claire et distincte. Par cette clarté et cette distinction, on pense fixe ce qui est en mouvement, progression continue. La perception ne naît alors que d’une limitation de la chose perçue. Limiter, soit masquer la durée, ou bien dans le mouvement, ou bien dans le changement. Les informations qui se portent à notre cerveau ne restituent qu’un espace fragmenté, partagé. Un genre de monde "par défaut", fracturé en images dans la conscience. Dès lors la réalité paraît être à construire. Puisque, de l’ordre de l’expérience et non de celui de la déduction, elle s’éprouve et se vit. Elle n’est pas une chose stable, immobile, l’une de ces réalités-idées claires et distinctes de Descartes, un "ceci" ou un "cela" (j'emprunte cette formule à Deleuze) mais un flux ; une continuité de transition, qui se crée selon un système différentiel ; tout mouvement, comme tout changement, étant par essence imprévisible.

Qu’est-ce que la réalité ? Elle est sans cesse un devenir qui s’interroge et qu’on interroge. Acte cognitif donc. Paul Valéry, poète emblématique de notre modernité, décrit ainsi une première émergence à travers l’exemple du C/E/M mis à l’œuvre dans ses Cahiers ; ceux-ci, commencés en 1892, montrant d’ailleurs par leurs entrelacs de thèmes et les renvois nombreux, une certaine préconception de l’hypertexte. Ce qu’il appelle Système du Moi propose en quelque sorte un modèle heuristique du cerveau retraçant le fonctionnement de l’esprit, dont le but est, pénétrant en l'orbe de celui-ci, d'en effectuer l'entière opération par une interaction des points-sujets le Corps/l’Esprit/le Monde (C/E/M). De cette émergence, il ressort une conception de l’écriture vue comme laboratoire. Une Gedankexperiment ou expérience de pensée selon la terminologie d’Alexandre Koyré ou encore une "logique de la recherche" selon Pierce. En tout une idée de Naturphilosophie telle qu’elle apparaît chez Goethe, une opération cognitive, une poïesis, point de convergence entre philosophie, épistémologie et science tendant vers une écriture formelle et épistémologique d’où surgit ce qu’il nomme la Voix. Soit donc une "distribution" de l’esprit, une "machine" abandonnant l’introspection et les "mythologies" de la philosophie littéraire pour laisser place à l’Intellect.

Au début du XX° siècle, sur la lancée du théâtre total de Wagner et de l’art total (Gesamtskunswerk) qui en découle, apparaît alors la notion d’univers distribués. Tour à tour, Albers, Schawinsky, Tatline, Moholy-Nagy vont concevoir une hybridation art/science et "distribuer" l’espace tout en redonnant au corps une place centrale. Duchamp avec la Mariée mise à nu par ses célibataires, même (1923) conçoit, lui, l’œuvre comme espace selon un code cognitif institué. Il veut défaire l’art de son complexe rétinien. La perception étant moyen inadéquat et confus d’approcher "la vraie image" de l’objet perçu.  Comme s'il ne s’agissait en définitive que d’un code mental à attention inégale et disproportionnée, qui fait systématiquement glisser l’esprit pour l’installer d’emblée dans un sens général, un contenu, écartant ainsi du champ de l’attention la considération de la forme ou de l’objet. Dès lors ce sera le sens qui comptera en tant que vision globale et produit de l’interaction entre l’observateur et le système grâce à l’interdépendance intrinsèque résidant entre eux. À l’intuition subjective, privée, des idées claires et distinctes, se substitue ainsi la mise à l’épreuve objective des idées-hypothèses.

De là on passe au théâtre conçu comme espace partagé avec un théâtre de l’abstraction, né d’une synthèse entre des composants formels due à Moholy-Nagy au Bauhaus (1924) et à une réinterprétation de l’idée de théâtre total de Wagner, avec Kandinsky qui s’est particulièrement attaché à la question de la forme en peinture. Par ses influences philosophiques (Bergson et Whorringer), musicales (Scriabine et l’atonalité de Schönberg), il conçoit dans les années 10-20, son théâtre qu’il appelle Composition comme forme totale et métaphore de la créativité 1 . Théâtre qu’on pourrait aussi bien appeler opération cognitive, puisque enclenchant un parcours cognitif où forme, substance, action, se joignent étroitement. La notion de "Sonorité", voir ses nombreux écrits tels La sonorité jaune ou La sonorité verte, y résonne, tout comme la Voix de Valéry, comme une émergence.

Ces recherches servant de point de départ à des investigations fertiles se font au sein d’un contexte qu’on a appelé la "crise des fondements" qui dure de 1895 à 1930 visant à édifier les mathématiques sur des ensembles d’axiomes purement logiques - ce qu’on appelle encore logique formelle ou axiomatisation- qui subordonnent les mathématiques à la pure logique. Georg Cantor, Richard Dedekind, Guiseppe Peano, Georges Boole, David Hilbert, Gottlob Frege, Kurt Gödel, Bertrand Russel et Albert North Whitehead, sont autant de mathématiciens qui vont permettre l’irruption de la logique formelle et propositionnelle qu’appelle au secours de la philosophie, Wittgenstein dans son Tractatus (1921).

Logique propositionnelle, mathématiques donc machines. En 1936, Alan Turing conçoit sa "machine universelle" avec Alfonzo Church à Princeton (thèse de Church-Turing 2) En 1947, élargissant ses intérêts, il se tourne vers la psychologie et parle de construire un "cerveau", soit doter une machine de comportements intelligents. 3 Et, en 1950, pose la question : les machines ont-elles le pouvoir de penser ? 4 Dans la même période, une véritable science nouvelle s’est formée peu à peu qui a trouvé son expression en 1948 avec la Théorie mathématique de la communication de Claude Shannon. 5 Tandis qu’apparaissent les premières manifestations d’une auto-organisation et prémices de la Vie artificielle (VA) avec Stanislaw Ulam et les automates cellulaires (CA), le rapport sera vite fait entre ordinateur et cerveau, tel que l’a déjà pensé Turing, via la logique conçue comme émergeant de l'activité neuronale de Warren Mc Culloh et Walter H. Pitts. Et ce qui découle à la fois des recherches de Shannon, de Turing et du connexionisme Pitts-McCulloh - soit la conception des premiers ordinateurs (l'EDVAC, l'ENIAC,1945-1946), et de l’architecture dont John von Neumann a doté les ordinateurs jusqu’à maintenant, 6 ainsi que les servomécanismes ou système de commande -, engendre le mouvement cybernétique (1948) où l’on retrouve von Neumann, Turing, McCulloch et Pitts et Norbert Wiener. Une première période de ces recherches a débuté en 1943 : celle des S.T.C. (Sciences Technologiques de la Cognition). La deuxième période qui commence en 1956, est le Cognitivisme qu’on appelle encore paradigme symbolique ou approche computationnelle. Avec la pensée du computionnalisme (computational theory of mind) et de la reconnaissance de symboles telle que la définissent Herbert Simon, Noam Chomsky, Allen Newell, Marvin Minsky, John McCarthy, naît l’intelligence artificielle (IA, life-as-it-could-be). Parmi les quelques réalisations de l’IA, on notera le Logic Theorist (LT), le General Solving problem (GSP, 1957) et les systèmes experts comme jeux d’échecs ou traducteurs. L’échec du computationalisme sera bientôt prononcé par l’apport théorique de Ray Jackendoff, 7 à l’origine musicologue, avec le mind-mind problem et celui du linguiste John Searle. 8

Le troisième stade qui apparaît fin des années 70 est l’approche phénoménologique avec un retour à la philosophie d’Husserl, avec des apports de Piaget et des idées d’auto-organisation en physique et en mathématiques non linéaires. Cette époque où l’on s’intéresse à ce que l’on appelle des propriétés émergeantes (ou systèmes complexes), c’est celle du connexionisme, de l’autopoiesis et du constructivisme radical débouchant à nouveau sur la notion de distribution ; soit l’Intelligence artificielle distribuée (I.A.D) et la Vie artificielle développé entre-temps par L.S. Penrose et ses principes d’auto reproduction 9 et par le Jeu de la vie de John Conway en 70. 10 L’I.A.D, les systèmes multi-agents (SMA), l’ADN numérique et l’énaction engendrent tout un nouveau paradigme qu’on retrouve analysé dans les écrits de Francisco Varela 11  qui affirme que le cerveau n'est pas directement pertinent pour comprendre la cognition. Dans les années 80, au MIT, Rodney Brooks, met au point une série de robots ressemblant à des insectes puis en 1993, un robot humanoïde (COG) et parle d’une intelligence sans représentation. Ainsi s’est peu à peu établi le lien entre émergence et univers distribués.

Qu’en était-il en art ? L’art était-il devenu une espèce en train de muter ? L’irruption sur la scène artistique de John Cage et Merce Cunningham d’abord au Black Mountain College puis à la New School for Social Research et les notions d’indéterminabilité, de hasard et de chaos qui se sont bientôt infiltrées dans l’art et lui ont donné un nouvel élan, devaient en décider. Tout comme les "Théâtres de la peinture", "tableaux distribués" d’Allan Kaprow, Jim Dine, Claes Oldenburg. Dans les années 50-60, temps où se mettent en place environnements, installations et performances illustrant un retour à l’art total et prônant l’interaction entre œuvre, artiste et public où l’idée du corps est centrale, il semble bien qu'on explore de fait en tous sens un vaste domaine : la théorie de la communication.  L’œuvre d’art d’Allan Kaprow à Dick Higgins devient essentiellement data space (espace d’informations) avec intentionnalité et arrière-plan selon la pensée de John Searle. Puis l’art vidéo, art construit sur la théorie de l’information, marque d’autant plus le passage s’effectuant de la perception à l’information, initié par Duchamp. L’art vidéo qui paraît dans un premier temps machine de guerre contre la société de consommation, en particulier avec Paik et Vostell, récupère la notion du feedback (rétroaction) de Wiener, lutte contre le béhaviorisme et met en jeu les pôles conceptuel et sensoriel (esprit, corps, espace personnel et social) par la participation du spectateur et de nouveaux "agents" comme temps et identité dans les Self-regulating Dynamic Field de Peter Campus et Dan Graham 12 : la rétroactivité redéfinit le corps et son espace social. Mais plus encore les Machine vision de Steina et Woody Vasulka, le scan processor IVS (intelligent video system) de Rutt-Etra (1971) découvrent le "temps réel". Enfin vient l’art en espaces partagés mêlant théorie de la communication et univers distribués, espaces collectifs et débuts d’un art virtuel via la communication et la sociologie. Dans l’Art sociologique (Forest, 1974) et l’Esthétique de la communication (Forest, Costa, 1983), le monde extérieur demeure le nécessaire "interrupteur", "l'agitateur" et donc le principe interagissant avec la création. Ces mouvements artistiques sont à leur tour redéfinis à travers les nouveaux paradigmes scientifiques dans lesquels ils s’inscrivent : ainsi toujours le développement des sciences cognitives, l’apparition de la micro-informatique et des technologies de réseaux déterminant la naissance des arts en réseaux, l’art télématique et la "fluidité circulationnelle spécifique" (Eric Sadin) qui en résulte. Roy Ascott, Don Foresta, Karen O’Rourke, Kit Galloway et Sherrie Rabinowitz fondateurs de l'Electronic Cafe International et leur utilisation de satellites pour coupler des images à distance ; tous ceux-là disent l’interaction entre "nomadisme" textuel et iconique et "nomadisme" de la conscience. " La création (ou la conscience) se situe par rapport à mille coordonnées virtuelles. " Elle n’est en son fond que ce qui capable d’une infinité de rôles, d’interprétations, de points de vue." Cette phrase est de Paul Valéry, elle vient des Cahiers, et date de 1914. Mais l'essentiel paraît encore être ailleurs.

Dans l’Histoire, l’ars memoria (art de la mémoire) mélange mnémotechnie, palais de la mémoire, théâtres de la mémoire. Les sources en sont nombreuses : Simonide de Chéos, Cicéron (De oratore), Saint Augustin (Confessions), Quintilien (De l’institution oratoire), Ramon Lulle, Peter Ramus, Robert Fludd et Giulio Camillo (constructeurs de Théâtres de la Mémoire), Giordano Bruno (De l'ombre des idées). Vers la fin des années 70, Richard Bolt et Nicholas Negroponte au M.I.T créent le Spatial Data Management System (SDMS) qu’ils appellent l’"effet Simonide". Ce dispositif ouvre à l’interactivité réelle et le temps de la réalité virtuelle (VR) dont toute vision sera désormais éminemment vectrice, et redevable. Moment où l’existence de frontières figées entre arts et sciences sont particulièrement remises en question. Bien qu'il existe quelques tentatives effectuées dans le passé. Ainsi dès les années 50, un ingénieur suédois Billy Klüver avait mené des premières expériences d’interactivité avec des artistes new-yorkais par le biais de capteurs. 13 Des travaux autour du SDMS découleront toutes sortes d’applications technologiques techniques : vidéodisque, CDRom, jeux interactifs, casque de vision 3D, dataglove (gant recouvert de fibres optiques), datasuit ...). Du point de vue technique le Human Interface Guidelines (Apple) avec les applications dérivant du SDMS, procédé de visualisation 3D et cartographie où il devient possible de se déplacer (Hyper-G, VRML, Hyperbolic Tree, Hotsauce, Flythrough, etc.) engendrant l’espace virtuel (VR), la réalité augmentée avec le recours d’outils tels les Silicon Graphics computer et Silicon Graphics Video), créant des morphogenèses virtuelles sont autant de retour à l’émergence durant les années 80. La réflexion sur le temps réel ressurgit et le temps devient temps performatif de l’acte et de l’action via l’interface. Nouveau logos, l’interface, questionnant la frontière entre le vivant et le machinique, y faisant présence vive, opère par modes divers et variétés infinies de mises en forme, un déplacement du centre de gravité esthétique qui couvre peu à peu toutes les sphères de la réalité.

L’intelligence artificielle, les images comportementales, la robotique ont créé un art nouveau basé sur l’interface engendrant à la fois de nouveaux plans cognitifs et une navigation spatiale avec l’interaction totale sujet/corps/société. Ainsi Stelarc et le Post human Body art, les cités ou musées virtuelles en liaison avec l’ars memoria (Agnes Hegedus, Jeffrey Shaw, Matt Mullican), Internet, la téléprésence, les modèles hybrides inspirés par les sciences cognitives, les échanges entre des agents virtuels ; toutes machines poétiques où règne l’interactivité. Surgissement d’émergences des œuvres "biologiques" à ADN numérique (Sommerer-Mignonneau, Bernard Gortais), des "caves", environnements interactifs et systèmes tridimensionnels complexes, des techniques IHM (interaction homme-machine), du net et de ses langages, du net et de ses avatars (net.art, cinéma et création sur Internet) et, dans un élargissement de perspective, de la biotélématique, de l’art transgénique et de la nanotechnologie ; ces divers modes de production à l’œuvre se résorbent dans un espace d'interprétation infiniment plus mobile, et de plus en plus désengagé de toute obligation canonique au point de vue de l'esthétique traditionnelle. C'est cet "espace" nouveau qu'il s'agit d'habiter, en urgence.


Notes

1 - Kandinsky, Du Théâtre, Adam Biro, 1998.

2 - Alan M. Turing, "On Computable Numbers with an application to the Entscheidungsproblem", in Proceedings of the London Mathematical Society, 1937. Ce texte traite du problème de la décision posé par Gödel en 1931 (Sur les nombres calculables, application à l'Entscheidungsproblem), Turing introduit une nouvelle notion, celle de calculabilité. Il y décrit aussi, en termes théoriques, la toute puissance logique d'une "machine" automate abstrait ultra-simple de type calculateur (aujourd'hui appelée machine de Turing) capable de calculer toute fonction calculable. Pour que la machine puisse effectuer ce calcul, il fallait lui donner la connaissance du problème sous forme d'une suite d'instructions, donc sous forme d'algorithme.

3 - Turing, "Intelligent Machinery", in Report to the National Physical Lab, 1947.

4 - Turing, "Computing machinery and intelligence", in Mind, 59 (1950), p. 433-460.

5 - Claude E. Shannon, "A mathematical theory of communication" in Bell System Technical Journal, juillet et octobre 1948.

6 - Von Neumann décrit en 1946 la structure universelle de ces machines à programme enregistré. Eléments clef : unité centrale (Central Processing Unit, CPU), qui permet de coordonner toutes les fonctions de l'ordinateur ; mémoire - une partie de la mémoire pouvant contenir une suite d'instructions (program) et une autre partie pouvant contenir les données sur lesquelles on opère (register memory) -, unité de traitement arithmétique, le tout communiquant par des signaux que le bus achemine.

7 - Ray Jackendoff, Languages Of The Mind, MIT Press, 1992.

8 - Avec l'expérience dite de la Chambre chinoise en 1980 et la controverse inaugurée par le linguiste : l'intelligence artificielle ne reproduit pas la pensée.

9 - L.S. Penrose, "Self-Reproducting Machines", in Scientific American, 1959.

10 - Ce genre de dispositif sera utilisé en art du net plus tard en particulier avec Le Générateur poïetique d'Olivier Aubert.

11 - Francisco J. Varela et alii, L'inscription corporelle de l'esprit, Seuil, 1993. H. Maturana et Varela, L'Arbre de la Connaissance, Addison-Wesley, 1994. Varela, Invitation aux Sciences Cognitives, Seuil, Points Sciences, 1988, 2eme édition 1996.

12 - Peter Campus et Dan Graham se servent de sortes de boucle de rétroaction " mentale " dans des dispositifs d'enregistrements d'auto-scopie et d'auto-perception (Self-regulating Dynamic Field) ; systèmes de (dé)-régulation, vraies architectures de la perception dans des mises en scènes complexes où le moniteur prend une forme sculpturale. À l'origine, ce procédé de feedback visuel est déjà primitivement éprouvé par Nam June Paik et Steina et Woody Vasulka : le fait de braquer une caméra sur un téléviseur donnant un effet d'enroulement, de spirale, de morcellement des images.

13 - Billy Klüver, Bibliography of Documents on EAT Activities, NY, EAT 1977.



© Louis-Josè Lestocart & Leonardo/Olats, février 2003