Cybervisions.eu

Cyberespace, histoire et prospective

Oct

03

Réinventer un rapport au temps, par Bernard Stiegler


Bureau de Bernard Stiegler, Épineuil-le-Fleuriel, 28 juillet 2013, cliché DL

Bureau de Bernard Stiegler, Épineuil-le-Fleuriel, 28 juillet 2013, cliché Dom Lacroix

Ce texte fait suite à la 1ère partie (Séquences vidéo 1 et 2) : Le blues du Net

Un projet européen alternatif

(Séquence vidéo 3)

Est-ce que l’Europe, aujourd’hui, a les moyens de faire une proposition au monde, et de quel type pourrait être cette proposition ?

Bernard Stiegler : Elle en a évidemment les moyens intellectuels comme je l’ai dit tout à l’heure, et elle en a les moyens financiers, tout aussi bien qu’infrastructurels (très bien équipée, elle met pour le moment ces équipements surtout au service du développement de l’économie californienne), mais elle doit impérativement s’en donner les moyens politiques et organisationnels : elle en a l’obligation vitale. Si elle ne le fait pas, elle disparaîtra.

L’avenir de l’Europe est aujourd’hui extraordinairement menacé. D’ici à 30 ans, si l’Europe n’a pas un sursaut décisif, si elle ne fait pas un bond en avant par rapport à la question absolument nouvelle posée par le numérique, elle aura disparu. Elle est déjà très minorée. Sur ces questions, en Chine, il y a une politique très offensive – tout en réprimant les internautes chinois, la Chine travaille activement à s’emparer des dynamiques nouvelles engendrées par le numérique. Le plus gros calculateur au monde, qui se nomme Tiahne-2, est à Pékin. L’Inde, c’est bien connu, est également très dynamique dans ces domaines, et le Japon a une vieille tradition et une industrie puissante, tout comme la Corée : toute l’Asie est en train de se reconfigurer autour du numérique, et si les États-Unis ont un avantage aujourd’hui extrêmement important, cela ne durera peut-être pas toujours. Pendant ce temps, l’Europe et la France, dans ce domaine-là, se rapprochent du tiers‑monde. C’est totalement paradoxal puisque l’Europe a été à la pointe de pratiquement toutes ces technologies. Il est aujourd’hui de bon ton de se moquer du Minitel. Mais le Minitel fut une extraordinaire avancée, qui permit de mûrir la réflexion sur la télématique, y compris aux États-Unis. Il y a ensuite eu des erreurs de stratèges français qui ont voulu s’accrocher au Minitel contre le Web, contre Internet – mais il en va toujours ainsi. La carence politique a  consisté à s’enfermer dans ce débat stérile sans mener aucune analyse sérieuse de ce qui changeait avec l’Internet rendu accessible via le web. À l’époque, le but était de privatiser France Télécom et tous les arguments étaient bons pour dévaloriser l’entreprise publique dont le Centre national d’études des télécommunications était pourtant un fleuron mondial de recherche dans les réseaux et le numérique. Le problème est que l’incurie qui s’installa alors du côté du pouvoir politique aussi bien qu’économique aboutit à ce que ces travaux d’excellence furent exploités hors de France.

Redisons-le, malgré ce gâchis monumental, l’Europe a encore énormément d’atouts, dont l’un des plus importants est sa population, relativement en bonne santé, bien nourrie et bien éduquée, beaucoup mieux que partout ailleurs, malgré la dégradation de sa situation y compris dans ce domaine. Faute d’une vision d’avenir, cette chance inouïe finit par devenir elle aussi un handicap, parce qu’elle se transforme en un poids du passé, en particulier dans le domaine de ce qui va devenir le prochain drame industriel, à savoir le secteur éditorial : ce continent n’arrive pas à reconfigurer sa fonction technologique de publication et d’édition – tout en continuant à penser que l’industrie, c’est la sidérurgie, la métallurgie, la chimie et tout ce qui fait de la fumée : nos dirigeants économiques et politiques pensent toujours avec les catégories du 21e siècle…
Si l’Europe ne fait rien, et la France en premier lieu, il n’y aura plus de presse dans les 10 ans qui viennent, il n’y aura plus de télévision – on dira peut-être tant mieux, car la télévision est devenue une calamité, mais il faudrait que ce qui doit remplacer la télévision se développe en France. Si cela se développe chez YouTube ou ailleurs, et que cela vient nous arroser, nous serons définitivement devenus un peuple colonisé. L’Europe doit porter un projet alternatif. Ce projet alternatif, c’est la troisième époque du Web.
Il y a eu jusqu’à présent deux grandes époques de l’Internet et du Web. La première époque fut celle des années 90 : la première décennie du Web a donné lieu à la mise en place de l’hypertexte, sur la base d’HTML inspiré par SGML [1], et qui a permis de constituer des systèmes de navigation comme Mosaïc, qui devint rapidement Netscape. Cette première époque a tout à coup permis à tout un chacun d’accéder à de vastes bases de données en ligne dans des conditions de navigation extrêmement ergonomiques et aisées. La deuxième époque du Web que l’on a dès lors appelé le Web 2.0 fut celle du Web collaboratif combiné à et valorisé par les technologies révolutionnaires en matière de recherche d’information dont Google aura su faire un puissant modèle économique et un projet industriel admirable, aussi critiquable qu’il puisse être devenu. Cette deuxième époque a tout à coup permis des phénomènes d’éditorialisation de soi, une extraordinaire productivité, des phénomènes qui étaient presque inimaginables – dont Wikipedia est un des fleurons. Ils ont montré que la contributivité rendue possible par le Web ouvrait une toute autre époque, où les relations de pair à pair devenaient centrales. Cela vint conforter de manière décisive ce que, dès le début des années 1980, le MIT et Berkeley avaient engagé avec le logiciel libre, qui a totalement révolutionné l’industrie du numérique, et qui constitue la matrice à partir de laquelle il faut penser l’avenir industriel. C’est là l’hypothèse de départ d’Ars Industrialis [2] : cette matrice montre qu’un monde industriel fondé sur la déprolétarisation et la recapacitation est non seulement possible, mais incroyablement fructueux.

Ces perspectives nouvelles constituent une magnifique promesse – fondée sur des communautés de pairs, de peer to peer, ce qui a créé la grande crise juridique que l’on a connue en France parce que ce modèle bousculait celui des industries culturelles dont on sait pourtant à quel niveau de dégradation elles ont été conduites. Pourtant, le modèle des communautés de pairs est celui qui constitue l’origine même et du savoir occidental, dont la géométrie est la racine, et de la citoyenneté : les citoyens sont des pairs. C’est très précisément ce qui les définit (ce que les Grecs nomment isonomie et autonomie). La géométrie fournit l’argumentation logique qui est la référence des débats sur l’agora, dans la boulè ou dans l’Académie de Platon, elle-même à l’origine des universités. La géométrie n’existe elle-même que comme une communauté de pairs.

Bernard Stiegler, Épineuil-le-Fleuriel, 28 juillet 2013, cliché DL

Bernard Stiegler, Épineuil-le-Fleuriel
28 juillet 2013, cliché Dom Lacroix

C’est Thalès qui a constitué la première communauté peer to peer au 7e siècle avant J-C. L’extraordinaire chance que nous, au 21e siècle, avons à saisir avec l’apparition du numérique, c’est de voir se développer une technologie de parité qui peut renouveler en profondeur aussi bien la cité et la vie politique et sociale que la science et les savoirs – et, à leur conjonction, l’économie industrielle.

Beaucoup de gens ont investi le Web dans le monde des activistes et de ceux que l’on appelle d’un terme souvent trompeur et parfois méprisant les « geeks », mais aussi, et plus généralement, dans la jeune génération, et notamment chez les jeunes artistes et les jeunes chercheurs. S’il y a eu dans le Web tant d’investissements et de projections de désirs, d’imaginaires de la reconstruction de la communauté politique et de la rationalité, c’est parce que c’est un espace de parité.

Il faut toutefois noter et analyser précisément le fait que cet espace de parité est incomplet et altéré, sinon adultéré et frelaté. Il est profondément incomplet, parce qu’il ne repose pas sur un véritable dispositif d’indexation, d’annotation, et d’éditorialisation contributive. Et il est altéré et compromis par mille technologies mimétiques qui transforment les pairs en « bancs de poissons » grégaires – du profilage utilisateur aux dispositifs de capture mimétiques de Facebook. La parité qui active le bouton Like est celle d’une sorte de misère relationnelle issue de ce que Nietzsche décrivait comme la croissance du désert dans l’âge du nihilisme comme destruction de toutes les valeurs.

Ligne des temps, IRI

Le logiciel Lignes de temps – développé par l’Institut de recherche et d’innovation (IRI) ici mis en œuvre pour l’analyse de Close Up, film d’Abbas Kiarostami.

« J’aime », «Like », on appelle cela une métadonnée et elle est censée constituer une « évaluation par les pairs ». Mais ces technologies d’évaluation sont dérisoires – et en réalité ne constituent pas du tout une évaluation. Donner une valeur à un film, ce n’est pas lui attribuer une, deux, trois ou quatre étoiles. C’est le commenter, l’analyser, le critiquer, et c’est même parfois se mettre à faire un film soi-même – comme le fit la Nouvelle vague formée par Henri Langlois à la cinémathèque du Trocadéro. Au sein de l’IRI, nous tentons de concrétiser une telle compréhension de l’intérêt que présente le numérique, à savoir : reconstituer des communautés critiques de pairs. C’est pourquoi nous avons développé des plateformes pour le cinéma, le théâtre, l’opéra et la radio conçues selon cette optique.  L’avenir du Web, c’est de devenir un vaste appareil critique pour lequel toute une technologie reste à développer, qui sera la véritable transformation des savoirs non seulement par les MOOCs, mais par une nouvelle épistémè numérique, porteuse d’une sorte de république du numérique.
Les MOOCs, pour Massive Open Online Courses, sont des plateformes qui permettent aux internautes du monde entier d’accéder à des cours universitaires, gratuitement, depuis chez eux, par l’intermédiaire d’Internet.
Damien Delqueux, d’après Le Monde.
L’Europe et la France se doivent de les promouvoir avec bien d’autres nations et régions du monde entier déjà désenchantées du Web en son état actuel – qui, avec le « blues du Net », sont entrées dans la phase d’un hyperdésenchantement des hackers, geeks et autres amateurs et contributeurs.

Digital Studies, IRI

La plateforme Digital studies de l’IRI

J’avais décrit ce phénomène dans Le Monde, voici deux ou trois ans, et en référence à Max Weber, comme l’extrême désenchantement des consommateurs. Cette technologie qui reste à venir procède non pas des boutons Like d’hommes devenus des presse-boutons, mais de technologies de ce qu’à l’IRI nous appelons la catégorisation contributive et la certification par la transindividuation critique [3].

Avec Yuk Hui qui a été chercheur à l’IRI, et qui enseigne à présent à l’Université Leuphana (Allemagne), et Harry Halpin, collaborateur de Tim Berners-Lee et de l’IRI, nous réfléchissons à des modèles de réseaux numériques réellement sociaux. Les actuels réseaux du social engineering sont des réseaux de désocialisation. Ils reposent sur les graphes de Moreno et consistent à consolider (au sens que ce mot à chez les experts comptables [4]) des relations interindividuelles en court-circuitant la société.

Un graphe utilisé par Jacob Lévy Moreno (1889-1974) pour mener ses démonstrations.

Un graphe utilisé par Jacob Lévy Moreno (1889-1974) pour mener ses démonstrations.
Source: Groupe fmr

Nous travaillons à un Web qui permette de créer des dispositifs d’indexation, d’annotation et de catégorisation polémique. Il y a en France une droite et une gauche : on n’indexe, commente et catégorise généralement pas de la même manière les événements quand on est de droite et quand on est de gauche. Ce sont des grilles d’interprétation différentes. Ce qui se présente sur le registre politique est aussi vrai sur le registre scientifique. Vous avez aujourd’hui par exemple en biologie des darwiniens et des non darwiniens, et tout un nuancier entre les deux. Quand vous faites une requête sur Google, sur des bases biologiques, vous ne pouvez pas sélectionner parmi les paramètres de recherche que vous souhaitez des réponses « non darwiniennes » à votre requête. Et vous ne le pouvez-vous pas parce que Google ne veut surtout pas s’encombrer d’opacités de ce genre : ce n’est pas bon pour son business, qui est basé sur le marketing chirurgical lui-même basé sur une calculabilité intégrale.

Nous pourrions développer en revanche un Web au service des universités et conçu par elles et leurs jeunes chercheurs qui ont une immense « fringale » de tels projets reposant sur le fait que chaque fois que j’interprète une donnée, je peux la qualifier et la ramener à un groupe d’individuation collective auquel je me rapporte. Le Web deviendrait tout à coup un espace public heuristique et herméneutique où émergeraient maintes formes nouvelles de savoirs. Cela nous épargnerait cet assèchement désolant où paraît de plus en plus souvent décliner la science qui du coup perd son sens aux yeux de nos contemporains. Cela les préserverait du repli archaïsant qui les tente de mille façons toujours plus menaçantes… De tels processus d’indexation, d’annotation et de catégorisation contributives permettraient de constituer de vrais réseaux sociaux, c’est à dire : de vrais réseaux pensants. Une discipline, c’est toujours scindé en écoles, par exemple l’histoire des mentalités n’analyse absolument pas les effets sociaux comme l’histoire de l’école dite des Annales. Cela ne veut pas dire qu’elles sont incompatibles, mais qu’elles n’ont pas les mêmes points de vue : chacun d’entre nous a ses grilles d’analyse, souvent complémentaires, parfois alternatives. La science est ce qui avance à travers ces bifurcations et le Web bien utilisé et configuré, c’est à dire le Web de demain, c’est ce qui permettra de construire de tels espaces de parité. Espérons que la France et l’Europe sauront se saisir de cette transformation.

Le sceau de l’Université de Bologne, fondée en 1088 et considérée comme la plus vieille université occidentale Source : Wikipedia

Le sceau de l’Université de Bologne, fondée en 1088 et considérée comme la plus vieille université occidentale. Source : Wikipedia

Si l’Europe savait aujourd’hui mobiliser ses universités avec ses écoles d’ingénieurs, ses laboratoires d’informatique, ses grands établissements (INRIA, CNRS, INSERM [5] en particulier), elle reconstituerait un nouvel espace éditorial, elle relancerait ses activités dans l’édition, la presse, les médias en général et sur une base plus saine. En développant de telles organologies numériques, les universités européennes, françaises en premier lieu, réarmeraient le tissu industriel européen, elles permettraient de relancer un projet technologique européen, une politique industrielle et une proposition alternative fondée sur une « troisième époque du Web ».

Ce n’est pas seulement possible : c’est vital. Vincent Peillon, ministre de l’Éducation nationale, veut introduire le numérique à l’école. Il a évidemment raison. Mais on ne peut pas introduire le numérique à l’école si on ne l’introduit pas dans les universités. Comment introduire le numérique dans les universités et à l’école ? En lançant des écoles doctorales numériques de manière massive. Les jeunes chercheurs français devraient y être très fortement encouragés : faire des recherches en relation explicite à ce nouveau contexte et mettre en œuvre les méthodes de la « recherche-action ».

L’avènement du numérique constitue une transformation radicale de ce que dans Les Mots et les choses Michel Foucault appelait l’épistémè. Pour introduire rationnellement le numérique dans le monde scolaire et dans la société, et non seulement dans le sens voulu par le marché, il faudrait mobiliser de façon exceptionnelle les disciplines académiques dans leur ensemble en instituant des écoles doctorales numériques. Gaston Bachelard, Le nouvel esprit scientifiqueIl faudrait y envisager le numérique d’un point de vue résolument épistémologique, au sens de Gaston Bachelard, c’est-à-dire évaluant les conséquences du numérique sur la nature même des savoirs, et épistémique au sens de Foucault, c’est-à-dire intégrant à la question des savoirs celle des pouvoirs, des modes de vie, des représentations au sens large etc. qui font l’unité d’une époque et la singularité de son esprit.

Cette approche devrait être résolument transdisciplinaire parce qu’il s’agit d’étudier les effets du numérique à la fois sur telle ou telle discipline (épistémologie) et sur l’ensemble des savoirs (épistémè) – et en tirer les conséquences dans le domaine des industries du numérique elles-mêmes, et non seulement du côté du monde académique. Ces travaux devraient mettre en œuvre les méthodes de la recherche-action et associer intimement les acteurs sociaux et économiques aux études académiques et scientifiques. Il s’agit d’opérer un transfert très rapide vers la société et d’éviter que les résultats de recherche obtenus ne soient devenus caducs lorsqu’ils sont publiées. Il s’agit d’impliquer très fortement les populations à la conception de leur futur, c’est-à-dire de les associer comme partenaires de recherche à part entière, et de mettre en valeur et à profit les dynamiques nouvelles créées par le numérique lui-même dans la société (telle Wikipedia).

Le cours Pharmakon

Présentation du cours Pharmakon.fr sur la plateforme scenarii
développée par l’université de Compiègne.

Une telle démarche suppose la mise en place d’instruments de publication au fil de la recherche – qui doivent être étudiés, conçus, prototypés et expérimentés par les chercheurs et leurs publics en relation avec des ingénieurs et développeurs en informatique et des industriels de la fonction éditoriale (livre, presse, radio, télévision, nouveaux médias, opérateurs de télécommunications). Les résultats doivent connaître une publication finale sous forme de divers produits éditoriaux, livres, e-books annotables et social books, sites web, programmes audiovisuels « cliquables », jeux etc.
Le concept éditorial est que ces produits, tournés vers le public large et les amateurs, le monde scolaire et les institutions culturelles (bibliothèques et médiathèques en particulier) doivent pouvoir donner accès aux instruments de travail scientifique qui auront permis de les engendrer au cours des recherches-actions.


[1] HTML, Hypertext Markup Language, langage de présentation conçu pour présenter les pages Web, dotées de navigation hypertexte.
SGML, Standard Generalized Markup Language (langage normalisé de balisage généralisé), norme ISO de traitement documentaire, qui sépare structure, style et données, et d’où est issu le HTML, moins strict dans la séparation des trois éléments. (ndlr)
[2] Cf. arsindustrialis.org
[3] Cf. digital-studies.org
[4] Cf. http://fr.wikipedia.org/wiki/Consolidation_comptable
[5] INRIA, Institut national de recherche en informatique et en automatique, établissement public français dédié à la recherche en mathématiques et informatique.
CNRS, Centre national de la recherche scientifique, le plus grand organisme public français de recherche scientifique.
INSERM, Institut national de la santé et de la recherche médicale, établissement public à caractère scientifique et technologique français spécialisé dans la recherche médicale. (ndlr)

Réinventer un rapport au temps

(Séquence vidéo 4)

Quid de l’Internet des objets ? Quels rapports entre humains et automates ?

Bernard Stiegler, Épineuil-le-Fleuriel, 28 juillet 2013, cliché Dom Lacroix

Bernard Stiegler, Épineuil-le-Fleuriel, 28 juillet 2013
cliché Dom Lacroix

Bernard Stiegler : L’Internet des objets, c’est en effet et très précisément le devenir automatique d’objets dotés d’adresses Internet et ainsi interconnectés. À travers ces connections, des automatismes agencent les « comportements » de ces objets. Mais au-delà de l’Internet des objets, il y a un processus bien plus ample d’automatisation généralisée.
L’automatisation, au sens moderne du terme, a commencé au 18e siècle, en particulier avec l’automate de Jacques Vaucanson qui, lorsqu’il a été réapproprié par l’ingénieur Jacquard, a été à l’origine d’une mutation fondamentale des outils de production qui a fait passer de la manufacture à ce qu’on appelle la grande industrie fondée sur le machinisme industriel. Le machinisme industriel met en œuvre une force, l’énergie motrice de la machine à vapeur : tout le monde a appris cela à l’école. Ce que l’on a moins enseigné, c’est que cette machine thermique entraîne des processus de plus en plus automatisés. Ce n’est pas seulement la motricité qui est transformée par la révolution industrielle, c’est aussi le geste et la forme du mouvement – qui finit par détruire le geste. C’est ce qu’Adam Smith puis Karl Marx décrivent comme un déficit de savoir chez les ouvriers, ce que Marx appelle une prolétarisation, qui est avant tout cette perte de savoir. Le savoir de l’ouvrier passe progressivement dans la machine : encapsulé en elle, il échappe à l’ouvrier. L’ouvrier se retrouve ainsi prolétaire – en attendant de devenir chômeur.

L’automatisation remonte à l’Antiquité. L’automatisation industrielle connaît différentes vagues. Elle passe par la mécanographie vers 1880, aux États-Unis, puis par le taylorisme, que Henry Ford, aux alentours de 1910, va intégrer dans un nouveau modèle de production d’automobiles. Ce modèle va se concrétiser en 1913 par la première usine basée sur une chaîne de montage dans le Michigan. Cela va totalement bouleverser le capitalisme européen au sens large.

Le capitalisme industriel commence vers la fin du 18e siècle en Angleterre, se développe beaucoup en Allemagne et en France au début du 19e et connaît par ailleurs de grands problèmes à la fin du 19e siècle. Ce dernier point était annoncé par Marx et ce fut un facteur de causalité de la Première Guerre mondiale. Ce modèle européen du capitalisme est remplacé au début du 20e par le modèle américain, qui n’est pas du tout basé sur les mêmes idées. Le capitalisme européen d’alors n’est pas redistributeur. Il bénéficie essentiellement à la bourgeoisie au sens large, la grande et la petite : instituteurs, curés, domesticité, petits artisans. Mais les prolétaires eux-mêmes ne voient pas du tout leur condition s’améliorer. Ils sont au contraire très paupérisés. Il n’y a que très peu de redistribution des revenus.

Assembly line de la Buick, General Motors, Detroit (Michigan), 1922 Source : http://buickman2.files.wordpress.com/2009/09/gmlineworkers.jpg

Assembly line de la Buick, General Motors, Detroit (Michigan), 1922
Source : http://buickman2.files.wordpress.com/2009/09/gmlineworkers.jpg

Le fordisme va modifier cette situation par les gains de productivité opérés grâce à un nouveau stade de l’automatisation : le stade qui est mis en scène par Charlie Chaplin dans Les Temps modernes, que tout le monde connaît. On l’a appelé « le travail en miettes », ce qui est le titre d’un ouvrage célèbre de Georges Friedmann. Ford va ainsi permettre de diminuer, par des économies d’échelle industrielle considérables, les coûts de sortie du produit, ce qui va conduire à ce que le produit puisse être acheté par celui qui l’a fabriqué, à savoir l’ouvrier de l’usine Ford. C’est le modèle que Ford a en tête et son objectif est d’atteindre une production de masse extrêmement importante, de l’ordre d’un million d’automobiles par an. Le problème est de vendre ces automobiles. Et pour pouvoir les vendre, il faut augmenter les salaires des ouvriers, et leur donner ce que l’on va ensuite appeler un « pouvoir d’achat ». En réalité, ce modèle ne fonctionne pas : pour qu’il fonctionne, il faudrait reconfigurer la société américaine dans sa globalité. Il faudra attendre 1933, c’est-à-dire la venue de Keynes auprès de Roosevelt, pour que le modèle fordiste devienne le modèle « fordo-keynésien », fondé sur une redistribution de pouvoir d’achat à tous les salariés. C’est ce tout autre capitalisme qui incarne ce que l’on nommera the American way of life.
Ce processus-là, qui est fondé sur des automatismes, va s’étendre d’abord à l’Europe occidentale après la Deuxième Guerre mondiale à travers le plan Marshall. Puis, à partir des années 1960-1970, ce processus va s’exporter dans le monde entier avec la décolonisation qui va bientôt poser un très grand problème à l’Occident : la décolonisation, c’est l’augmentation du coût des matières premières et de l’énergie : alors les Occidentaux ne maîtrisent plus les éléments fondamentaux de la chaîne. Cela va engendrer le néo-libéralisme et la révolution conservatrice qui laisse les unités de production partir vers les nouveaux pays industriels et « financiarise » le capitalisme international. Cela conduit à 2008, c’est-à-dire à l’effondrement du modèle fordiste.

Ronald Reagan et Margaret Thatcher, à Camp David (Maryland) en 1986, Source: Wikipedia

Ronald Reagan et Margaret Thatcher
Camp David (Maryland) en 1986. Source : Wikipedia

Ce modèle fordiste ne marche plus pour toutes sortes de raisons : la première est qu’à partir de Reagan et Thatcher on ne redistribue plus, et que l’on est obligé d’encourager des crédits insolvables – c’est l’origine des subprimes.

Mais plus fondamentalement, le système ne marche plus parce que les gens y croient de moins en moins. En 2007, la sociologue Juliet Schor a fait une enquête aux États-Unis et a montré qu’alors 81% des Américains ne croient plus aux vertus de la consommation. Il n’y a plus que 19% des Américains qui pensent que la consommation est l’avenir de l’Amérique en 2007 – un an avant 2008. Aujourd’hui, la jeunesse française qui passe le permis de conduire à 18 ans est devenue minoritaire. On dira que c’est une question d’argent, ce qui est sans doute en partie vrai : les jeunes français sont très paupérisés ; mais il n’y a pas que cela. Le modèle de l’automobile ne les intéresse plus. La jeunesse ne croit plus à la société de consommation, même quand, comme c’est souvent le cas, elle surconsomme – mais c’est une consommation de dépit, et non l’identification à un modèle caduc qui dégoûte et démoralise la jeunesse.

C’est dans ce contexte qu’arrive l’automatisation généralisée. Il n’y a plus besoin de caissières, de chauffeurs, d’ouvriers, de manutentionnaires – et finalement de personne, sinon de « services à la personne » pour ceux qui n’ont pas les moyens de se payer un robot. Absolument tout va s’automatiser. L’extension de la connexion TCP/IP avec le standard IPv6 (sigle qui se traduit « sixième version du protocole Internet »  en français), le protocole Internet étant la base du système numérique. L’attribution d’adresses IP aux objets va engendrer une « intelligence » automatique distribuée dont les gains de productivité induits par ce nouvel automatisme seront des gains de temps qui vont poser un énorme problème constituant une très grande alternative historique.

À l’époque de Ford, les gains de temps considérables qu’avait permis l’assembly line étaient redistribués sous forme de salaire. Mais avec l’automatisation généralisée, le salariat ne peut qu’entrer en déclin – et la question du chômage se poser en des termes tout-à-fait nouveaux. Que faire de ce temps gagné ? Le transformer en salaires serait contradictoire : on ne peut pas à la fois faire venir des robots dans les usines et distribuer du pouvoir d’achat sous forme de salaires.

La grande question à laquelle il va falloir répondre dans les années qui viennent est donc la suivante : comment redistribuer le temps gagné par l’automatisation autrement que sous forme de salaire ? C’est le problème qui est à l’horizon du « revenu d’existence ». Mais il faut aller beaucoup plus loin et parler de « revenu contributif ». Le modèle qui a été inventé pour les intermittents du spectacle est une réponse à ces questions : un artiste ne produit que par intermittences et son travail se fait dans un temps qui n’est pas celui de la production mais de son individuation. Cela aboutit, dans les moments de production, à l’individuation des autres – de son public. C’est pourquoi on a parlé d’intermittence nécessitant un régime spécifique d’allocation chômage.

La valorisation du temps hors production (et la redéfinition de ce que signifie produire), c’est ce qui relève de ce que Yan Moulier Boutang appelle « l’économie pollen ». L’économie contemporaine repose de plus en plus sur une telle « pollinisation ». Le pollen, on le sait bien de nos jours, est ce que les abeilles et autres hyménoptères transportent entre les sexes du règne végétal et qui rend possible la reproduction du vivant dans son ensemble. C’est une telle valeur que produisent les communautés de pairs. Cependant, les systèmes de traçabilité qui se sont installés avec le social engineering ressemblent plus à des fourmilières qu’à des ruches : les internautes qui tracent leurs activités plus ou moins involontairement et inconsciemment sont très comparables à ces fourmis qui émettent des phéromones chimiques et indiquent ainsi et en permanence à toute la fourmilière ce qu’elles font – ce qui permet la régulation de l’ensemble du système et un contrôle quasiment parfait de l’ordre « social » (qui n’a précisément rien de social de ce fait même). La question de l’automatisation est aussi celle-là : abeilles ou fourmis ?

Il faut réinventer un rapport au temps qui sache utiliser les automates pour gagner du temps en vue de se « désautomatiser » – c’est à dire : en vue d’augmenter les capacités individuelles et collectives, de prendre son temps (le temps d’apprendre et de penser) et de produire de la néguentropie. La traçabilité par les « phéromones numériques » est fondamentalement entropique – et l’entropie est un nom savant de la destruction depuis la physique thermodynamique.

Ce qui chez les abeilles est comme leur contribution au devenir néguentropique qui s’accomplit à travers la reproduction, c’est-à-dire l’évolution, chez les humains, cela se nomme les savoirs, qui, s’enrichissant, devraient rendre le monde plus raisonnable. Depuis quelques décennies, la raison a été remplacée par la rationalisation des ratios, c’est-à-dire la comptabilisation qui ne peut pas prendre en compte les singularités, les bifurcations et les inventions – si modestes qu’elles puissent être d’ailleurs. C’est pourquoi les gens de notre temps ont le sentiment d’être eux-mêmes de plus en plus robotisés, et c’est aussi ce que promettent les big data et ce qu’Antoinnette Rouvroy et Thomas Berns appellent « la gouvernementalité algorithmique ». Il est temps de se mettre à repenser tout cela et à rouvrir l’avenir – avec les automates et les robots. Si l’Europe a un avenir, il est là. Si l’Europe cherche à mimer les Américains, elle disparaîtra. Et avec elle tant de choses auxquelles l’humanité tient comme à ce qui n’a pas de prix.

Propos recueillis par Dominique Lacroix et Thierry Gaudin

Transcription par Damien Delqueux,
avec le concours d’Esmeralda Famutimi Valdez et d’Octavio Mendoza
Titrage et mise en page par Damien Delqueux
dans le cadre d’une action en partenariat avec l’Institut français de géopolitique

NB. Le texte a été revu par Bernard Stiegler. Texte et vidéo peuvent ne pas toujours correspondre exactement. Bernard Stiegler a notamment apporté des ajouts et précisions très intéressants.

Bernard Stiegler est un philosophe français qui axe sa réflexion sur les enjeux des mutations actuelles – sociales, politiques, économiques, psychologiques – portées par le développement technologique et notamment les technologies numériques.
Il a fondé et préside le groupe de réflexion philosophique Ars industrialis, créé en 2005. Il préside également depuis avril 2006 l’Institut de recherche et d’innovation (IRI) qu’il a créé au sein du centre Georges-Pompidou. Il dispense un enseignement de philosophie organisé autour de la plateforme Pharmakon.fr.
Bernard Stiegler est membre du Conseil national du numérique.

Vidéo : séquences 3 et 4

Laisser un commentaire

1 + 16 =