Parcours
Parcours lévinassien
Parcours axiologique
Parcours cartésien
Parcours hellénique
Parcours ricordien
Parcours spinoziste
Parcours habermassien
Parcours deleuzien
Parcours bergsonien
Parcours augustinien Parcours braguien
Parcours boutangien
Glossématique
Synthèses
Ouvrages publiés Suivi des progrès aux USA
Parcours psychophysique
L'art et la science
Parcours nietzschéen
Philosophies médiévales Autres perspectives
Archéologie Economie
Sciences politiques
Sociologie
Poésie
Théologie 1
Théologie 2
Théologie 3
Psychanalyse générale
Points dhistoire revisités
Edification morale par les fables
Histoire
La numérisation du monde
Phénoménologie
Philosophie et science
Mises à jour du site
01/10/2017 ajout :
24/09/2017 ajout :
09/09//2017 ajout :
27/08/2017 ajout :
29/07/2017 ajout :
29/07/2017 Nouvelle prespective :
Liens Wikipédia
Visites
visiteurs visiteurs en ligne |
La numérisation du monde - La vie algorithmique
LA VIE ALGORITHMIQUE[1]
Introduction[2] Lalgorithme Définition : Un algorithme estune suite finie d'opérations élémentaires, à appliquer dans un ordre déterminé, à des données. Sa réalisation permet de résoudre un problème donné Exemples : suivre une recette de cuisine, suivre un plan, faire une division euclidienne à la main sont des exemples dalgorithme. Remarques : 1. Un algorithme doit être lisible de tous. Son intérêt, cest dêtre codé dans un langage informatique afin quune machine (ordinateur, calculatrice, etc.) puisse lexécuter rapidement et efficacement. 2. Les trois phases dun algorithme sont, dans lordre :
(a) lentrée des données
A/ Le monde au prisme des données
Le cur de notre condition technologique contemporaine renvoie moins aux objets élaborés qui nous environnent quau magma immatériel à prolifération exponentielle induit par leurs usages. Lhistoire de linformatique a prioritairement été rédigée « du côté » des instruments et des protocoles. Dimension certes incontournable de cette complexe généalogie, dont on se rend compte aujourd'hui que ce qui lunifie malgré sa foisonnante hétérogénéité, cest que leur utilisation a systématiquement entraîné la production de lignes de code suivant des courbes à progression géométrique. Il a souvent été opéré une focalisation sur quelques points saillants de lindustrie de lélectronique : puissance de calcul ou de stockage régulièrement amplifiée, effort constant de miniaturisation, affinement de la qualité ergonomique..., sans quil soit dans le même mouvement relevé que toutes ces caractéristiques contribuaient à favoriser la génération corollaire et indéfiniment accrue de data. Sil a été décrit ce qui sopère en amont, soit lélaboration de programmes constitués de chiffres structurant le fonctionnement des systèmes, cest lampleur sans cesse croissante de mêmes suites binaires occasionnées en retour par leur emploi, qui singularise aujourdhui le rapport que nous entretenons aux technologies numériques. Notre époque est caractérisée par un afflux invariablement expansif de données générées de partout, par les individus, les entreprises privées, les instances publiques, les objets, stockées dans les milliards de disques durs personnels ou au sein de fermes de serveurs toujours plus nombreuses. Environnement global qui voit le redoublement en cours de chaque élément physique ou organique du monde en bits exploitables en vue de fonctionnalités de tous ordres. Cest cette prolifération ininterrompue et exponentielle qui est désormais circonscrite sous le terme de Big data. Il fallait une notion pour identifier ce phénomène singulier propre à ce moment de lhistoire de lhumanité. Probablement devons-nous en appeler au langage pour tenter datténuer une forme de vertige. Le double vocable serait apparu en 2008 et aussitôt entré dans le Oxford English Dictionary sous cette définition : «Volumes de données trop massifs pour être manipulés ou interprétés par des méthodes ou des moyens usuels ». Énoncé à la forme négative qui explicite non pas le principe, mais focalise sur les limites à pouvoir gérer un mouvement qui se déroberait à notre maîtrise ou excéderait nos facultés de représentation. Cest encore un lexique technique utilisé au cours des dernières décennies qui constitue un marqueur manifeste de la production indéfiniment graduelle de données, par lintégration successive dunités de mesure relatives à la puissance de stockage et à celle des processeurs.
Dabord, le mouvement progressif de numérisation des différents champs symboliques (écrit, son, images fixes et animées) engagé depuis une trentaine dannées a contribué à larchivage tendanciellement intégral des corpus historiques sous la forme de bits indexés et accessibles, parallèlement à la production dinformation directement générée sous format numérique. Phénomène contemporain de celui de luniversalisation de linterconnexion qui a engendré des masses sans cesse croissantes de données, autant par le fait de la prolifération ininterrompue de sites que par le nombre en constante augmentation dinternautes, générant par leurs navigations toujours plus soutenues une infinité de traces stockées au sein de myriades de serveurs. Il est paradoxal de relater dans le cadre dun livre imprimé des mesures caractérisées par leur continuelle évolutivité, interdisant de facto toute description stabilisée. Cest à un « arrêt sur image» quil faut procéder, qui doit être entendu comme lévocation dun seul ordre de grandeur. L'humanité produirait autant d'informations en deux jours quelle ne la fait en deux millions dannées. En outre, le volume doublerait tous les dix-huit mois suivant une cadence exponentielle, à linstar de la loi de Moore* * Loi qui avait affirmé le principe exponentiel du doublement tous les dix-huit mois de la puissance, de la capacité et de la vitesse des différentes composantes des systèmes Informatiques. dont la vérification jamais démentie aura pour une large part contribué à cette prolifération ininterrompue. Chaque minute, il sécrirait des centaines de milliers de tweets, des dizaines de millions de SMS, des centaines de millions de mails ; dans le même temps des dizaines dheures de vidéos seraient mises en ligne sur YouTube. La quasi-totalité des actions individuelles ou collectives génèrent désormais des lignes de code, rendant vaine lentreprise de vouloir toutes les citer. Cest en quelque sorte une démarche inverse quil faudrait adopter, consistant à identifier les attitudes que nous pourrions qualifier de «muettes». Nous constaterions que ce registre se réduit année après année telle une peau de chagrin, qui pourrait comprendre par exemple létat émotionnel ou physiologique de deux corps engagés dans une relation sexuelle, situés en retrait de tout procédé de captation. Néanmoins, le port de dispositifs intégrés à même nos organismes, actuellement en cours de généralisation, suppose que la part de chacun placée le plus à labri, ou relevant du plus intime, engendrera à terme des séquences de chiffres récoltées et analysées en vue de diverses fins. Il est possible de tenir trois entités, relevant de trois secteurs distincts, comme particulièrement significatives de lampleur des données produites ou gérées par certaines activités et du rôle capital que revêt leur traitement. Google, figure majeure de lindexation de linformation, administrerait quotidiennement vingt-quatre petaoctets, soit un volume équivalant à mille fois la quantité de documents imprimés conservés à la bibliothèque du Congrès de Washington. Dans le registre sécuritaire, cest au « prisme » emblématique des pratiques de la NSA (lAgence nationale de sécurité américaine) que peut être saisie une forme «davant-garde» de la puissance présente à pouvoir stocker et exploiter des agrégats informationnels, sans limite pratique ou théorique en quelque sorte. Lorganisme sest récemment doté dune infrastructure capable de conserver des magmas correspondant à plusieurs siècles de lactuel trafic mondial de lInternet. Dans le cadre du commerce, le géant américain de la distribution Walmart archiverait chaque heure plus d'un million de transactions, sadditionnant à une base de données qui contiendrait 2,5 petaoctets, soit cent fois le volume de la bibliothèque du Congrès de Washington -qui semble représenter lexemple comparatif paradigmatique, renvoyant à lère de larchivage massif de documents analogiques. La liste de ces mégastructures pourrait être longuement prolongée et doit être comprise comme lexpression éclairante de la faculté désormais acquise par lhumanité à générer, conserver, et traiter des masses abyssales de données relatives à des pans toujours plus élargis de la réalité. Dun point de vue prospectif, il est projeté que vers le milieu de la présente décennie il serait produit un volume de huit zettaoctets (un zettaoctet représente mille milliards de gigaoctets, soit 1021 octets, ou une mesure à peu près inintelligible à notre esprit). La compagnie Cisco estime quen 2017 des quantités équivalentes à lensemble numérisé de tous les films tournés au cours de lhistoire du cinéma seront échangées sur Internet toutes les trois minutes. Le cabinet détudes IDC juge que dici 2020 les flux de data seront cinquante fois supérieurs à ceux actuels, et atteindront alors les quarante Zo. Dix fois plus de serveurs seraient à terme nécessaires à leur stockage. Autant de faits et destimations qui pourraient être déclinés sur de longues pages. Il convient néanmoins de se méfier de statistiques qui demeurent impossibles à vérifier, ou de projections incertaines, publiées on ne sait trop comment par quelques cabinets détude dont les conclusions sont aussitôt reprises, revêtant par létendue de leur « viralité » une forme dévidence ou de vérité entendue. Ce que signale ce mouvement technico-anthropologique en perpétuelle dilatation, cest dabord quil défie pour une large part nos catégories usuelles dappréhension, confrontées à une forme de débordement indéfiniment fuyant, de surcroît irréductible à toute cartographie stabilisée. Car les Big data ne nomment pas un état de fait, mais une sorte de « fission nucléaire » continuellement expansive et partout disséminée, qui trouve son origine dans le mouvement historique de numérisation progressive du monde, dont nous saisissons aujourdhui et avec force quil instaure un nouveau type dintelligibilité du réel constitué au prisme des données. Le sens premier qui depuis peu sattache à la notion de Big data renvoie prioritairement à lhorizon économique et industriel qui se dégage à la faveur de leur traitement massif, autorisant une connaissance sans cesse approfondie de phénomènes de toute nature.
B/ Lhorizon économique À la différence de ce qui était nommé «nouvelle économie» à la fin des années 1990, laxe majeur de ce phénomène ne se fonde plus sur le seul accès à des sites monétisant sous une forme ou une autre leur fréquentation, ou sur le commerce en ligne, mais prioritairement sur le principe dune connaissance de faits de tous ordres pouvant soit revêtir une valeur monnayable, soit optimiser le fonctionnement interne et externe des entreprises. Disposition qui permet en théorie dajuster toute stratégie ou décision daprès des mesures déployées en temps réel relatives aux quotients de productivité, à la qualité des infrastructures, à la performance du personnel, au taux de réactivité des sous- traitants, à lidentification des prestataires les plus offrants, aux stocks disponibles, aux rapports entre loffre et la demande, au transport des marchandises, aux comportements des consommateurs... Émergence non plus dune supposée «économie de la connaissance», mais dune économie intensifiée sur lensemble de ses maillons par le suivi à la trace ou au chiffre près dun nombre extensif de phénomènes, comme pilotée depuis une « monitoring room », scrutant simultanément le plus grand nombre dévénements et se déterminant à chaque instant en fonction de cartographies détaillées constamment évolutives. Cest une redéfinition de nombreux secteurs qui sopère par lacquisition dune clairvoyance granulaire déployée en temps réel, rendue possible par la collecte indéfiniment expansive de masses informationnelles traitées par des processus automatisés chargés den « extraire de la connaissance ». Cest le marketing qui ambitionne dinstaurer une « relation client » établie sur le suivi ininterrompu et individualisé des comportements, apte à abolir tout «bruit informationnel» parasitaire dans la pénétration des habitudes et des psychés, permettant de proposer des offres jugées en parfaite adéquation avec les désirs et besoins présents ou en gestation. C'est le processus de production et de livraison de biens manufacturiers qui aspire, par la vision de chacune des étapes à luvre, à se délivrer de sa pesanteur consubstantielle pour se rapprocher de la plus immédiate réactivité et intense fluidité dans la circulation des marchandises, repoussant toute immobilisation coûteuse au profit dun ajustement sans délai ou perte entre points dorigine et darrivée. Cest la structuration et lorganisation générales des espaces urbains qui, sous le terme de smart cities ou de «villes intelligentes », se reconfigurent, conçus dorénavant telles des surfaces partout sensibles, capturant à tout instant les moindres impulsions organiques ou physiques, gérées par des systèmes chargés de réguler « au mieux » chaque occurrence spatiotemporelle individuelle ou collective. Cest lhabitat qui, sous le concept de « maison connectée », est appelé à transmettre des informations relatives à la consommation dénergie, aux différents produits qui y pénètrent, ou plus largement aux murs de ses occupants, supposés bénéficier en retour de services modulés à leur vie domestique ou intime. Cest une «médecine des données» qui émerge, désormais capable de dessiner le profil génétique des individus et de capter les flux physiologiques à même la peau ou via des bio- puces implantées au sein des tissus, conduisant à terme à linstauration dune «thérapeutique de lalerte» et du diagnostic préventif personnalisé. Cest ce qui est nommé Open data, soit la diffusion librement accessible dinformations provenant principalement dorganismes publics ou apparentés, ou alimentée par les individus eux-mêmes, qui est censé faciliter le quotidien grâce à des myriades dapplications destinées à « maximiser » et à fluidifier les conditions générales dexistence. Cest le champ sécuritaire qui situe dorénavant le cur de sa stratégie dans linterception et lanalyse massives de données, dans lobjectif de mesurer le taux de dangerosité de chaque individu, en vue de repérer tout projet malveillant et dintervenir avant leur éventuelle réalisation. Cest le domaine militaire qui dresse, depuis la première guerre du Golfe (1990-1991), une cartographie dynamique des forces géolocalisées et interconnectées, celles déventuels alliés autant que celles de lennemi, afin dadosser toute décision à un tableau de bord à vision panoscopique. Un centre opérationnel dune armée « technologiquement développée » peut être tenu comme emblématique, par extension, du rapport qui sétablit aux données, fondé sur la systématisation de leur plus large récolte et de leur traitement approfondi, en vue dinspirer des décisions individuelles ou collectives supposées les plus adéquates. Cest le monde dans son ensemble qui, par lexploitation expansive et tous azimuts des flux numériques, est appelé à terme à se concevoir et à se constituer comme une large salle de contrôle partout distribuée et témoignant continuellement du cours des choses. Car cest un régime de vérité qui sinstitue, fondé sur quatre axiomes cardinaux: la collecte informationnelle, lanalyse en temps réel, la détection de corrélations significatives et linterprétation automatisée des phénomènes. Une boucle dordre épistémo-anthropologique sinstaure, qui veut que toute situation appréhendée engagera aussitôt laction, répondant sans délai à lévidence incontestable de lheuristique algorithmique. Les Big data nomment un double processus intégré au sein des mêmes ensembles techniques, qui associe connaissance factuelle et prise de décision suivant des cadences immédiatement enchaînées, à limage du cerveau humain qui se prononce à tout moment en fonction des stimuli sensoriels du corps. Mouvement par exemple à luvre dans les systèmes robotisés de régulation énergétique mis en place par IBM dans certaines métropoles. Architectures capables dévaluer en continu les courbes de consommation et les réserves disponibles, et qui, en fonction des constats établis, limitent delles-mêmes lapprovisionnement dans certaines zones ou passent commande de stocks auprès de territoires limitrophes. Lexploitation industrielle de masses de données permet non seulement de dresser des diagrammes dynamiques à haute précision, mais contribue aussi à révéler certaines dimensions qui seraient restées masquées sans le recours à des procédés dotés dun pouvoir de divulgation. Un « approfondissement cognitif » sinstaure, signalant lémergence dune ère de la mesure et de la quantification de toute unité organique ou physique, dépassant le seul cadre dune connaissance factuelle des choses, pour une évaluation qualitative et constamment évolutive des personnes et des situations. Ce qui apparaît massivement, cest que les développements des sciences de linformation auront pleinement participé au projet moderne de rationalisation des sociétés, lauront exalté même, suivant une orientation qui visait originellement leur plus efficace organisation générale, pour atteindre aujourdhui via des processus majoritairement automatisés, leurs « meilleurs » distribution et ajustement. Disposition qui favorise une récente faculté à sopposer au hasard, à opérer une torsion volontaire sur le cours jusque-là supposé « naturel » des choses grâce à une vision théoriquement intégrale des événements associée à la capacité à faire converger toute unité avec toute autre. Mise en adéquation virtuelle qui s'opère à laide de systèmes complexes conçus pour suggérer toute action jugée avisée, ou pour engager d'eux-mêmes des initiatives autonomisées. Cet environnement en constante consolidation contribue à défaire un rapport ontologique basé sur l'expérience sensible et la distance supposée irréductible entre chaque substance, faisant apparaître une inédite position de surplomb à l'égard des phénomènes, abolissant en quelque sorte la part de vide et dinconnu, jusque-là tenue comme consubstantielle à la réalité. Cest un tournant épistémologique, anthropologique et plus largement civilisationnel qui sopère et qui, par sa puissance de bouleversement et dimprégnation, appelle à faire lui-même lobjet dune cartographie précise de sa lignée généalogique, de ses modalités de constitution, autant que de ses visées déclarées ou implicites. «Si la puissance en général a pour finalité laccroissement de son champ dapplication et de son intensité, la Puissance contemporaine néchappe pas à cette règle; elle ne livre pas delle-même sa propre essence : cest à la pensée philosophique de la lui arracher. » Lenjeu consiste ici à élaborer des outils de compréhension portant sur des procédés hautement agissants, orientant une large part de nos existences individuelles et collectives, et qui simposent sans que la faculté proprement humaine dévaluation ou de décision librement consentie ne soit en quelque sorte requise, alors quelle renvoie dans les faits à une des exigences politiques, juridiques et éthiques majeures de notre temps.
C/ La vérité rationalisante du numérique De la période de lexpansion continue du numérique entamée au cours des années 1980 jusquà nos jours sest introduite une dimension décisive : celle de la distance temporelle. Recul historique qui permet de saisir, avec la clarté de la mise en perspective, les principales lignes de force qui auront puissamment déterminé laxe dune courbe, et qui se trouvaient recouvertes ou dissimulées par des flopées de discours. Car durant la première partie de cette large séquence, cest lidée dun nouvel environnement technique supposé favoriser lépanouissement individuel et l'émancipation collective qui sest massivement imposée, contribuant à édifier une éclatante mythologie de linformatique. C'est le rêve hippie aspirant à une harmonie universelle qui put se revivifier, une vingtaine d'années plus tard, par l'usage d'artefacts devant faciliter l'expression des individus et encourager, grâce à l'interconnexion universelle, la libre circulation horizontale de l'information. Condition technico- culturelle alors en formation, perçue comme pouvant défaire la lourde et tétanisante hiérarchisation pyramidale des sociétés et concourir à lavènement dune dynamique globale multipolaire, créative et fraternelle: «L'Internet va aplanir les organisations, mondialiser la société, décentraliser l'autorité et favoriser lharmonie entre les êtres humains6. » La volonté d'ériger des protocoles de traitement automatisé de l'information remonte à une ambition de rationalisation administrative, qui se formalisa à l'origine dans les cartes perforées de recensement des populations à la fin du xix6 siècle, et qui gagna plus tard avec des procédés davantage sophistiqués les champs militaire et du renseignement, jusqu'à imprégner ensuite les activités économiques et financières. C'est cette froide réalité qui aura été étrangement occultée durant les deux dernières décennies du xx6 siècle, et dont on aura voulu majoritairement retenir le postulat d'une formidable occasion historique d'affranchissement individuel et collectif. Perception vite transformée en doxa planétaire soutenue par une rhétorique fermement convaincue de l'émergence d'un contexte de part en part redéfini, innervé de logiques organiques proches de celles à l'uvre dans le vivant, porteur de forces primordiales enfin libérées de rigidités sociales et culturelles devenues obsolètes par la grâce des vertus auto-organisationnelles inhérentes au numérique. C'est une espérance utopique, un «Ouest» virtuellement infini: une «electronicfrontier7», entendue comme un horizon soudainement dégagé et porteur en germe de toutes les positivités à susciter - soit autant de puissantes et séduisantes paraboles qui auront soutenu et accompagné à voix haute la formation sans heurts majeurs dun nouveau milieu technico- économique. Néanmoins lHistoire, comme souvent dans son ironie, ne suivit pas le cours présumé ou espéré des choses, ce fut même une tout autre impulsion qui se déploya et qui simposa à la fin des années 1990, sonnant la fin dun digital summer en quelque sorte. Élan de naïveté ou dillusion collectives qui se cogna durement contre la cruauté du réel ou léclosion de groupes industriels tels Google ou Amazon, fondés sur la plus intense exploitation commerciale de lInternet et du suivi des navigations des utilisateurs. À rebours du principe supposé prépondérant de lhorizontalisation des échanges, il se sera dressé dans le même mouvement, mais dans une forme paradoxale dindifférence ou de cécité, un ordre pyramidal déterminant la structure générale de la Toile, faisant glisser la métaphore abusive de réseau vers la figure plus exacte dun champ global de connectivité dominé par quelques acteurs oligopolistiques. Cest encore la réalité géopolitique des événements de septembre 2001 qui aura subrepticement infléchi le destin général du Web, ou plus précisément celui de son « back office » dérobé aux yeux des usagers et majoritairement tendu vers la pénétration et la mémorisation massives des comportements. Ce qui apparaît depuis peu, cest que tous les discours qui auront accompagné les développements du numérique et qui auront revêtu durant une période une forme de vérité, non seulement ne peuvent plus se formuler avec la même certitude inébranlable8, mais sont devenus saugrenus au vu dune autre vérité, celle-ci non plus forgée par le sophisme du verbe, mais simposant d'elle-même par lévidence factuelle. Le souffle enivrant du mythe et de la foi naura guère duré, juste le temps d'éprouver sur un laps de temps suffisant la puissance de logiques à l'uvre, établies sur lopération processuelle insensible mais décisive de la réduction de pans de la réalité à des chiffres analysables et manipulables. Cest un « retour du refoulé » qui se manifeste aujourdhui, découvrant à quel point au « fond » même du procédé numérique, cest une constante ambition de maximisation qui aura déterminé la conception des protocoles, mais dans une sorte de discrétion - mathématique ou abstraite -, comme située à lombre des idéologies enthousiastes ou de lapparence éminemment attrayante et ludique des interfaces et des applications. Ce nest pas quil y aurait eu deux histoires ou plusieurs histoires parallèles plus ou moins contradictoires, cest plutôt que le principe même qui se situe à leur fondement aura dès lorigine été conçu en vue de répondre à un unique axiome : celui daccéder à un surcroît automatisé defficacité et doptimisation organisationnelles. Dimension qui aura dans les faits contribué à soutenir la rationalisation sans cesse intensifiée des sociétés, mais suivant des modalités qui purent longtemps « avancer masquées » en quelque sorte, comme dans un bal aux allures insouciantes, dont la crudité des corps ne sera révélée que plus tard dans limplacable clarté du jour. « Le premier caractère évident du phénomène technique est celui de la rationalité. Sous quelque aspect que lon prenne la technique, dans quelque domaine quon lapplique, on se trouve en présence dun processus rationnel. [...] Toute intervention de la technique est, en effet, une réduction au schéma logique, des faits, des pulsions, des phénomènes, des moyens, des instruments9.» Cest cette vérité énoncée par Jacques Ellul il y a plus dun demi-siècle qui doit être revisitée à nouveaux frais, à la mesure de lextrême intensification de la tension liant processus techniques et raison implacable du calcul, sensible dans la dénomination même de la notion dont on na pas voulu voir la froideur sous le soleil étincelant de la Californie : le numérique, soit linstauration dun rapport au réel placé sous le sceau de la puissance objectivante et non ambiguë des mathématiques et des nombres. Cest encore la notion même de « révolution numérique » qui doit aujourdhui être réexaminée - expression empreinte dune dimension utopique inscrite dans toute aventure « révolutionnaire »- et qui aurait été depuis une vingtaine dannées partout reprise sans que son présupposé majeur nait été sérieusement évalué ou déconstruit. Formation sournoise et prégnante dun « techno-imaginaire », pour reprendre la juste formule de Georges Ballandier, qui aura concouru à affecter jusque dans la langue une valeur jugée de facto positive à la numérisation progressive des sociétés. Il faut entendre dans le double vocable de Bigdata la défaite cinglante et définitive de tout imaginaire fictionnel ou de toute entreprise délibérée de storytelling. Néanmoins, cest contre cet épuisement patent que voudrait sopposer un récent lexique entrepreneurial, entendant renouveler le registre dune «novlangue» censée annoncer de fructueuses promesses, particulièrement manifeste dans une série de mots aux consonances de quasi-slogans, qui fait se succéder les termes de vitesse, variété, visibilité, valeur, véracité, soit les 5 « V» dorénavant associés aux infinies virtualités en germe dans le « déluge de données ». Les Bigdata, au-delà de toutes les perspectives économiques escomptées, doivent être comprises comme le passage dun seuil épistémologique et anthropologique, qui veut que nos modes de perception et daction sur le réel se constituent désormais au filtre majoritaire des données, résultats dopérations réduisant in fine tout fait à des lignes de code, supposant une définition au chiffre près des situations. Car la virtuosité technologique contemporaine ne se pare pas dune forme outrageusement spectaculaire, nous navons pas colonisé quelques planètes, nous ne nous déplaçons pas en voitures volantes, ou nos cités ne sont pas composées de mégastructures sans fin. Non ; cette « magie » partout environnante opère discrètement, revêt des formes miniaturisées intégrées aux surfaces de nos réalités ou à nos corps et répond à des processus majoritairement robotisés. Elle serait devenue presque transparente dans son extrême puissance à force de sadonner continûment à nos existences. Or, sa force dimprégnation sur les conduites individuelles et sur les sociétés, ainsi que la vitesse sans cesse accélérée de ses développements appelle à entretenir un rapport actif à ce composé en perpétuel mouvement. Lenjeu consiste ici à marquer une distance avec les phénomènes, à les observer en conscience, à instiller du soupçon au sein de lévidence compacte de la réalité.
D/ Une anthropologie de lexponentiel En 1977, l'ordinateur personnel Apple II est mis sur le marché. En 1980, Philips inaugure le Compact Disc. En 1981, IBM commercialise son premier PC. En 1982, Microsoft distribue le système dexploitation MS-DOS. En 1991, le protocole HTTP fixe une standardisation universelle de la Toile. En 1993, Mosaic se présente comme le premier navigateur Internet de lhistoire. En 1994, Jeff Bezos crée le site de vente en ligne Amazon. En 1995, le Casio QV10 constitue le premier appareil photo numérique compact destiné au grand public. En 1996, le nombre estimé dordinateurs connectés à Internet dans le monde sélève à dix millions. En 1997, le programme Deep Blue mis au point par IBM bat aux échecs le champion du monde Garry Kasparov. En 2000, le nombre de sites consultables est évalué à dix millions ; la même année Bill Clinton autorise une diffusion non restreinte des signaux GPS à lusage dapplications civiles. En 2003, le séquençage complet de lADN du génome humain est achevé. En 2004, la Food and Drug Administration (FDA) autorise la commercialisation de la première puce implantée sous la peau conçue par lentreprise VeriChip. La même année Facebook est mis en ligne et connaîtra une progression exponentielle du nombre dinscrits jusquà atteindre un milliard moins de dix ans plus tard. En 2005,21 % des mouvements boursiers aux États-Unis sont assurés par le trading à haute fréquence. En 2007, Steve Jobs présente liPhone qui inaugurera une nouvelle génération de téléphones, les smartphones, ouvrant lère de lInternet mobile. En 2008, le terme de Bigdata entre dans le dictionnaire. En 2010, les iPad, les tablettes numériques tactiles dApple, sont mises en vente ; la même année Google annonce avoir conçu un système de pilotage automatique pour automobile, la « Google Car ». En 2011, le commerce en ligne aurait généré mille milliards de dollars de chiffre daffaires ; durant la même année une centaine dheures de vidéos auraient été postées chaque minute sur YouTube. En 2013, quinze milliards dobjets connectés seraient en service. En 2014, un milliard de sites Internet sont répertoriés. En 2015, les neuroprothèses autorisent un nombre étendu dopérations par commande cérébrale; les projets dordinateur quantique se développent notamment sous limpulsion de la NSA; plusieurs laboratoires travaillent sur le stockage moléculaire de linformation inspiré des structures de lADN. Ce qui est marquant dans cette brève chronologie des technologies computationnelles, qui aurait pu être remontée à quelques décennies antérieures, cest quelle expose une série dévénements qui initialement se déploient sous de faibles mesures, pour ensuite samplifier et saccélérer continuellement daprès des courbes à progression exponentielle. Finalement, la loi empirique de Gordon Moore exprimée en 1965, qui projetait un doublement tous les dix-huit mois de la puissance de stockage et de la vitesse de traitement des processeurs, aura pour large partie conditionné cette histoire autant que létat de notre présent. Depuis la fin des années 1970, le cours du monde aura particulièrement été synchronisé aux innovations techniques se succédant à des cadences sans cesse resserrées, et produisant une multitude deffets sur les individus et les sociétés à une échelle toujours plus globale. Cette accélération permanente aura principalement été propulsée par le techno-capitalisme qui aura pour large partie participé de lavènement dune anthropologie désormais placée sous le sceau de lexponentiel. Nous avons tous vécu à des moments distincts de nos existences cette précipitation, nous lavons tous éprouvée dans nos corps et nos esprits, mais nous ne pouvions pleinement saisir dans les flux du présent toutes ses composantes et la puissance de son impact. Car cette poussée exponentielle induit trois incidences majeures. Elle participe dabord dune naturalisation des phénomènes, les inscrivant par la vitesse de leur formation dans un ordre apparemment spontané des choses qui empêche de constater leur caractère exceptionnel, voire « antinaturel ». Elle contribue ensuite à anonymiser lorigine des faits, à masquer lintentionnalité des projets et à brouiller les chaînes dinteractions toujours plus complexes et indistinctes, affaiblissant la possibilité politique dagir en conscience. Elle conforte enfin lidée ou lidéologie qui affirment que lhistoire est fondamentalement mue par des forces irrépressibles, qui aujourdhui et plus que jamais, seraient puissamment à luvre. Or, cest précisément contre ces effets cumulés qui nont cessé de se potentialiser depuis une vingtaine dannées que nous devrions nous dresser, dans la mesure où ils amoindrissent notre lucidité et menacent lexercice de notre libre arbitre. « La plus grande faiblesse de la race humaine vient de son incapacité à comprendre la fonction exponentielle. » Formule énoncée par le physicien Albert Bartlett qui avait à maintes reprises alerté à propos de la dimension exponentielle qui selon lui caractérisait la modernité depuis la fin de la Seconde Guerre mondiale, et qui avait analysé nombre deffets induits, particulièrement lépuisement à terme inévitable des ressources naturelles. Lenjeu de notre époque ne consiste plus à saisir la portée de la « fonction exponentielle », mais à se demander comment se comporter dans un monde traversé de flux se déplaçant, au propre comme au figuré, à la vitesse de la lumière. Comment pouvons-nous dorénavant vivre au cur de perpétuelles bourrasques, comment ne pas nous laisser déborder par des événements qui se déploient et s'imposent à nous suivant des mesures toujours plus précipitées, comment pouvons-nous décider en conscience et librement du cours des choses ? Il sagit là de questions déterminantes à portée politique, philosophique et anthropologique, qui interpellent de front notre responsabilité. À ces interrogations, une réponse parmi dautres consisterait à introduire dautres modalités temporelles. Cest le principe de la relativité einsteinienne quil faut en quelque sorte symboliquement reprendre à notre compte, faisant valoir la multiplicité de la vie dans une multiplicité de faisceaux temporels possibles au gré du positionnement singulier adopté par chacun. Refuser de se soumettre passivement à ce régime restrictif exige de développer des temporalités contradictoires ou divergentes ne salignant pas sur laxiome de la « destruction créatrice » perpétuelle. Postures qui témoignent du désir de vivre à « contretemps », conformément à la notion nietzschéenne d inactuel qui signale la possibilité dobserver les faits à la distance critique nécessaire et de se démarquer dun régime normatif dominant: « Une société qui naurait plus la force de conserver de la distance en réfléchissant à ce qui la détermine au plus profond (la soumission intégrale de lindividu aux lois dune structure marchande, par le biais dune technique qui sinsinue partout) aurait renoncé à toute énergie politique. Sans parler de la possibilité de maintenir une vie de lesprit » Au-delà du seul rythme imposé par la conception incessante de nouvelles technologies, leur utilisation aura tout autant conduit à une compression progressive des cadences régissant le cours de la vie professionnelle et sociale. Le mode de rationalité contemporain fondé sur la recherche de la meilleure productivité, de la mise en adéquation instantanée entre unités organiques ou artificielles, et de lévitement de toute immobilisation inévitablement infructueuse, se formalise et se manifeste prioritairement dans une économie indéfiniment optimisée du temps. Dimension sensible dans les schémas organisationnels à luvre dans la logistique industrielle fondés sur la quête dune production menée à flux tendus, dune réactivité réglée sur le primat du temps réel et de lécoulement continuellement fluidifié des biens. Propension radicalisée à lextrême dans le trading algorithmique qui délègue à des robots numériques la licence de procéder à des actes dachat ou de vente à chaque milliseconde jugée la plus opportune. Leur aptitude à traiter des masses de données à des vitesses infiniment supérieures à nos capacités cérébrales induit de facto une asymétrie de compétence. Si ce mouvement technico-économique continue de se déployer selon les mêmes courbes exponentielles, deux phénomènes alors simposeront massivement. Dabord, celui qui consistera à généraliser un régime defficacité fondé sur la réalisation la plus immédiate de toute action calquée dans les faits ou comme point dhorizon sur la vitesse des processeurs. Ensuite, celui qui marginalisera de facto lactivité humaine en regard de la puissance sans cesse accrue acquise par les systèmes computationnels. Cest la place de lêtre humain autant que notre liberté qui sont appelées à être amoindries par des protocoles dotés de la faculté dinitiative et dictant la forme des choses en fonction dalgorithmes visant systématiquement loptimisation de toute situation. Lhumanité en devenir est-elle vouée à saccorder à la vitesse invariablement croissante qui meut les flux numériques et à être dessinée par des suites mathématiques imperceptibles visant une définition chiffrée et immédiate de tout fait, autant que lexploitation la plus rentable de chaque occurrence spatiotemporelle? Cette question dépasse le strict cadre du capitalisme, dans la mesure où cest un mode de rationalité utilitariste qui est devenu la norme dominante qui ne cesse de simposer et de sétendre à tous les pans de la société. Cest ce mode de rationalité qui prévaut dans les conditions de travail pratiquées tant dans les secteurs privé que public, dans lenseignement, dans lorganisation des villes, dans la médecine, jusquà imprégner les relations entre les personnes. Le capitalisme a bon dos dêtre la cible privilégiée de la philosophie politique et de la critique économique ou sociale ; ce qui devrait sans fin être analysé et déconstruit cest le modèle technico-cognitif qui actuellement sexerce partout, fondé sur la connaissance en temps réel des phénomènes supposée garantir en retour des prises de décisions les plus adéquates régulées par des algorithmes normatifs. Si cette logique-là est certes inspirée par le libéralisme, elle correspond plus largement à une propension anthropologique fondamentale aspirant à la plus haute sécurisation et optimisation de la vie, qui a peu à peu exclu les autres dimensions au moins tout autant légitimes, et qui na cessé de trouver depuis la fin du XVIIIe siècle les conditions progressives de sa pleine réalisation, allant jusquà ordonner aujourdhui massivement le cours du monde. Finalement, la conséquence principale de lexponentiel aura consisté à étendre et à instituer cette rationalité-là suivant la même cadence, gagnant continuellement en efficacité, étant pleinement soutenue par la puissance du numérique. Lune et lautre sentretenant depuis des décennies mutuellement à lintérieur dun mouvement épistémologique et technique toujours plus complice et solidaire. La collusion à luvre depuis plus dun siècle entre un mode de rationalité prioritairement fonctionnaliste et les techniques computationnelles est aujourdhui non seulement patente, mais atteint son acmé, imposant une raison numérique fondée sur un découpage et une mémorisation de tous les actes de la vie. Acceptons-nous dêtre toujours plus intégralement régentés par ce mouvement qui sintensifie et se perfectionne à des vitesses exponentielles, ou sommes-nous décidés à opposer des logiques fondées sur de tout autres exigences aptes à favoriser la faculté humaine de libre choix et la subjectivation des existences ? Il sagit là dun enjeu et dun défi pratique décisifs, dont notre degré de réponse individuelle et collective définit dores et déjà la nature de notre présent et déterminera celle de lhumanité à venir. La tension entre ce mode de rationalité devenu quasi exclusif et la technè contemporaine, qui participe avec force de sa consolidation et de son expansion, doit faire lobjet de débats et de controverses publiques. Ce compagnonnage qui détermine toujours plus profondément la forme du monde et celle de nos expériences doit sans cesse être analysé, décrypté, et plus que jamais défait vu son pouvoir unilatéral et indéfiniment accru de gouvernementalité, se soustrayant de surcroît à toute délibération démocratique. Raison pour laquelle la politisation à de multiples échelles de nos rapports aux technologies numériques renvoie in fine à la question du mode de vie que nous souhaitons adopter et à la nécessaire vigilance à maintenir à légard de systèmes robotisés ordonnant toujours plus profondément la trame de nos existences. En cela, soumettre la vie algorithmique contemporaine à une critique en acte de la raison numérique qui lordonne relève dun combat politique, éthique et civilisationnel majeur notre temps.
[1] Extraits de luvre de Éric SADIN qui porte ce titre, Edition Léchappée, 2015. [2] Christophe ROSSIGNOL ac Grenoble.fr
Date de création : 24/09/2017 @ 18:45 Réactions à cet article
|