Parcours
  • -Dysfonction érectile
  • Fermer Parcours lévinassien

    Fermer Parcours axiologique

    Fermer Parcours cartésien

    Fermer Parcours hellénique

    Fermer Parcours ricordien

    Fermer Parcours spinoziste

    Fermer Parcours habermassien

    Fermer Parcours deleuzien

    Fermer Parcours bergsonien

    Fermer Parcours augustinien

    Fermer Parcours braguien

    Fermer Parcours boutangien

    Fermer Glossématique

    Fermer Synthèses

    Fermer Ouvrages publiés

    Fermer Suivi des progrès aux USA

    Fermer Parcours psychophysique

    Fermer L'art et la science

    Fermer Parcours nietzschéen

    Fermer Philosophies médiévales

    Autres perspectives

    Fermer Archéologie

    Fermer Economie

    Fermer Sciences politiques

    Fermer Sociologie

    Fermer Poésie

    Fermer Théologie 1

    Fermer Théologie 2

    Fermer Théologie 3

    Fermer Psychanalyse générale

    Fermer Points d’histoire revisités

    Fermer Edification morale par les fables

    Fermer Histoire

    Fermer La numérisation du monde

    Fermer Phénoménologie

    Fermer Philosophie et science

    Mises à jour du site

    01/10/2017 ajout :
    Parcours ricordien
    - L'image de Dieu et l'épopée humaine
    - Ricoeur philosophe et théologien

    24/09/2017 ajout :
    La numérisation du monde
    - La vie algorithmique

    09/09//2017 ajout :
    La numérisation du monde
    - Philosophie de la donnée
    - La siliconisation du monde

    27/08/2017 ajout :
    La numérisation du monde
    - Les objets connectés du futur

    29/07/2017 ajout :
    La numérisation du monde
    - Les évolutions suite à la numérisation dans l'usine

    29/07/2017 Nouvelle prespective :
    La numérisation du monde
    - Liminaire
    - Le numérique redistribue des pouvoirs aux gens

     

    Liens Wikipédia
    Visites

       visiteurs

       visiteurs en ligne

    La numérisation du monde - La vie algorithmique

    Lire ce texte au format PDF

    LA VIE ALGORITHMIQUE[1]

     

    VieAlgoFig1.pngIntroduction[2]

     

    L’algorithme

    Définition : Un algorithme estune   suite  finie    d'opérations élémentaires, à appliquer dans un ordre déterminé, à des données. Sa réalisation permet de résoudre un problème donné

    Exemples : suivre une recette de cuisine, suivre un plan, faire une division euclidienne à la main sont des exemples d’algorithme.

    Remarques :

    1. Un algorithme doit être lisible de tous. Son intérêt, c’est d’être codé dans un langage informatique afin qu’une machine (ordinateur, calculatrice, etc.) puisse l’exécuter rapidement et efficacement.

    2. Les trois phases d’un algorithme sont, dans   l’ordre :

    (a) l’entrée des données
    (b) le traitement des données
    (c) la sortie des résultats

     

    A/ Le monde au prisme des données

    Le cœur de notre condition technologique contempo­raine renvoie moins aux objets élaborés qui nous environnent qu’au magma immatériel à prolifération exponentielle induit par leurs usages. L’histoire de l’informatique a prioritairement été rédigée « du côté » des instruments et des protocoles. Dimen­sion certes incontournable de cette complexe généalogie, dont on se rend compte aujourd'hui que ce qui l’unifie malgré sa foi­sonnante hétérogénéité, c’est que leur utilisation a systémati­quement entraîné la production de lignes de code suivant des courbes à progression géométrique. Il a souvent été opéré une focalisation sur quelques points saillants de l’industrie de l’élec­tronique : puissance de calcul ou de stockage régulièrement amplifiée, effort constant de miniaturisation, affinement de la qualité ergonomique..., sans qu’il soit dans le même mouve­ment relevé que toutes ces caractéristiques contribuaient à favo­riser la génération corollaire et indéfiniment accrue de data. S’il a été décrit ce qui s’opère en amont, soit l’élaboration de pro­grammes constitués de chiffres structurant le fonctionnement des systèmes, c’est l’ampleur sans cesse croissante de mêmes suites binaires occasionnées en retour par leur emploi, qui sin­gularise aujourd’hui le rapport que nous entretenons aux tech­nologies numériques. Notre époque est caractérisée par un afflux invariablement expansif de données générées de partout, par les individus, les entreprises privées, les instances publiques, les objets, stockées dans les milliards de disques durs person­nels ou au sein de fermes de serveurs toujours plus nombreuses. Environnement global qui voit le redoublement en cours de chaque élément physique ou organique du monde en bits exploi­tables en vue de fonctionnalités de tous ordres. C’est cette prolifération ininterrompue et exponentielle qui est désormais circonscrite sous le terme de Big data. Il fallait une notion pour identifier ce phénomène singulier propre à ce moment de l’histoire de l’humanité. Probablement devons-nous en appeler au langage pour tenter d’atténuer une forme de ver­tige. Le double vocable serait apparu en 2008 et aussitôt entré dans le Oxford English Dictionary sous cette définition : «Volumes de données trop massifs pour être manipulés ou interprétés par des méthodes ou des moyens usuels ». Énoncé à la forme négative qui explicite non pas le principe, mais focalise sur les limites à pouvoir gérer un mouvement qui se déroberait à notre maîtrise ou excéderait nos facultés de représentation. C’est encore un lexique technique utilisé au cours des dernières décennies qui constitue un marqueur manifeste de la production indéfiniment graduelle de données, par l’intégration successive d’unités de mesure relatives à la puissance de stockage et à celle des processeurs.
    octet renvoie à l’échelon initial significatif des débuts de l’informatique grand public. Le kilo-octet a représenté la valeur emblématique de la capacité des premiers micro-ordinateurs ou des fichiers de traitement de texte. Le mégaoctet a signalé l’émer­gence de données numériques extratextuelles, d’ordre musical et iconique, capables d’être conservées sur des disques durs personnels, autant que les mesures de téléchargement à l’œuvre sur les réseaux à la fin des années 1990. Le gigaoctet témoigne du tournant du millénaire, marqué par la numérisation de l’image animée, l’accès à la vidéo en ligne et l’augmentation substantielle des volumes circulant sur Internet. Le téraoctet représenterait le nom exact de notre période, désignant la puis­sance de stockage désormais détenue par chacun, permettant en théorie de conserver l’équivalent de fonds volumineux de bibliothèques.
    Le petaoctet atteste du franchissement d’un seuil, ne défi­nissant plus la puissance des équipements privés ou profession­nels, mais les masses entreposées dans des fermes de données dont les contenances dépassent en quelque sorte les facultés de représentation de l’entendement humain. L’exaoctet (soit un milliard de gigaoctets) ne renvoie plus aux capacités détenues par certains serveurs, mais aux volumes globaux administrés par de grandes entités (à l’instar du CERN par exemple), ou circulant durant un laps de temps déterminé sur la Toile. Le zettaoctet correspond à une mesure astronomique exclusivement destinée à circonscrire la totalité du volume de données géné­rées ou stockées sur l’ensemble de la planète. Il aurait été produit l’ordre de trois zettaoctets en 2014, et il est hypothétiquement projeté une production de quarante zettaoctets en 2020. Le yottaoctet enfin évoque une sorte de Terra Incognita, manifestant sous un seul vocable autant la volonté de nommer un horizon irrémédiablement annoncé, que l’impossibilité de se figurer les quantités en jeu. Quant aux unités ultérieures éventuellement appelées à se succéder au cours du XXIe siècle, elles relèvent d’un ordre qui défie nos structures actuelles d’intelligibilité. Ce sont plusieurs couches chronologiquement consécutives désormais agglomérées les unes aux autres qui concourent à ins­taurer une réalité de toute part imprégnée de chiffres.

    – D’abord, le mouvement progressif de numérisation des différents champs symboliques (écrit, son, images fixes et animées) engagé depuis une trentaine d’années a contribué à l’archivage tendanciellement intégral des corpus historiques sous la forme de bits indexés et accessibles, parallèlement à la production d’information directement générée sous format numérique. Phénomène contemporain de celui de l’universalisation de l’interconnexion qui a engendré des masses sans cesse croissantes de données, autant par le fait de la prolifération ininterrompue de sites que par le nombre en constante augmentation d’internautes, géné­rant par leurs navigations toujours plus soutenues une infinité de traces stockées au sein de myriades de serveurs.
    –         C’est encore l’usage civil de la géolocalisation depuis le milieu des années 1990 qui constitue une autre strate informationnelle, celle-ci relative aux positionnements des personnes, aux moyens de transport ou à d’autres unités matérielles.
    –         C’est enfin le puissant mou­vement actuellement en cours d’implantation de capteurs à même les objets, les surfaces physiques ou les organismes, qui est appelé à représenter à terme la part majoritaire de la production de data.
    Deux confluents se rejoignant en un même fleuve contri­buent par leur conjonction à générer des « océans » de données :
    –         Le premier renvoie aux gestes individuels ou collectifs qui se réalisent de façon délibérée (conversations téléphoniques, trans­missions de messages, navigations Internet, achats via des cartes de crédit, transactions bancaires, modalités d'imposition, comptes de sécurité sociale...).
    –         Le second concerne les procé­dés «passifs», généralement imperceptibles, qui enregistrent toutes sortes d'informations et témoignent de multiples états de la réalité : trajets des personnes, images de vidéosurveillance, physiologie des corps via des bracelets connectés, indications relatives aux conditions météorologiques, à la qualité de l’air, au trafic routier...

    Il est paradoxal de relater dans le cadre d’un livre imprimé des mesures caractérisées par leur continuelle évolutivité, inter­disant de facto toute description stabilisée. C’est à un « arrêt sur image» qu’il faut procéder, qui doit être entendu comme l’évo­cation d’un seul ordre de grandeur. L'humanité produirait autant d'informations en deux jours qu’elle ne l’a fait en deux millions d’années. En outre, le volume doublerait tous les dix-huit mois suivant une cadence exponentielle, à l’instar de la loi de Moore*

    *  Loi qui avait affirmé le principe exponentiel du doublement tous les dix-huit mois de la puissance, de la capacité et de la vitesse des différentes composantes des systèmes Informatiques.

    – dont la vérification jamais démentie aura pour une large part contribué à cette prolifération ininterrompue.

    Chaque minute, il s’écrirait des centaines de milliers de tweets, des dizaines de millions de SMS, des centaines de millions de mails ; dans le même temps des dizaines d’heures de vidéos seraient mises en ligne sur YouTube. La quasi-totalité des actions individuelles ou collectives génèrent désormais des lignes de code, rendant vaine l’entreprise de vouloir toutes les citer.

    C’est en quelque sorte une démarche inverse qu’il faudrait adopter, consistant à iden­tifier les attitudes que nous pourrions qualifier de «muettes». Nous constaterions que ce registre se réduit année après année telle une peau de chagrin, qui pourrait comprendre par exemple l’état émotionnel ou physiologique de deux corps engagés dans une relation sexuelle, situés en retrait de tout procédé de cap­tation.

    Néanmoins, le port de dispositifs intégrés à même nos organismes, actuellement en cours de généralisation, suppose que la part de chacun placée le plus à l’abri, ou relevant du plus intime, engendrera à terme des séquences de chiffres récoltées et analysées en vue de diverses fins.

    Il est possible de tenir trois entités, relevant de trois secteurs distincts, comme particulièrement significatives de l’ampleur des données produites ou gérées par certaines activités et du rôle capital que revêt leur traitement. Google, figure majeure de l’indexation de l’information, administrerait quotidiennement vingt-quatre petaoctets, soit un volume équivalant à mille fois la quantité de documents imprimés conservés à la bibliothèque du Congrès de Washington. Dans le registre sécuritaire, c’est au « prisme » emblématique des pratiques de la NSA (l’Agence natio­nale de sécurité américaine) que peut être saisie une forme «d’avant-garde» de la puissance présente à pouvoir stocker et exploiter des agrégats informationnels, sans limite pratique ou théorique en quelque sorte. L’organisme s’est récemment doté d’une infrastructure capable de conserver des magmas corres­pondant à plusieurs siècles de l’actuel trafic mondial de l’Inter­net. Dans le cadre du commerce, le géant américain de la dis­tribution Walmart archiverait chaque heure plus d'un million de transactions, s’additionnant à une base de données qui contiendrait 2,5 petaoctets, soit cent fois le volume de la biblio­thèque du Congrès de Washington -qui semble représenter l’exemple comparatif paradigmatique, renvoyant à l’ère de l’archivage massif de documents analogiques. La liste de ces mégastructures pourrait être longuement prolongée et doit être comprise comme l’expression éclairante de la faculté désormais acquise par l’humanité à générer, conserver, et traiter des masses abyssales de données relatives à des pans toujours plus élargis de la réalité.

    D’un point de vue prospectif, il est projeté que vers le milieu de la présente décennie il serait produit un volume de huit zettaoctets (un zettaoctet représente mille milliards de gigaoctets, soit 1021 octets, ou une mesure à peu près inintelligible à notre esprit). La compagnie Cisco estime qu’en 2017 des quantités équivalentes à l’ensemble numérisé de tous les films tournés au cours de l’histoire du cinéma seront échangées sur Internet toutes les trois minutes. Le cabinet d’études IDC juge que d’ici 2020 les flux de data seront cinquante fois supérieurs à ceux actuels, et atteindront alors les quarante Zo. Dix fois plus de ser­veurs seraient à terme nécessaires à leur stockage. Autant de faits et d’estimations qui pourraient être déclinés sur de longues pages. Il convient néanmoins de se méfier de statistiques qui demeurent impossibles à vérifier, ou de projections incertaines, publiées on ne sait trop comment par quelques cabinets d’étude dont les conclusions sont aussitôt reprises, revêtant par l’éten­due de leur « viralité » une forme d’évidence ou de vérité enten­due. Ce que signale ce mouvement technico-anthropologique en perpétuelle dilatation, c’est d’abord qu’il défie pour une large part nos catégories usuelles d’appréhension, confrontées à une forme de débordement indéfiniment fuyant, de surcroît irréductible à toute cartographie stabilisée. Car les Big data ne nomment pas un état de fait, mais une sorte de « fission nucléaire » continuellement expansive et partout disséminée, qui trouve son origine dans le mouvement historique de numérisation progressive du monde, dont nous saisissons aujourd’hui et avec force qu’il instaure un nouveau type d’intelligibilité du réel constitué au prisme des données. Le sens premier qui depuis peu s’attache à la notion de Big data renvoie prioritairement à l’horizon économique et industriel qui se dégage à la faveur de leur traitement massif, autorisant une connaissance sans cesse approfondie de phénomènes de toute nature.

     

    B/ L’horizon économique

    À la différence de ce qui était nommé «nouvelle économie» à la fin des années 1990, l’axe majeur de ce phénomène ne se fonde plus sur le seul accès à des sites monétisant sous une forme ou une autre leur fréquentation, ou sur le commerce en ligne, mais prioritairement sur le principe d’une connaissance de faits de tous ordres pouvant soit revêtir une valeur monnayable, soit optimiser le fonctionnement interne et externe des entreprises. Disposition qui permet en théorie d’ajuster toute stratégie ou décision d’après des mesures déployées en temps réel relatives aux quotients de productivité, à la qualité des infrastructures, à la performance du personnel, au taux de réactivité des sous- traitants, à l’identification des prestataires les plus offrants, aux stocks disponibles, aux rapports entre l’offre et la demande, au transport des marchandises, aux comportements des consommateurs... Émergence non plus d’une supposée «économie de la connaissance», mais d’une économie intensifiée sur l’ensemble de ses maillons par le suivi à la trace ou au chiffre près d’un nombre extensif de phénomènes, comme pilotée depuis une « monitoring room », scrutant simultanément le plus grand nombre d’événements et se déterminant à chaque instant en fonction de cartographies détaillées constamment évolutives.

    –        C’est une redéfinition de nombreux secteurs qui s’opère par l’acquisition d’une clairvoyance granulaire déployée en temps réel, rendue possible par la collecte indéfiniment expansive de masses informationnelles traitées par des processus automati­sés chargés d’en « extraire de la connaissance ».

    –        C’est le marke­ting qui ambitionne d’instaurer une « relation client » établie sur le suivi ininterrompu et individualisé des comportements, apte à abolir tout «bruit informationnel» parasitaire dans la péné­tration des habitudes et des psychés, permettant de proposer des offres jugées en parfaite adéquation avec les désirs et besoins présents ou en gestation.

    –        C'est le processus de production et de livraison de biens manufacturiers qui aspire, par la vision de chacune des étapes à l’œuvre, à se délivrer de sa pesanteur consubstantielle pour se rapprocher de la plus immédiate réac­tivité et intense fluidité dans la circulation des marchandises, repoussant toute immobilisation coûteuse au profit d’un ajus­tement sans délai ou perte entre points d’origine et d’arrivée.

    –        C’est la structuration et l’organisation générales des espaces urbains qui, sous le terme de smart cities ou de «villes intelli­gentes », se reconfigurent, conçus dorénavant telles des surfaces partout sensibles, capturant à tout instant les moindres impul­sions organiques ou physiques, gérées par des systèmes chargés de réguler « au mieux » chaque occurrence spatiotemporelle indi­viduelle ou collective.

    –        C’est l’habitat qui, sous le concept de « maison connectée », est appelé à transmettre des informations relatives à la consom­mation d’énergie, aux différents produits qui y pénètrent, ou plus largement aux mœurs de ses occupants, supposés bénéfi­cier en retour de services modulés à leur vie domestique ou intime.

    –        C’est une «médecine des données» qui émerge, désor­mais capable de dessiner le profil génétique des individus et de capter les flux physiologiques à même la peau ou via des bio- puces implantées au sein des tissus, conduisant à terme à l’ins­tauration d’une «thérapeutique de l’alerte» et du diagnostic préventif personnalisé.

    –         C’est ce qui est nommé Open data, soit la diffusion librement accessible d’informations provenant prin­cipalement d’organismes publics ou apparentés, ou alimentée par les individus eux-mêmes, qui est censé faciliter le quotidien grâce à des myriades d’applications destinées à          « maximiser » et à fluidifier les conditions générales d’existence.

    –        C’est le champ sécuritaire qui situe dorénavant le cœur de sa stratégie dans l’interception et l’analyse massives de données, dans l’objectif de mesurer le taux de dangerosité de chaque individu, en vue de repérer tout projet malveillant et d’intervenir avant leur éven­tuelle réalisation.

    –        C’est le domaine militaire qui dresse, depuis la première guerre du Golfe (1990-1991), une cartographie dyna­mique des forces géolocalisées et interconnectées, celles d’éven­tuels alliés autant que celles de l’ennemi, afin d’adosser toute décision à un tableau de bord à vision panoscopique. Un centre opérationnel d’une armée « technologiquement développée » peut être tenu comme emblématique, par exten­sion, du rapport qui s’établit aux données, fondé sur la systé­matisation de leur plus large récolte et de leur traitement appro­fondi, en vue d’inspirer des décisions individuelles ou collectives supposées les plus adéquates.

    –        C’est le monde dans son ensemble qui, par l’exploitation expansive et tous azimuts des flux numé­riques, est appelé à terme à se concevoir et à se constituer comme une large salle de contrôle partout distribuée et témoignant continuellement du cours des choses. Car c’est un régime de vérité qui s’institue, fondé sur quatre axiomes cardinaux: la col­lecte informationnelle, l’analyse en temps réel, la détection de corrélations significatives et l’interprétation automatisée des phénomènes.

    Une boucle d’ordre épistémo-anthropologique s’instaure, qui veut que toute situation appréhendée engagera aussitôt l’ac­tion, répondant sans délai à l’évidence incontestable de l’heuristique algorithmique. Les Big data nomment un double pro­cessus intégré au sein des mêmes ensembles techniques, qui associe connaissance factuelle et prise de décision suivant des cadences immédiatement enchaînées, à l’image du cerveau humain qui se prononce à tout moment en fonction des stimuli sensoriels du corps. Mouvement par exemple à l’œuvre dans les systèmes robotisés de régulation énergétique mis en place par IBM dans certaines métropoles. Architectures capables d’éva­luer en continu les courbes de consommation et les réserves disponibles, et qui, en fonction des constats établis, limitent d’elles-mêmes l’approvisionnement dans certaines zones ou passent commande de stocks auprès de territoires limitrophes.

    L’exploitation industrielle de masses de données permet non seulement de dresser des diagrammes dynamiques à haute pré­cision, mais contribue aussi à révéler certaines dimensions qui seraient restées masquées sans le recours à des procédés dotés d’un pouvoir de divulgation. Un « approfondissement cognitif » s’instaure, signalant l’émergence d’une ère de la mesure et de la quantification de toute unité organique ou physique, dépassant le seul cadre d’une connaissance factuelle des choses, pour une évaluation qualitative et constamment évolutive des personnes et des situations. Ce qui apparaît massivement, c’est que les développements des sciences de l’information auront pleine­ment participé au projet moderne de rationalisation des socié­tés, l’auront exalté même, suivant une orientation qui visait ori­ginellement leur plus efficace organisation générale, pour atteindre aujourd’hui via des processus majoritairement auto­matisés, leurs « meilleurs » distribution et ajustement. Disposition qui favorise une récente faculté à s’opposer au hasard, à opérer une torsion volontaire sur le cours jusque-là supposé « naturel » des choses grâce à une vision théoriquement intégrale des évé­nements associée à la capacité à faire converger toute unité avec toute autre. Mise en adéquation virtuelle qui s'opère à l’aide de systèmes complexes conçus pour suggérer toute action jugée avi­sée, ou pour engager d'eux-mêmes des initiatives autonomisées.

    Cet environnement en constante consolidation contribue à défaire un rapport ontologique basé sur l'expérience sensible et la distance supposée irréductible entre chaque substance, faisant apparaître une inédite position de surplomb à l'égard des phénomènes, abolissant en quelque sorte la part de vide et d’inconnu, jusque-là tenue comme consubstantielle à la réalité. C’est un tournant épistémologique, anthropologique et plus largement civilisationnel qui s’opère et qui, par sa puissance de bouleversement et d’imprégnation, appelle à faire lui-même l’objet d’une cartographie précise de sa lignée généalogique, de ses modalités de constitution, autant que de ses visées déclarées ou implicites. «Si la puissance en général a pour finalité l’ac­croissement de son champ d’application et de son intensité, la Puissance contemporaine n’échappe pas à cette règle; elle ne livre pas d’elle-même sa propre essence : c’est à la pensée phi­losophique de la lui arracher. » L’enjeu consiste ici à élaborer des outils de compréhension portant sur des procédés haute­ment agissants, orientant une large part de nos existences indi­viduelles et collectives, et qui s’imposent sans que la faculté proprement humaine d’évaluation ou de décision librement consentie ne soit en quelque sorte requise, alors qu’elle renvoie dans les faits à une des exigences politiques, juridiques et éthiques majeures de notre temps.

     

    C/ La vérité rationalisante du numérique

    De la période de l’expansion continue du numérique enta­mée au cours des années 1980 jusqu’à nos jours s’est introduite une dimension décisive : celle de la distance temporelle. Recul historique qui permet de saisir, avec la clarté de la mise en pers­pective, les principales lignes de force qui auront puissamment déterminé l’axe d’une courbe, et qui se trouvaient recouvertes ou dissimulées par des flopées de discours. Car durant la pre­mière partie de cette large séquence, c’est l’idée d’un nouvel environnement technique supposé favoriser l’épanouissement individuel et l'émancipation collective qui s’est massivement imposée, contribuant à édifier une éclatante mythologie de l’informatique. C'est le rêve hippie aspirant à une harmonie universelle qui put se revivifier, une vingtaine d'années plus tard, par l'usage d'artefacts devant faciliter l'expression des indi­vidus et encourager, grâce à l'interconnexion universelle, la libre circulation horizontale de l'information. Condition technico- culturelle alors en formation, perçue comme pouvant défaire la lourde et tétanisante hiérarchisation pyramidale des sociétés et concourir à l’avènement d’une dynamique globale multipolaire, créative et fraternelle: «L'Internet va aplanir les organisations, mondialiser la société, décentraliser l'autorité et favoriser l’harmonie entre les êtres humains6. »

    La volonté d'ériger des protocoles de traitement automatisé de l'information remonte à une ambition de rationalisation administrative, qui se formalisa à l'origine dans les cartes per­forées de recensement des populations à la fin du xix6 siècle, et qui gagna plus tard avec des procédés davantage sophistiqués les champs militaire et du renseignement, jusqu'à imprégner ensuite les activités économiques et financières. C'est cette froide réalité qui aura été étrangement occultée durant les deux dernières décennies du xx6 siècle, et dont on aura voulu majo­ritairement retenir le postulat d'une formidable occasion his­torique d'affranchissement individuel et collectif. Perception vite transformée en doxa planétaire soutenue par une rhétorique fermement convaincue de l'émergence d'un contexte de part en part redéfini, innervé de logiques organiques proches de celles à l'œuvre dans le vivant, porteur de forces primordiales enfin libérées de rigidités sociales et culturelles devenues obso­lètes par la grâce des vertus auto-organisationnelles inhérentes au numérique. C'est une espérance utopique, un «Ouest» vir­tuellement infini: une «electronicfrontier7», entendue comme un horizon soudainement dégagé et porteur en germe de toutes les positivités à susciter - soit autant de puissantes et séduisantes paraboles qui auront soutenu et accompagné à voix haute la formation sans heurts majeurs d’un nouveau milieu technico- économique.

    Néanmoins l’Histoire, comme souvent dans son ironie, ne suivit pas le cours présumé ou espéré des choses, ce fut même une tout autre impulsion qui se déploya et qui s’imposa à la fin des années 1990, sonnant la fin d’un digital summer en quelque sorte. Élan de naïveté ou d’illusion collectives qui se cogna dure­ment contre la cruauté du réel ou l’éclosion de groupes indus­triels tels Google ou Amazon, fondés sur la plus intense exploi­tation commerciale de l’Internet et du suivi des navigations des utilisateurs. À rebours du principe supposé prépondérant de l’horizontalisation des échanges, il se sera dressé dans le même mouvement, mais dans une forme paradoxale d’indifférence ou de cécité, un ordre pyramidal déterminant la structure générale de la Toile, faisant glisser la métaphore abusive de réseau vers la figure plus exacte d’un champ global de connectivité dominé par quelques acteurs oligopolistiques. C’est encore la réalité géopolitique des événements de septembre 2001 qui aura subrepticement infléchi le destin général du Web, ou plus pré­cisément celui de son « back office » dérobé aux yeux des usagers et majoritairement tendu vers la pénétration et la mémorisation massives des comportements.

    Ce qui apparaît depuis peu, c’est que tous les discours qui auront accompagné les développements du numérique et qui auront revêtu durant une période une forme de vérité, non seulement ne peuvent plus se formuler avec la même certitude inébranlable8, mais sont devenus saugrenus au vu d’une autre vérité, celle-ci non plus forgée par le sophisme du verbe, mais s’imposant d'elle-même par l’évidence factuelle. Le souffle eni­vrant du mythe et de la foi n’aura guère duré, juste le temps d'éprouver sur un laps de temps suffisant la puissance de logiques à l'œuvre, établies sur l’opération processuelle insen­sible mais décisive de la réduction de pans de la réalité à des chiffres analysables et manipulables. C’est un « retour du refoulé » qui se manifeste aujourd’hui, découvrant à quel point au « fond » même du procédé numérique, c’est une constante ambition de maximisation qui aura déterminé la conception des protocoles, mais dans une sorte de discrétion - mathématique ou abstraite -, comme située à l’ombre des idéologies enthousiastes ou de l’ap­parence éminemment attrayante et ludique des interfaces et des applications.

    Ce n’est pas qu’il y aurait eu deux histoires ou plusieurs histoires parallèles plus ou moins contradictoires, c’est plutôt que le principe même qui se situe à leur fondement aura dès l’origine été conçu en vue de répondre à un unique axiome : celui d’accéder à un surcroît automatisé d’efficacité et d’opti­misation organisationnelles. Dimension qui aura dans les faits contribué à soutenir la rationalisation sans cesse intensifiée des sociétés, mais suivant des modalités qui purent longtemps « avancer masquées » en quelque sorte, comme dans un bal aux allures insouciantes, dont la crudité des corps ne sera révélée que plus tard dans l’implacable clarté du jour. « Le premier carac­tère évident du phénomène technique est celui de la rationalité. Sous quelque aspect que l’on prenne la technique, dans quelque domaine qu’on l’applique, on se trouve en présence d’un pro­cessus rationnel. [...] Toute intervention de la technique est, en effet, une réduction au schéma logique, des faits, des pulsions, des phénomènes, des moyens, des instruments9.» C’est cette vérité énoncée par Jacques Ellul il y a plus d’un demi-siècle qui doit être revisitée à nouveaux frais, à la mesure de l’extrême intensification de la tension liant processus techniques et rai­son implacable du calcul, sensible dans la dénomination même de la notion dont on n’a pas voulu voir la froideur sous le soleil étincelant de la Californie : le numérique, soit l’instauration d’un rapport au réel placé sous le sceau de la puissance objectivante et non ambiguë des mathématiques et des nombres.

    C’est encore la notion même de « révolution numérique » qui doit aujourd’hui être réexaminée - expression empreinte d’une dimension utopique inscrite dans toute aventure « révolution­naire »- et qui aurait été depuis une vingtaine d’années partout reprise sans que son présupposé majeur n’ait été sérieusement évalué ou déconstruit. Formation sournoise et prégnante d’un « techno-imaginaire », pour reprendre la juste formule de Georges Ballandier, qui aura concouru à affecter jusque dans la langue une valeur jugée de facto positive à la numérisation progressive des sociétés. Il faut entendre dans le double vocable de Bigdata la défaite cinglante et définitive de tout imaginaire fictionnel ou de toute entreprise délibérée de storytelling. Néanmoins, c’est contre cet épuisement patent que voudrait s’opposer un récent lexique entrepreneurial, entendant renouveler le registre d’une «novlangue» censée annoncer de fructueuses promesses, par­ticulièrement manifeste dans une série de mots aux consonances de quasi-slogans, qui fait se succéder les termes de vitesse, variété, visibilité, valeur, véracité, soit les 5 « V» dorénavant associés aux infinies virtualités en germe dans le « déluge de données ».

    Les Bigdata, au-delà de toutes les perspectives économiques escomptées, doivent être comprises comme le passage d’un seuil épistémologique et anthropologique, qui veut que nos modes de perception et d’action sur le réel se constituent désor­mais au filtre majoritaire des données, résultats d’opérations réduisant in fine tout fait à des lignes de code, supposant une définition au chiffre près des situations. Car la virtuosité tech­nologique contemporaine ne se pare pas d’une forme outrageusement spectaculaire, nous n’avons pas colonisé quelques planètes, nous ne nous déplaçons pas en voitures volantes, ou nos cités ne sont pas composées de mégastructures sans fin. Non ; cette «  magie » partout environnante opère discrètement, revêt des formes miniaturisées intégrées aux surfaces de nos réalités ou à nos corps et répond à des processus majoritairement robotisés. Elle serait devenue presque transparente dans son extrême puissance à force de s’adonner continûment à nos existences. Or, sa force d’imprégnation sur les conduites individuelles et sur les sociétés, ainsi que la vitesse sans cesse accélérée de ses développements appelle à entretenir un rapport actif à ce composé en perpétuel mouvement. L’enjeu consiste ici à marquer une distance avec les phénomènes, à les observer en conscience, à instiller du soupçon au sein de l’évidence compacte de la réalité. 

     

    D/ Une anthropologie de l’exponentiel

    En 1977, l'ordinateur personnel Apple II est mis sur le marché. En 1980, Philips inaugure le Compact Disc.

    En 1981, IBM commercialise son premier PC. En 1982, Microsoft distribue le système d’exploitation MS-DOS.

    En 1991, le protocole HTTP fixe une standardisation universelle de la Toile.

    En 1993, Mosaic se présente comme le premier naviga­teur Internet de l’histoire.

    En 1994, Jeff Bezos crée le site de vente en ligne Amazon.

    En 1995, le Casio QV10 constitue le premier appareil photo numérique compact destiné au grand public.

    En 1996, le nombre estimé d’ordinateurs connectés à Internet dans le monde s’élève à dix millions.

    En 1997, le programme Deep Blue mis au point par IBM bat aux échecs le champion du monde Garry Kasparov.

    En 2000, le nombre de sites consultables est évalué à dix millions ; la même année Bill Clin­ton autorise une diffusion non restreinte des signaux GPS à l’usage d’applications civiles.

    En 2003, le séquençage complet de l’ADN du génome humain est achevé. En 2004, la Food and Drug Administration (FDA) autorise la commercialisation de la première puce implantée sous la peau conçue par l’entreprise VeriChip. La même année Facebook est mis en ligne et connaî­tra une progression exponentielle du nombre d’inscrits jusqu’à atteindre un milliard moins de dix ans plus tard.

    En 2005,21 % des mouvements boursiers aux États-Unis sont assurés par le trading à haute fréquence.

    En 2007, Steve Jobs présente l’iPhone qui inaugurera une nouvelle génération de téléphones, les smartphones, ouvrant l’ère de l’Internet mobile.

    En 2008, le terme de Bigdata entre dans le dictionnaire.

    En 2010, les iPad, les tablettes numé­riques tactiles d’Apple, sont mises en vente ; la même année Google annonce avoir conçu un système de pilotage automa­tique pour automobile, la « Google Car ».

    En 2011, le commerce en ligne aurait généré mille milliards de dollars de chiffre d’af­faires ; durant la même année une centaine d’heures de vidéos auraient été postées chaque minute sur YouTube.

    En 2013, quinze milliards d’objets connectés seraient en service. En 2014, un milliard de sites Inter­net sont répertoriés.

    En 2015, les neuroprothèses autorisent un nombre étendu d’opérations par commande cérébrale; les projets d’ordinateur quantique se développent notamment sous l’impulsion de la NSA; plusieurs laboratoires travaillent sur le stockage moléculaire de l’information inspiré des struc­tures de l’ADN.

    Ce qui est marquant dans cette brève chronologie des tech­nologies computationnelles, qui aurait pu être remontée à quelques décennies antérieures, c’est qu’elle expose une série d’événements qui initialement se déploient sous de faibles mesures, pour ensuite s’amplifier et s’accélérer continuellement d’après des courbes à progression exponentielle. Finalement, la loi empirique de Gordon Moore exprimée en 1965, qui projetait un doublement tous les dix-huit mois de la puissance de stockage et de la vitesse de traitement des processeurs, aura pour large partie conditionné cette histoire autant que l’état de notre pré­sent. Depuis la fin des années 1970, le cours du monde aura particulièrement été synchronisé aux innovations techniques se succédant à des cadences sans cesse resserrées, et produisant une multitude d’effets sur les individus et les sociétés à une échelle toujours plus globale. Cette accélération permanente aura principalement été propulsée par le techno-capitalisme qui aura pour large partie participé de l’avènement d’une anthro­pologie désormais placée sous le sceau de l’exponentiel. Nous avons tous vécu à des moments distincts de nos existences cette précipitation, nous l’avons tous éprouvée dans nos corps et nos esprits, mais nous ne pouvions pleinement saisir dans les flux du présent toutes ses composantes et la puissance de son impact.

    Car cette poussée exponentielle induit trois incidences majeures.

    –        Elle participe d’abord d’une naturalisation des phé­nomènes, les inscrivant par la vitesse de leur formation dans un ordre apparemment spontané des choses qui empêche de constater leur caractère exceptionnel, voire « antinaturel ».

    –         Elle contribue ensuite à anonymiser l’origine des faits, à masquer l’intentionnalité des projets et à brouiller les chaînes d’interac­tions toujours plus complexes et indistinctes, affaiblissant la possibilité politique d’agir en conscience.

    –         Elle conforte enfin l’idée ou l’idéologie qui affirment que l’histoire est fondamen­talement mue par des forces irrépressibles, qui aujourd’hui et plus que jamais, seraient puissamment à l’œuvre. Or, c’est pré­cisément contre ces effets cumulés qui n’ont cessé de se potentialiser depuis une vingtaine d’années que nous devrions nous dresser, dans la mesure où ils amoindrissent notre lucidité et menacent l’exercice de notre libre arbitre.

    « La plus grande faiblesse de la race humaine vient de son incapacité à comprendre la fonction exponentielle. » Formule énoncée par le physicien Albert Bartlett qui avait à maintes reprises alerté à propos de la dimension exponentielle qui selon lui caractérisait la modernité depuis la fin de la Seconde Guerre mondiale, et qui avait analysé nombre d’effets induits, particu­lièrement l’épuisement à terme inévitable des ressources naturelles. L’enjeu de notre époque ne consiste plus à saisir la portée de la « fonction exponentielle », mais à se demander comment se comporter dans un monde traversé de flux se déplaçant, au propre comme au figuré, à la vitesse de la lumière. Comment pouvons-nous dorénavant vivre au cœur de perpétuelles bour­rasques, comment ne pas nous laisser déborder par des événements qui se déploient et s'imposent à nous suivant des mesures toujours plus précipitées, comment pouvons-nous décider en conscience et librement du cours des choses ? Il s’agit là de questions déterminantes à portée politique, philoso­phique et anthropologique, qui interpellent de front notre responsabilité.

    À ces interrogations, une réponse parmi d’autres consisterait à introduire d’autres modalités temporelles. C’est le principe de la relativité einsteinienne qu’il faut en quelque sorte symboli­quement reprendre à notre compte, faisant valoir la multiplicité de la vie dans une multiplicité de faisceaux temporels possibles au gré du positionnement singulier adopté par chacun. Refuser de se soumettre passivement à ce régime restrictif exige de déve­lopper des temporalités contradictoires ou divergentes ne s’ali­gnant pas sur l’axiome de la « destruction créatrice » perpétuelle. Postures qui témoignent du désir de vivre à « contretemps », conformément à la notion nietzschéenne d’ inactuel qui signale la possibilité d’observer les faits à la distance critique nécessaire et de se démarquer d’un régime normatif dominant: « Une société qui n’aurait plus la force de conserver de la distance en réfléchissant à ce qui la détermine au plus profond (la soumis­sion intégrale de l’individu aux lois d’une structure marchande, par le biais d’une technique qui s’insinue partout) aurait renoncé à toute énergie politique. Sans parler de la possibilité de main­tenir une vie de l’esprit »

    Au-delà du seul rythme imposé par la conception incessante de nouvelles technologies, leur utilisation aura tout autant conduit à une compression progressive des cadences régissant le cours de la vie professionnelle et sociale. Le mode de ratio­nalité contemporain fondé sur la recherche de la meilleure pro­ductivité, de la mise en adéquation instantanée entre unités organiques ou artificielles, et de l’évitement de toute immobi­lisation inévitablement infructueuse, se formalise et se manifeste prioritairement dans une économie indéfiniment optimisée du temps. Dimension sensible dans les schémas organisationnels à l’œuvre dans la logistique industrielle fondés sur la quête d’une production menée à flux tendus, d’une réactivité réglée sur le primat du temps réel et de l’écoulement continuellement flui­difié des biens. Propension radicalisée à l’extrême dans le trading algorithmique qui délègue à des robots numériques la licence de procéder à des actes d’achat ou de vente à chaque milliseconde jugée la plus opportune. Leur aptitude à traiter des masses de données à des vitesses infiniment supérieures à nos capacités cérébrales induit de facto une asymétrie de compétence.

    Si ce mouvement technico-économique continue de se déployer selon les mêmes courbes exponentielles, deux phéno­mènes alors s’imposeront massivement.

    –         D’abord, celui qui consistera à généraliser un régime d’efficacité fondé sur la réa­lisation la plus immédiate de toute action calquée dans les faits ou comme point d’horizon sur la vitesse des processeurs.

    –        Ensuite, celui qui marginalisera de facto l’activité humaine en regard de la puissance sans cesse accrue acquise par les systèmes computationnels. C’est la place de l’être humain autant que notre liberté qui sont appelées à être amoindries par des protocoles dotés de la faculté d’initiative et dictant la forme des choses en fonction d’algorithmes visant systématiquement l’optimisation de toute situation. L’humanité en devenir est-elle vouée à s’ac­corder à la vitesse invariablement croissante qui meut les flux numériques et à être dessinée par des suites mathématiques imperceptibles visant une définition chiffrée et immédiate de tout fait, autant que l’exploitation la plus rentable de chaque occurrence spatiotemporelle? Cette question dépasse le strict cadre du capitalisme, dans la mesure où c’est un mode de ratio­nalité utilitariste qui est devenu la norme dominante qui ne cesse de s’imposer et de s’étendre à tous les pans de la société.

    C’est ce mode de rationalité qui prévaut dans les conditions de travail pratiquées tant dans les secteurs privé que public, dans l’enseignement, dans l’organisation des villes, dans la médecine, jusqu’à imprégner les relations entre les personnes. Le capitalisme a bon dos d’être la cible privilégiée de la philo­sophie politique et de la critique économique ou sociale ; ce qui devrait sans fin être analysé et déconstruit c’est le modèle technico-cognitif qui actuellement s’exerce partout, fondé sur la connaissance en temps réel des phénomènes supposée garan­tir en retour des prises de décisions les plus adéquates régulées par des algorithmes normatifs. Si cette logique-là est certes inspirée par le libéralisme, elle correspond plus largement à une propension anthropologique fondamentale aspirant à la plus haute sécurisation et optimisation de la vie, qui a peu à peu exclu les autres dimensions au moins tout autant légitimes, et qui n’a cessé de trouver depuis la fin du XVIIIe siècle les conditions pro­gressives de sa pleine réalisation, allant jusqu’à ordonner aujourd’hui massivement le cours du monde. Finalement, la conséquence principale de l’exponentiel aura consisté à étendre et à instituer cette rationalité-là suivant la même cadence, gagnant continuellement en efficacité, étant pleinement sou­tenue par la puissance du numérique. L’une et l’autre s’entre­tenant depuis des décennies mutuellement à l’intérieur d’un mouvement épistémologique et technique toujours plus com­plice et solidaire.

    La collusion à l’œuvre depuis plus d’un siècle entre un mode de rationalité prioritairement fonctionnaliste et les techniques computationnelles est aujourd’hui non seulement patente, mais atteint son acmé, imposant une raison numérique fondée sur un découpage et une mémorisation de tous les actes de la vie. Acceptons-nous d’être toujours plus intégralement régentés par ce mouvement qui s’intensifie et se perfectionne à des vitesses exponentielles, ou sommes-nous décidés à opposer des logiques fondées sur de tout autres exigences aptes à favoriser la faculté humaine de libre choix et la subjectivation des existences ? Il s’agit là d’un enjeu et d’un défi pratique décisifs, dont notre degré de réponse individuelle et collective définit d’ores et déjà la nature de notre présent et déterminera celle de l’humanité à venir. La tension entre ce mode de rationalité devenu quasi exclusif et la technè contemporaine, qui participe avec force de sa consolidation et de son expansion, doit faire l’objet de débats et de controverses publiques. Ce compagnonnage qui détermine toujours plus profondément la forme du monde et celle de nos expériences doit sans cesse être analysé, décrypté, et plus que jamais défait vu son pouvoir unilatéral et indéfiniment accru de gouvernementalité, se soustrayant de surcroît à toute délibération démocratique. Raison pour laquelle la politisation à de multiples échelles de nos rapports aux technologies numériques renvoie in fine à la question du mode de vie que nous souhaitons adop­ter et à la nécessaire vigilance à maintenir à l’égard de systèmes robotisés ordonnant toujours plus profondément la trame de nos existences. En cela, soumettre la vie algorithmique contem­poraine à une critique en acte de la raison numérique qui l’ordonne relève d’un combat politique, éthique et civilisation­nel majeur notre temps.

     


    [1] Extraits de l’œuvre de Éric SADIN qui porte ce titre, Edition L’échappée, 2015.

    [2] Christophe ROSSIGNOL ac Grenoble.fr  

     


    Date de création : 24/09/2017 @ 18:45
    Dernière modification : 24/09/2017 @ 19:01
    Catégorie : La numérisation du monde
    Page lue 47 fois


    Imprimer l'article Imprimer l'article


    Réactions à cet article

    Personne n'a encore laissé de commentaire.
    Soyez donc le premier !


    ^ Haut ^