L'idée que les mathématiques sont le langage naturel de la physique est devenue banale et semble claire. Elle peut toutefois s'interpréter d'au moins deux façons, qui ne sont pas du tout équivalentes des points de vue épistémologique et philosophique :
- soit ce langage est pensé comme étant celui de la nature même, ce qui implique que celui qui étudie la nature devra l'assimiler pour la comprendre ;
- soit, à l'inverse, ce langage est pensé comme étant le langage de l'homme, et c'est donc nécessairement dans ce langage-là que devront être traduits les faits de la nature pour nous devenir compréhensibles.
Les progrès récents de la physique aident-ils à départager ces deux approches ?
De la gouvernementalité algorithmique de fait au nouvel état de droit qu’il lui faut : c'est de ce thème dont débattent Bernard Stiegler et Antoinette Rouvroy.
Cette dernière, s'appuyant sur la notion de "régimes de vérité" chez Foucault, explore la question de savoir en quoi la "gouvernementalité algorithmique", apparue avec le numérique, constitue un nouveau mode de gouvernement des conduites, et souligne ses répercussions cruciales en termes épistémologiques, sémiotiques et juridiques. Elle met en évidence une crise de la notion de représentation, portée par l'idéologie des big data selon laquelle le traitement automatique des "données brutes" permettrait de découvrir la vérité à même le réel, en se passant de toute vérification, de toute interprétation, de toute critique. A travers le travail opéré sur ces données, qui en efface la signification, ce sont aussi trois sources d'incertitude qui tendent à être suspendues : celles de la subjectivité, de la sélectivité et de la virtualité. Tout en montrant les conséquences de cette idéologie des big data sur l'identité personnelle, qui témoigne du paradoxe d'une hyper-personnalisation mêlée à une fragmentation et un isolement de l'individu, Antoinette Rouvroy pointe également trois types de "récalcitrances" à ce mouvement, que sont l'ineffectué de l'histoire, l'ineffectué de l'avenir et la mansuétude humaine.
Bernard Stiegler, quant à lui, ajoute à ces réflexions l'idée d'un droit algorithmique qui resterait à construire. Le caractère indispensable d'une différenciation entre le fait et le droit trouve une illustration particulière à travers la réfutation du texte de Chris Andersen, The End of theory, qui postule l'inutilité de la formulation d'hypothèses et l'élaboration de théories scientifiques à l'heure des big data. Bernard Stiegler montre la nécessité d'un effort d'interprétation des données brutes, en s'appuyant sur la distinction kantienne entre l'entendement, dont les processus analytiques sont computationnels et automatisables, et la raison dont les processus synthétiques échappent au règne de l'automaticité et rendent l'individu capable de trancher et de décider. Il souligne également le lien entre l'automaticité algorithmique et les problématiques du capitalisme contemporain, en particulier ses conséquences sur l'emploi. Il est dès lors capital de mobiliser notre raison, orientée vers l'instauration de circuits de transindividuation, pour élaborer dès à présent un nouveau modèle.
Une rencontre organisée par l'Institut de recherche et d'innovation dans le cadre du séminaire Digital Studies.
La statistique est aujourd’hui un fait social total : elle règne sur la société, régente les institutions et domine la politique. Un vêtement de courbes, d’indices, de graphiques, de taux recouvre l’ensemble de la vie. L’éducation disparaît derrière les enquêtes PISA, l’université derrière le classement de Shanghai, les chômeurs derrière la courbe du chômage...
La statistique devait refléter l’état du monde, le monde est devenu un reflet de la statistique.
Une conférence du séminaire "Formes symboliques" organisée par le laboratoire "Linguistique, Anthropologique, Sociolinguistique" de l'équipe de recherche de l'Institut Marcel Mauss.
Nous sommes entrés dans une société de calculs. Les techniques algorithmiques qui se déploient avec le monde des big data prétendent capturer au plus près les comportements des individus et prédire ce qu’ils sont, ce qu’ils pensent et ce qu’ils vont faire.
Mais le monde devient-il pour autant plus prévisible ? Quelle liberté est laissée aux choix des individus ? Jusqu’où peut-on personnaliser sans défaire la société ? Comment peut-on comprendre et réguler les décisions des nouveaux calculateurs ?
Antoinette Rouvroy et Dominique Cardon nous aideront à appréhender les enjeux philosophiques, politiques et juridiques de cette "numérisation" du monde.
Et si notre civilisation s'effondrait ? Non pas dans plusieurs siècles, mais de notre vivant. Loin des prédictions Maya et autres eschatologies millénaristes, un nombre croissant d'auteurs, de scientifiques et d'institutions annoncent la fin de la civilisation industrielle telle qu'elle s'est constituée depuis plus de deux siècles. Que faut-il penser de ces sombres prédictions ? Pourquoi est-il devenu si difficile d'éviter un tel scénario ?
Tout au long de cet entretien, Pablo Servigne décortique les ressorts d'un possible effondrement et proposent un tour d'horizon interdisciplinaire de ce sujet fort inconfortable qu'il nomment la "collapsologie".
En mettant des mots sur des intuitions partagées par beaucoup d'entre nous, il redonne de l'intelligibilité aux phénomènes de "crises" que nous vivons, et surtout, redonne du sens à notre époque. Car aujourd'hui, l'utopie a changé de camp : est utopiste celui qui croit que tout peut continuer comme avant. L'effondrement est l'horizon de notre génération, c'est le début de son avenir.
Qu'y aura-t-il après ? Tout cela reste à penser, à imaginer, et à vivre...
Le rationalisme "à la française" a des parfums de positivisme suranné, ou tendrait du moins à évoquer davantage les noms de Lachelier, Fouillée ou Renouvier que de philosophes contemporains.
Raison, rationalisme et rationalité sont pourtant des notions revendiquées dans une certaine mesure par des penseurs aussi divers que Jules Vuillemin, Gilles Granger et Jacques Bouveresse. Mais leurs œuvres correspondent à des usages de la philosophie fort différents : tandis que Vuillemin évalue chaque système par sa force interne, Granger comprend la philosophie comme connaissance, et Bouveresse comme critique et thérapie.
L'appel à la raison suffit-il à donner cohérence et unité à ces approches ? Le rationalisme français est-il autre chose qu'une fiction obsidionale ?
Quelque chose s'est fissuré dans l'économie. Plusieurs crises – économique, financière, environnementale – se combinent en une seule, de taille gigantesque. De profondes tensions sociales se cachent derrière l'immense dette publique. Le chômage des jeunes atteint des niveaux insoutenables alors que l'emploi est confisqué par des ordinateurs et des robots. L'euro n'est plus un projet fédérateur : en déconnexion avec les réalités de l'économie, ses erreurs de conception apparaissent au grand jour.
Pourtant, il ne tient qu'à nous de transformer cette crise en une véritable opportunité de changement. Des solutions radicales mais porteuses d'espoir existent.
Paul Jorion, qui avait prévu la crise des subprimes aux États-Unis, jette depuis plusieurs années un regard décalé sur l'économie : il nous montre que l'on peut penser autrement.
Si la pensée se voit bien souvent promise aujourd’hui à la réduction à un flux de données ou au "dataisme", nous devons affirmer que "la donnée n’est pas la pensée".
Des questions se posent : qu’est-ce que lire et écrire, qu’est-ce que s’orienter dans la pensée dans un milieu où les modes de l’étude, et plus largement tout le travail intellectuel, se trouvent réorganisés et redistribués par le digital ?
Est-il possible de penser et étudier aujourd’hui sans les données numériques ? Et si la donnée n’est pas la pensée, peut-être les data peuvent-elles aider à penser ?
Mais ne convient-il pas avant tout de s’interroger sur la relation entre "les données" et le monde ? Quelle sont les conditions (documentaires, épistémologiques, politiques) de ce monde à venir ?
Lors de cette rencontre, il s’agira de susciter une relation réfléchie entre l’ "obtenu" des data et le donné du monde, de rassembler les démarches herméneutiques et les méthodes analytiques.
Si le "tout information", au sens d’une réduction du tout aux data, n’est pas "tout", il convient néanmoins de se demander dans quelle mesure les data peuvent demeurer ouvertes à l’expérience de la pensée.
Face à la prolifération des masses de données (big data) et leurs corrélations par la "raison" algorithmique, nous devons nourrir cette conviction de l’importance du maintien du travail de la pensée.