Les sciences sociales sont-elles des sciences ? Avec Pablo Jensen sur France Culture.


(0)
68 Vues
0 commentaire
11.05.2018

C’est le propre de toute société que d'essayer de légitimer son propre ordre social afin d'assurer sa pérennité. En Occident, ce sont longtemps les dieux qui ont servi à légitimer les pouvoirs en place, jusqu'aux guerres de religion où il est apparu que la référence à Dieu n'était plus capable de fonder l'autorité politique. C'est alors la science qui a pris la relève.
Mais si les sciences naturelles sont clairement définies, il est loin d'en être pareil pour les sciences sociales. Depuis Galilée, la science moderne est censée prouver sa propre légitimité en construisant des expériences qui répondent à trois critères : être à la fois enregistrables, reproductibles, et résulter d’une seule cause. Ils sont apparemment bien difficiles à atteindre dans le domaine des sciences sociales...

Émission "Matières à penser", animée par Serge Tisseron.

Quel usage pour les mathématiques en sciences sociales ? Avec Pablo Jensen pour Liberté Académique.


(0)
119 Vues
0 commentaire
01.2019

La question se pose depuis la naissance des sciences sociales : peut-on enfermer les comportements humains dans des formules mathématiques ? Parce qu’il répondait résolument par la négative, Auguste Comte avait forgé le terme de "sociologie" pour l'opposer à la "physique sociale" du statisticien Adolphe Quételet. Dans son ouvrage Pourquoi la société ne se laisse pas mettre en équations, Pablo Jensen, physicien féru de sciences sociales, ouvre à nouveau le dossier.
Les économistes, les démographes, les sociologues, les politistes..., constate-t-il, sont tentés par la modélisation mathématique. Pour expliquer la croissance économique, la ségrégation urbaine ou encore les comportements politiques, ils utilisent des fictions raisonnées et ont recours à la simulation informatique. Aujourd'hui, certains spécialistes estiment même que, grâce aux big datas, le comportement humain serait prévisible à 93 %.
Pour montrer qu'en réalité nous sommes encore loin d'un tel résultat, Pablo Jensen ouvre la boîte noire des modélisateurs pour nous montrer à quel point la théorie est bien loin de la réalité des pratiques sociales. Certes, les modèles sont utiles mais les résultats de telles modélisations peuvent se révéler dangereux quand on commence à confondre le modèle avec la réalité sociale qui, elle, est plus imprévisible.
Une belle leçon de science et de modestie qui rappelle que le gouvernement des hommes doit être une affaire de délibération politique et non de calcul rationnel.

Un entretien mené par Vincent Debierre.

La gouvernementalité algorithmique ou l'art de ne pas changer le monde. Avec Antoinette Rouvroy à l'Ecole Normale Supérieure.


(0)
178 Vues
0 commentaire
17.10.2016

Après s'être d'abord intéressée au potentiel "prédictif" des tests de dépistage et de diagnostic génétiques et ses implications en termes d'égalités, d'opportunités sur les marchés de l'emploi et de l'assurance ainsi que dans les débats relatifs à l’État providence aux États-Unis et en Europe, Antoinette Rouvroy a commencé à s'intéresser aux implications juridiques, politiques et philosophiques des nouvelles pratiques statistiques nourries par les données numériques disponibles en quantités massives (les big data).
Elle s'est alors rendue compte que ces nouvelles pratiques de détection, de classification et d'évaluation anticipative des propensions et comportements humains fondées sur les techniques du numérique constituaient de nouveaux modes de production du "savoir", de nouvelles modalités d'exercice du "pouvoir", et de nouveaux modes de "subjectivation", bref, une nouvelle gouvernementalité algorithmique, succédant, en quelque sorte, sans pour autant les remplacer complètement, aux régimes de pouvoir - souveraineté (droit de laisser vivre et de faire mourir), régime disciplinaire (réforme des psychismes individuels par intériorisation des normes, que les individus disciplines  "incarnent"  d'eux-même) et biopouvoir (droit de faire vivre ou de laisser mourir) - mis en lumière par Michel Foucault.

30 ans après Tchernobyl, pour une critique raisonnable du scientisme et du capitalisme technoscientifique. Avec Bertrand Louart et Armel Campagne sur Radio Libertaire.


(0)
136 Vues
0 commentaire
05.04.2016

C'est en compagnie de Bertrand Louart, menuisier-ébeniste anti-industriel, qu'on procède ici à une critique raisonnable du scientisme et de ses contre-vérités, des prétentions réalistes, totalitaires et hégémoniques du mode de connaissance scientifique et de l'idéologie d'une "science pure" déconnectée de ses applications technologiques et du capitalisme, à l'occasion des 30 ans de l'explosion de Tchernobyl et des 5 ans de Fukushima.

Émission "Sortir du capitalisme".

Cours méthodiques et populaires de physique. Avec Etienne Klein à la Bibliothèque nationale de France.


(0)
471 Vues
0 commentaire
2018

Parce que la science se comprend comme le fruit d'un débat public et d'expériences controlées, et parce qu'elle se veut également méthodique - elle tient tout entière dans la démarche qu'elle met en œuvre pour forger son questionnement -, elle est aussi en constant renouvellement.
Etienne Klein, physicien, professeur à l'Ecole centrale à Paris et directeur du laboratoire de recherche sur les sciences de la matière au Commissariat d'Energie Atomique, docteur en philosophie des sciences, est tout indiqué pour nous exposer les conquêtes récentes et les problématiques de la physique contemporaine.
C'est une démarche de vulgarisation qui fait entrer en résonance physique et philosophie à vocation populaire parce que l'exercice de la raison qui nous est demandé s'adresse à tous.
Ces "cours méthodiques et populaires" doivent donc permettre à un large public de se familiariser avec la physique, ses grands noms et ses thématiques incontournables.

Une nouvelle théorie économique au service d'un nouveau modèle de développement est-elle possible ? Avec Steve Keen pour l'Agence Française de Développement.


(0)
167 Vues
0 commentaire
15.09.2017

L'économie, si on fait l'analogie avec l'astronomie, attend toujours sa révolution copernicienne. Car les économistes sont toujours persuadés que le soleil tourne autour de la terre sans qu'aucune comète ne puisse jamais la heurter. Or, nous savons aujourd'hui que les impacts de comètes ne sont pas rares, tout comme les crises financières dans le capitalisme. Pourtant, la théorie économique dominante n'en fait aucune mention.
Steve Keen, l'un des rares économistes au monde à avoir perçu l'imminence de la crise des subprimes, propose une critique radicale de l'argumentaire néoclassique des économistes. Son constat est sans appel : si les économistes continuent de délaisser des éléments aussi importants que la monnaie ou la dette, alors ils ne pourront pas empêcher l'émergence d'autres crises économiques. Pour Steve Keen, le problème fondamental des économistes mainstream est qu'ils ignorent les failles de leurs propres théories et cherchent encore moins à y remédier lorsque celles-ci apparaissent au grand jour. Il interroge les fondements de l'économie dominante pour mieux les déconstruire, à l'image de la célèbre loi de l’offre et de la demande. Steve Keen pose ainsi les bases d'une nouvelle manière de penser l'économie. Une discipline qui doit selon lui être plus ouverte sur les autres écoles de pensée, mais aussi sur les autres sciences, souvent riches d'enseignements.

Peut-on comprendre d'ou vient l'efficacité des mathématiques en physique ? Avec Etienne Klein à l'Institut d'astrophysique de Paris.


(0)
178 Vues
0 commentaire
05.01.2016

L'idée que les mathématiques sont le langage naturel de la physique est devenue banale et semble claire. Elle peut toutefois s'interpréter d'au moins deux façons, qui ne sont pas du tout équivalentes des points de vue épistémologique et philosophique :
 - soit ce langage est pensé comme étant celui de la nature même, ce qui implique que celui qui étudie la nature devra l'assimiler pour la comprendre ;
 - soit, à l'inverse, ce langage est pensé comme étant le langage de l'homme, et c'est donc nécessairement dans ce langage-là que devront être traduits les faits de la nature pour nous devenir compréhensibles.
Les progrès récents de la physique aident-ils à départager ces deux approches ?

Le régime de vérité numérique. Avec Bernard Stiegler et Antoinette Rouvroy au Centre Pompidou.


(0)
305 Vues
0 commentaire
07.10.2014

De la gouvernementalité algorithmique de fait au nouvel état de droit qu’il lui faut : c'est de ce thème dont débattent Bernard Stiegler et Antoinette Rouvroy.
Cette dernière, s'appuyant sur la notion de "régimes de vérité" chez Foucault, explore la question de savoir en quoi la "gouvernementalité algorithmique", apparue avec le numérique, constitue un nouveau mode de gouvernement des conduites, et souligne ses répercussions cruciales en termes épistémologiques, sémiotiques et juridiques. Elle met en évidence une crise de la notion de représentation, portée par l'idéologie des big data selon laquelle le traitement automatique des "données brutes" permettrait de découvrir la vérité à même le réel, en se passant de toute vérification, de toute interprétation, de toute critique. A travers le travail opéré sur ces données, qui en efface la signification, ce sont aussi trois sources d'incertitude qui tendent à être suspendues : celles de la subjectivité, de la sélectivité et de la virtualité. Tout en montrant les conséquences de cette idéologie des big data sur l'identité personnelle, qui témoigne du paradoxe d'une hyper-personnalisation mêlée à une fragmentation et un isolement de l'individu, Antoinette Rouvroy pointe également trois types de "récalcitrances" à ce mouvement, que sont l'ineffectué de l'histoire, l'ineffectué de l'avenir et la mansuétude humaine.
Bernard Stiegler, quant à lui, ajoute à ces réflexions l'idée d'un droit algorithmique qui resterait à construire. Le caractère indispensable d'une différenciation entre le fait et le droit trouve une illustration particulière à travers la réfutation du texte de Chris Andersen, The End of theory, qui postule l'inutilité de la formulation d'hypothèses et l'élaboration de théories scientifiques à l'heure des big data. Bernard Stiegler montre la nécessité d'un effort d'interprétation des données brutes, en s'appuyant sur la distinction kantienne entre l'entendement, dont les processus analytiques sont computationnels et automatisables, et la raison dont les processus synthétiques échappent au règne de l'automaticité et rendent l'individu capable de trancher et de décider. Il souligne également le lien entre l'automaticité algorithmique et les problématiques du capitalisme contemporain, en particulier ses conséquences sur l'emploi. Il est dès lors capital de mobiliser notre raison, orientée vers l'instauration de circuits de transindividuation, pour élaborer dès à présent un nouveau modèle.

Une rencontre organisée par l'Institut de recherche et d'innovation dans le cadre du séminaire Digital Studies.