Parce que la science se comprend comme le fruit d'un débat public et d'expériences controlées, et parce qu'elle se veut également méthodique - elle tient tout entière dans la démarche qu'elle met en œuvre pour forger son questionnement -, elle est aussi en constant renouvellement.
Etienne Klein, physicien, professeur à l'Ecole centrale à Paris et directeur du laboratoire de recherche sur les sciences de la matière au Commissariat d'Energie Atomique, docteur en philosophie des sciences, est tout indiqué pour nous exposer les conquêtes récentes et les problématiques de la physique contemporaine.
C'est une démarche de vulgarisation qui fait entrer en résonance physique et philosophie à vocation populaire parce que l'exercice de la raison qui nous est demandé s'adresse à tous.
Ces "cours méthodiques et populaires" doivent donc permettre à un large public de se familiariser avec la physique, ses grands noms et ses thématiques incontournables.
Le numérique change-t-il notre rapport à l'information, à la connaissance, au réel ? Allons-nous préférer à la réalité une de ses représentations ? En quoi l'invocation répétée aux innovations est une déformation de l'idée de progrès rattachée aux philosophes des Lumières ?
Etienne Klein nous rappelle que pour accepter de sacrifier du présent personnel au nom d’une certaine idée du futur collectif, il faut un rattachement symbolique au monde et à son avenir. Et alors que les sciences sont de plus en plus spécialisées et complexes et que les technologies nous dépossèdent un peu plus chaque jour d'une compréhension et d'un maitrise effective de notre environnement immédiat, saurons-nous relever ce défi ?
Les algorithmes : ils ont été présentés comme l’idéal de la recommandation culturelle. Grâce à eux, vous trouvez tout ce que vous cherchez, et vous faites sans cesse de nouvelles découvertes. Or, les algorithmes ne fonctionnent que sur ce qui, d’une expérience culturelle, peut être modélisé par les mathématiques.
Alors, ça fonctionne comment, un algorithme ? Quels sont ses avantages ? Est-il possible de valoriser un conseil et une médiation culturelle qui ne soient pas réductibles à des formules mathématiques ?
Les algorithmes, au cœur de l’économie de l’attention, méritaient bien un développement...
Une conférence qui s'inscrit dans le cycle "Pour un numérique humain et critique".
De la gouvernementalité algorithmique de fait au nouvel état de droit qu’il lui faut : c'est de ce thème dont débattent Bernard Stiegler et Antoinette Rouvroy.
Cette dernière, s'appuyant sur la notion de "régimes de vérité" chez Foucault, explore la question de savoir en quoi la "gouvernementalité algorithmique", apparue avec le numérique, constitue un nouveau mode de gouvernement des conduites, et souligne ses répercussions cruciales en termes épistémologiques, sémiotiques et juridiques. Elle met en évidence une crise de la notion de représentation, portée par l'idéologie des big data selon laquelle le traitement automatique des "données brutes" permettrait de découvrir la vérité à même le réel, en se passant de toute vérification, de toute interprétation, de toute critique. A travers le travail opéré sur ces données, qui en efface la signification, ce sont aussi trois sources d'incertitude qui tendent à être suspendues : celles de la subjectivité, de la sélectivité et de la virtualité. Tout en montrant les conséquences de cette idéologie des big data sur l'identité personnelle, qui témoigne du paradoxe d'une hyper-personnalisation mêlée à une fragmentation et un isolement de l'individu, Antoinette Rouvroy pointe également trois types de "récalcitrances" à ce mouvement, que sont l'ineffectué de l'histoire, l'ineffectué de l'avenir et la mansuétude humaine.
Bernard Stiegler, quant à lui, ajoute à ces réflexions l'idée d'un droit algorithmique qui resterait à construire. Le caractère indispensable d'une différenciation entre le fait et le droit trouve une illustration particulière à travers la réfutation du texte de Chris Andersen, The End of theory, qui postule l'inutilité de la formulation d'hypothèses et l'élaboration de théories scientifiques à l'heure des big data. Bernard Stiegler montre la nécessité d'un effort d'interprétation des données brutes, en s'appuyant sur la distinction kantienne entre l'entendement, dont les processus analytiques sont computationnels et automatisables, et la raison dont les processus synthétiques échappent au règne de l'automaticité et rendent l'individu capable de trancher et de décider. Il souligne également le lien entre l'automaticité algorithmique et les problématiques du capitalisme contemporain, en particulier ses conséquences sur l'emploi. Il est dès lors capital de mobiliser notre raison, orientée vers l'instauration de circuits de transindividuation, pour élaborer dès à présent un nouveau modèle.
Une rencontre organisée par l'Institut de recherche et d'innovation dans le cadre du séminaire Digital Studies.
Nous sommes entrés dans une société de calculs. Les techniques algorithmiques qui se déploient avec le monde des big data prétendent capturer au plus près les comportements des individus et prédire ce qu’ils sont, ce qu’ils pensent et ce qu’ils vont faire.
Mais le monde devient-il pour autant plus prévisible ? Quelle liberté est laissée aux choix des individus ? Jusqu’où peut-on personnaliser sans défaire la société ? Comment peut-on comprendre et réguler les décisions des nouveaux calculateurs ?
Antoinette Rouvroy et Dominique Cardon nous aideront à appréhender les enjeux philosophiques, politiques et juridiques de cette "numérisation" du monde.
C'est à l'initiative de Bernard Stiegler que l'association Ars Industrialis a été créée le 18 juin 2005 en se présentant alors comme une "Association internationale pour une politique industrielle de l’esprit".
Car à notre époque, la vie de l'esprit, selon les mots d'Hannah Arendt, a été entièrement soumise aux impératifs économiques, et aux impératifs des industries culturelles, et des industries de l’informatique et des télécommunications. Ce secteur peut être défini comme celui des technologies de l’esprit.
À la critique du dévoiement de ces technologies comme instruments de contrôle des comportements, c'est à dire des désirs et des existences, Ars Industrialis associe la proposition centrale de former une écologie industrielle de l'esprit.
Retour sur la trajectoire et la dynamique Ars industrialis en compagnie de Bernard Stiegler et des nombreuses personnes qui se sont agrégées au projet.
Le propos de Dominique Cardon est d'éclairer les enjeux sociaux, éthiques et politiques qui accompagnent le développement du calcul algorithmique. Il prête attention au principal foyer des bouleversements en cours : celui des données numériques et, plus spécifiquement, du classement de l'information sur le web. Sa conviction est que, face au déploiement de la société des calculs, il est nécessaire d'encourager la diffusion d'une culture statistique vers un public beaucoup plus large que celui des seuls spécialistes.
Dominique Cardon vient nous aider à comprendre la logique des algorithmes, les valeurs et le type de société qu'ils promeuvent afin de donner à chacun les moyens de reprendre du pouvoir dans la société des calculs.
Si la pensée se voit bien souvent promise aujourd’hui à la réduction à un flux de données ou au "dataisme", nous devons affirmer que "la donnée n’est pas la pensée".
Des questions se posent : qu’est-ce que lire et écrire, qu’est-ce que s’orienter dans la pensée dans un milieu où les modes de l’étude, et plus largement tout le travail intellectuel, se trouvent réorganisés et redistribués par le digital ?
Est-il possible de penser et étudier aujourd’hui sans les données numériques ? Et si la donnée n’est pas la pensée, peut-être les data peuvent-elles aider à penser ?
Mais ne convient-il pas avant tout de s’interroger sur la relation entre "les données" et le monde ? Quelle sont les conditions (documentaires, épistémologiques, politiques) de ce monde à venir ?
Lors de cette rencontre, il s’agira de susciter une relation réfléchie entre l’ "obtenu" des data et le donné du monde, de rassembler les démarches herméneutiques et les méthodes analytiques.
Si le "tout information", au sens d’une réduction du tout aux data, n’est pas "tout", il convient néanmoins de se demander dans quelle mesure les data peuvent demeurer ouvertes à l’expérience de la pensée.
Face à la prolifération des masses de données (big data) et leurs corrélations par la "raison" algorithmique, nous devons nourrir cette conviction de l’importance du maintien du travail de la pensée.