La promesse qui accompagne les big data, c’est que la collecte massive de données permettra de prévoir la plupart des phénomènes, comportements humains compris. Pour le pire et le meilleur.
Demain, la virtualisation de toute information rendra possible la prise en charge automatisée des biens et services. Les transports en commun deviendront impossibles à frauder et optimiseront le trafic pour un coût écologique minimum. Des senseurs intelligents s’assureront d’une consommation énergétique sobre. Les contrats, financiers et autres, ne souffriront d'aucune défection possible et des algorithmes prédictifs préviendront toute activité criminelle.
L'interdit le deviendra vraiment et la privation remplacera la punition. Un gouvernement algorithmique ne se laissera plus provoquer par la liberté humaine.
Mais cette provocation constante n'est-elle pas précisément ce qui suscite le débat, renvoyant au projet collectif ? Souhaitons-nous vraiment être gouvernés par Big Brother ?
Cette conversation entre la juriste Antoinette Rouvroy et l'informaticien spécialiste en IA Hugues Bersini, oppose deux visions radicalement opposées : l'une résolument technophile, l'autre beaucoup plus circonspecte, et c'est un euphémisme...
En écho aux révoltes récentes des prisonniers et à leur situation critique face au coronavirus, aux violences policières à caractère raciste, la spécialiste du système carcéral et de ses contestations Gwenola Ricordeau nous propose une analyse critique du système pénal et carcéral à partir de Capitalisme carcéral (Divergences, 2020) de Jackie Wang et de La couleur de la justice. Incarcération de masse et nouvelle ségrégation raciale aux États-Unis (Syllepse, 2017) de Michelle Alexander.
Émission "Sortir du capitalisme", animée par Armel Campagne.
Les algorithmes, suites d'instructions élémentaires, existent depuis l'Antiquité. Ces "savoir-faire" n'ont cessé depuis de se perfectionner et sont appliqués à de nombreux domaines. C'est aux ordinateurs que l'on doit leur pénétration massive dans les sciences contemporaines.
Ces algorithmes informatiques ont évolué vers de nouvelles formes, comme le Deep Learning, et sont passés du statut d'outils développés par les chercheurs au rang d'acteurs de la recherche. S'achemine-t-on vers la disparition du chercheur humain et son remplacement par des robots ?
Le philosophe Bernard Stiegler apporte un éclairage sur cette transformation algorithmique qui concerne tant la science fondamentale que la société, propose des exemples de ses applications dans plusieurs champs scientifiques et s'interroge sur les enjeux actuels pour la société.
Une conférence qui s'inscrit dans la 16e rencontre "Physique et interrogations fondamentales",
Le XXe siècle aura été un riche incubateur d'idées et d'approches novatrices, dont les répercussions se font encore sentir aujourd'hui.
Accompagné de plusieurs spécialistes, le philosophe Normand Baillargeon aborde les problématiques de l'école pour tous comme idéal de démocratisation de l'éducation, de l'écologie et du mouvement environnemental, discute d'intelligence artificielle ou encore d'économie de marché.
Tout au long de cette série d'émissions, il souhaite offrir des clés de compréhension afin que chaque citoyen puisse saisir les enjeux des grandes idées scientifiques, politiques et philosophiques qui façonnent le monde d'aujourd'hui et de demain.
Comment le droit occidental, résultat d'une longue et lente sédimentation langagière dans une civilisation du signe et du texte peut-il s'accommoder d'une révolution numérique en passe de nous faire basculer dans une civilisation du signal numérique asémantique mais calculable, une civilisation de l'algorithme ? Comment la fonction anthropologique du droit - si "faire de chacun de nous un homo juridicus est la manière occidentale de lier ensemble les dimensions biologique et symbolique constitutives de l'être humain" (Alain Supiot) - peut-elle coexister avec une perspective cybernétique selon laquelle la dimension biologique comme la dimension symbolique de l'existence humaine ne seraient plus appréhendées que comme de purs flux de données quantifiables ?
Le droit et les algorithmes de l'univers numérique présupposent, génèrent et promeuvent des rapports au monde, des régimes de vérité ou d'opérationalité, des formes de légitimité ou d'a-référentialité qui s'opposent trait pour trait.
Il n'est pas inutile d'y insister à l'heure où l'acclimatation des individus aux appareils numériques connectés se transforme en phénomène d'addiction de masse permettant la récolte ubiquitaire et continue des moindres phéromones numériques proliférant de leurs comportements d'une part, et où, d’autre part, la rationalité algorithmique - ou l’abandon des ambitions de la raison moderne (causale, interprétative), au profit du calcul et de l'optimisation (corrélations, induction) – qui semble sur le point de coloniser l'ensemble des secteurs d'activité et de gouvernement, y compris les secteurs de la police (police prédictive) et de la justice (justice prédictive).
Après s'être d'abord intéressée au potentiel "prédictif" des tests de dépistage et de diagnostic génétiques et ses implications en termes d'égalités, d'opportunités sur les marchés de l'emploi et de l'assurance ainsi que dans les débats relatifs à l’État providence aux États-Unis et en Europe, Antoinette Rouvroy a commencé à s'intéresser aux implications juridiques, politiques et philosophiques des nouvelles pratiques statistiques nourries par les données numériques disponibles en quantités massives (les big data).
Elle s'est alors rendue compte que ces nouvelles pratiques de détection, de classification et d'évaluation anticipative des propensions et comportements humains fondées sur les techniques du numérique constituaient de nouveaux modes de production du "savoir", de nouvelles modalités d'exercice du "pouvoir", et de nouveaux modes de "subjectivation", bref, une nouvelle gouvernementalité algorithmique, succédant, en quelque sorte, sans pour autant les remplacer complètement, aux régimes de pouvoir - souveraineté (droit de laisser vivre et de faire mourir), régime disciplinaire (réforme des psychismes individuels par intériorisation des normes, que les individus disciplines "incarnent" d'eux-même) et biopouvoir (droit de faire vivre ou de laisser mourir) - mis en lumière par Michel Foucault.
Le professeur de Digital Humanities à l'EPFL Frédéric Kaplan met en évidence le processus de machinisation dans lequel s'inscrit le livre, ce processus ayant pour finalité d'inscrire un objet dans une certaine fonction qui lui est propre et qui suffit à le définir complètement. Mais le livre n'a pas encore atteint ce stade en ce qu'il permet d'organiser un discours dans l'espace : le livre a une fonction "architecturante".
C'est ici qu'il faut distinguer le livre de l'encyclopédie : alors que le livre organise un discours, l'encyclopédie englobe le monde. Cette dernière décompose le livre en noeuds sémantiques afin d'en extraire des contenus en vue d'une standardisation, tout en s'interrogeant sur les pratiques de lectures afin d'en tirer des "reading analytics".
Le livre demeure ainsi une entité fermée contenant des données qui peut donc, contrairement à l'encyclopédie, innover, mais dont la forme actuelle reste menacée : l'avenir seul pourra nous dire quel sera le livre de demain.
Mark Hunyadi travaille depuis longtemps dans le domaine de la philosophe morale. Des questions nouvelles se posent alors que l'homme évolue dans un univers toujours plus robotisé.
Les robots peuvent-ils être considérés comme agents moraux ? Ou nous posent-ils seulement des problèmes moraux ? Est-il possible de "responsabiliser" une machine exécutant un algorithme ?
Mais, avant toute chose, l'éthique peut-elle être définie clairement et, plus encore, réduite à un calcul ?
Une conférence organisée par le "Laboratoire d'Analyse et d'Architecture des Systèmes - CNRS".