mercredi, mai 18, 2016

(Billet invité) Emmanuelle Hoss : Tisser nos singularités au coeur du collectif

S'interroger sur les lieux  cibles des attentats du mois de novembre, c'est prendre conscience de la richesse et de la puissance de ces commerces  qui permettent la rencontre, la mixité et le brassage des singularités dans un même espace-temps. A l'heure où se vident églises et partis ,  les bars, les cafés, les restaurants, les artisans, les "petits" commerces restent les endroits où chacun peut entrer et sortir, et au détour d'un achat ou d'une question, nouer un dialogue.

Alors pourquoi cette économie de proximité, quasiment cette "écologie de la proximité", visiblement repérée par ceux qui haïssent notre société, est-elle un angle mort de la pensée politique? Pourquoi ne voit-on pas qu'elle forge le ciment de nos sociétés, qu'elle est source d'emplois, certes, mais aussi de bien être, de santé, de sécurité et qu'elle permet au fil du temps de tisser des liens comme nulle part ailleurs? C'est d'ailleurs bien l'interdiction de commercer dans les Townships qu'avait en tout premier lieu instaurée le régime de l'Apartheid, démontrant ainsi parfaitement que ces échoppes locales menaçaient leur projet de rejeter une population entière du corps social.

Se pencher sur cette nouvelle économie de proximité, à la rencontre du commerce traditionnel et des outils digitaux, constitue pourtant une réponse possible aux fameuses questions d'identité. Après tout, dis-moi ce que tu manges, dis-moi ce que tu lis, dis-moi ou tu flânes, et je te dirai qui tu es.
Nous accueillons à bras ouverts les grandes enseignes, de restauration, d'ameublement ou d'habillement, sans voir que ces enseignes captent la valeur d'un territoire (l'attractivité d'une avenue parisienne, le pouvoir d'achat d'une petite ville), au prétexte qu'elles créeraient de l'emploi.  C'est une vision de très court terme. S'ils sont créés, ce qui reste à vérifier, ce sont des emplois le plus souvent peu gratifiants, mécanisés, dans lesquels personne ne rêve de s'investir ou de rester. Alors qu'être boucher ou librairemaker ou restaurateur, c'est partager un savoir où un savoir-faire, c'est savoir accueillir, recommander et conseiller.

lundi, avril 18, 2016

Pour une économie politique des Communs

Les "Communs" reviennent en force dans le débat public. Avec une force qui mérite qu'on creuse un peu cette notion, même si elle devient l'un des buzzwords que la toile affectionne.

Les "Communs" avaient été un peu oubliés depuis quelques décennies. Malgré les travaux essentiels de l’économiste Elinor Ostrom, qui lui avaient valu un prix de la banque de Suède en matière d'économie (le "prix Nobel" d'économie), la sentence de Garett Hardin sur la "tragédie des communs" semblait définitive, dans un monde simplifié par une vulgate néolibérale assez prompte à sauter sur des conclusions rapides. Les millénaires de sociétés équilibrées exploitant en commun leurs forêts, leurs ressources halieutiques ou maintenant collectivement leurs terrasses, leurs chemins ou d'autres infrastructures semblaient complètement occultés.

Et puis, de nouveau, le concept s'est retrouvé au coeur du débat public.
Dans les faits tout d'abord, avec l'incroyable succès de grands communs contributifs comme Wikipédia, OpenStreetMapOpenFoodFacts et beaucoup d'autres à venir. Sans compter le rôle du logiciel libre dans l'existence même d'Internet et de la société dans laquelle nous vivons aujourd'hui. 
Ces différents projets contributifs ne sont pas seulement des succès de réalisation, parfois étonnants. Ils deviennent aussi des plateformes essentielles à de nombreuses activités économiques et à de nombreux services publics. Et bien souvent le dernier rempart contre la domination des grandes plateformes développées par les GAFA.
Dans la production intellectuelle ensuite, avec le succès du livre de Pierre Dardot et Christian Laval,  par exemple. Ou avec la place que prend ce concept dans le dernier opus de Jeremy Rifkin.
Dans le débat public aussi, comme en témoigne par exemple le débat noué en marge de la loi Lemaire sur la définition d'un domaine commun immatériel.
Et puis dans nos pratiques et nos usages, chez Etalab par exemple, où nous mesurons chaque jour tout ce qu'apporte un travail fondé sur le développement et l'utilisation de nouveaux communs contributifs et ouverts, comme OpenFisca ou la Base Adresse Nationale.

Dans un tel Maelström, il devenait important d'essayer de poser un peu calmement les concepts et de s'assurer quelques outils conceptuels et méthodologiques pour mieux maîtriser les débats et les activités dans lesquels nous sommes engagés au quotidien. C'est pourquoi j'ai été extrêmement heureux lorsque la Chaire Finance et développement durable de l'université Paris Dauphine, m'a proposé de travailler avec un jeune élève de l'Ecole normale supérieure, de grand talent, Charles Murciano, pour mettre un peu ces idées au clair.

Le résultat : un travail que nous avons voulu assez complet, essayant de réinterroger la distinction désormais classique entre biens communs et biens publics, d'interroger également ses transformation à l'ère de la révolution numérique, de mettre à jour les spécificités des communs numériques et de nous demander ce qu'ils apportent aujourd'hui, à l'action politique et à la pensée économique. Vous pouvez en lire l'intégralité dans la revue de la Chaire (et en Anglais).

lundi, mars 28, 2016

Sciences et big data : La fin de la théorie ?

En décembre dernier, la Revue L'Archicube m'a sollicité dans le cadre d'un numéro spécial intitulé "Responsabilité, intégrité et éthique dans la recherche". J'ai un peu hésité à répondre car je suis moins investi sur ces questions qu'il y a quelques années. 
Mais le débat qui s'est noué m'a montré qu'il y avait beaucoup d'enjeux, de craintes, et d'incompréhensions à dissiper autour de cette question des big data dans la sciences. Il m'a confirmé aussi combien cette révolution bouleverse les habitudes et les organisations, bien au-delà des prouesses mathématiques qu'elle autorise.
J'ai donc réalisé cette interview, que je partage aujourd'hui avec vous, dans une version revue et améliorée.

La science expérimentale consiste à faire des mesures pour les confronter avec des prédictions de modèles théoriques.
Jusqu’au XXe siècle, les données étaient rares et chères : on montait des « manips » pour mettre en évidence (ou invalider) certaines de ces prédictions et l’on faisait des mesures sur ces montages. Ces montages coûtaient souvent très cher, les protocoles étaient complexes et coûteux, il fallait financer des laboratoires onéreux et un personnel nombreux et qualifié. Parfois, les mesures obtenues étaient aléatoires, et la tentation étaient forte de « solliciter » les données (en éliminant par exemple des « mesures aberrantes ») pour obtenir le résultat cherché. D’où l’importance des « cahiers de laboratoire » à la disposition des referee : il était très important de pouvoir reproduire les expériences dans d’autres laboratoires.
 Aujourd'hui, les données ("Data") sont abondantes et bon marché. Est-ce que cela change la philosophie de leur exploitation ?

Je ne sais pas bien à quoi vous opposez la « science expérimentale ». Il me semble qu’il n’y a qu’une seule forme d'activité scientifique : l’activité de comprendre le réel à travers un savoir prédictif, reproductible et falsifiable, comme l’a souligné Karl Popper. Et toutes les disciplines scientifiques devraient être expérimentales, sauf, disait Kant, les mathématiques qui procèdent par construction de concept.
Il faut partir de ce point parce que c’est cela la science. Monter des « manips », comparer une prédiction à une expérience, tenir un cahier ou porter une blouse blanche, ce sont des méthodes, des organisations, des habitudes qui ont leur efficacité, mais qui pourront être remplacées un jour ou l’autre. Déjà, en astrophysique on monte des expériences entièrement virtuelles qui produisent des résultats scientifiques.

Et précisément, comme vous le dites, nous vivons avec la démultiplication des données numériques, une révolution considérable, qui bouleverse toutes les activités humaines et qui ne peut pas ne pas impacter l’activité scientifique.
Cette révolution provient de la conjonction de trois phénomènes :
-       d’une part, en effet, on produit de plus en plus de données bon marché, grâce aux nouvelles technologies de capteurs légers, grâce à de nouveaux appareillages (aujourd’hui on sait faire un satellite à moins de 3000 euros et on séquence un génome humain pour moins de 200 dollars), grâce à la possibilité de créer de la contribution massive (comme le fait OpenStreetMap), grâce à l’informatisation d’un nombre croissant de processus, mais aussi du fait d'un profond changement de nos comportements et de notre rapport à l’intime qui fait qu’un nombre croissant d'entre nous partagent, plus ou moins délibérément, une quantité extraordinaire de données.
-       D’autre part, on assiste à une révolution des méthodes et des techniques de traitement de ces données, qui en baisse le coût (grâce au « cloud computing », par exemple), qui permet de nouvelles aproches (les bases de données en flux, l’informatique massivement parallèle des big data, le machine learning, le deep learning, le regain de l'intelligence artificielle) ou qui ouvre de nouvelles approches pour interroger ces données (« machine learning » par exemple).
-       Et il y a enfin une troisième révolution, consécutive des deux précédente, qui voit naître de très nombreuses nouvelles stratégies d’utilisation de ces données. Cette troisième dimension est à mon sens la plus frappante. On ne pose plus les même questions aux données, ou on les insère dans de nouveaux dispositifs d’action. On manipule des distributions complètes, au lieu de ne traiter que les moyennes statistiques, on « éduque des modèles de prévision », on recherche des signaux faibles, on apprend à raisonner sur des probabilités.

C’est la conjonction de ces trois dimensions de la révolution de la donnée qui bouleverse la science de nombreuses manières : on peut mesurer un nombre incalculable de phénomènes qu’il aurait été trop coûteux d’appareiller, on peut rechercher des signaux faibles à un coût qui diminue à toute allure, on peut mobiliser aisément une puissance de calcul considérable, on peut mobiliser des communautés extérieures au laboratoire – voir à la recherche, on peut rechercher des corrélations insoupçonnées sans hypothèses préalables (avec le « machine learning ») ce qui ne dispense pas de les vérifier ensuite dans de solides conditions expérimentales.
Je ne prends pas à mon compte les proclamations des chantres de la "fin de la théorie", puisque précisément la science reste toujours science et a le devoir de formuler des conclusions falsifiables, prédictives et reproductibles. Mais je constate que la science peut explorer un plus grand nombre de phénomènes, détecter des signaux de plus en plus ténus, et diversifier la stratégie d’identification des hypothèses à tester.
En revanche, c’est dans la sociologie du monde scientifique que les choses changent. Car effectivement on sort d’un monde où l’on reconnaissait le chercheur aguerri au fait qu’il avait appris, durement, sur le tas, à être économe en données, à réfléchir avant d’agir, à « ne pas se lancer à l’aventure ». Et il est vrai qu’aujourd’hui cette attitude est souvent moins efficace que la plongée dans une masse de données, même imprécises ou non structurées, en laissant germer les hypothèses à partir de premières questions posées aux données.

mardi, février 09, 2016

Premier rapport annuel sur la "gouvernance de la donnée" de l'Etat

Le 16 septembre 2014, le Premier ministre instituait la fonction d'Administrateur général des données  (AGD), que j'inaugure depuis le 18 septembre dernier.
Adaptée de la fonction de Chief data officer, mais pensée en fonction des besoins de l'Etat, cette fonction vise principalement à diffuser au sein de l'Etat les nouvelles pratiques des datasciences. A l'usage, ces pratiques ne réalisent pas tant la promesse des "big data" (nous n'avons pas encore relevé au sein de l'action publique tellement de problèmes nécessitant d'énormes quantités de calcul), mais au nom des nouvelles classes d'actions qui s'inventent tous les jours avec les données.
Insensiblement, en effet, nous passons du régime de la description à celui de la prédiction, puis, plus important encore, à celui de la prescription. C'est cela qui se passe aujourd'hui d'important avec les données : l'irruption de nouvelles questions : "next best action", par exemple. Et souvent aussi de nouvelles stratégies d'action : la création de boucles de rétrocontrôle rapide, l' "empowerment" des agents, l'ouverture de référentiels accessibles à tous...
Pour remplir sa mission, l'AGD était autorisé à créer une petite équipe au sein de la mission Etalab, se voyait doté d'une capacité d'expérimentation, d'une capacité à demander à connaître la structure des données des administrations, et se voyait confier la tâche de remettre chaque année au Premier ministre un rapport sur la gouvernance de la donnée.

dimanche, octobre 11, 2015

Être et devenir

Le dimanche matin, au Studio Saint-André des Arts (mais aussi dans de nombreuses villes françaises), vous pouvez assister à la projection d'un film intitulé Être et devenir, consacré à ces familles qui choisissent d'élever elles-mêmes leurs enfants dans le respects de leurs rythmes, de leurs passions et de leurs propres talents.

C'est un film à voir et à partager. Plus précis, plus profond et plus nuancé, d'ailleurs, que ne le montre la bande-annonce.

La première fois que j'ai entendu parler de "homeschooling", c'était par un inspecteur de l'Education nationale qui me parlait de communautés dans des vallées pyrénéennes. Je pensait que le phénomène ne concernait que quelques communautés de soixante-huitards et quelques autres groupes de réactionnaires forcenés et un poil sectaires.

Il y a peut-être des asociaux qui choisissent cette voie, c'est probable. Mais ce ne sont pas ceux-là qu'a rencontrés Clara Bellar. Son film, au contraire, nous entraîne dans un monde d'adultes responsables, qui s'interrogent, s"inquiètent, échangent, expérimentent, dialoguent, apprennent et qui, finalement, osent inventer quelque chose d'essentiel.

Ce n'est pas à proprement parler une méthode que nous découvrons, mais plutôt une attitude, un parti pris. Les enfants aiment apprendre, ils savent apprendre, à bien y regarder ils apprennent tout le temps. Puis ils arrivent à l'école où l'on commence à les contraindre à apprendre, et où, bien trop souvent, cette disposition spontanée devient une contrainte. Mais que se passe-t-il si on prend cette capacité d'apprendre au sérieux et si on décide de pousser ces enfants dans leur propre logique, leur propre dynamique ? Si on les pousse à ressentir leur propre logique, à la prendre au sérieux et à la pousser au bout ?