TIC

PARTICIPATION, FAB LAB ET TRANSFORMATION DU MONDE

Les Fab Labs, ces laboratoires de fabrication, proposent un accès démocratique aux outils de fabrication, ils permettent à plusieurs personnes de travailler ensemble, selon un processus de conception ouvert. Et ce sont ces processus de collaboration ouverts qui posent des questions aux acteurs publics : faut-il considérer les Fab Lab comme de nouvelles formes de services publics ? La question pourrait paraître incongrue, pourtant, dans de nombreux endroits (Etats-Unis, Grande-Bretagne, Singapour, France, Barcelon…), les autorités publiques réfléchissent à l’impact de ces lieux sur la société et préparent des politiques de soutien à ces nouvelles formes de fabrication. Si l’un des objectifs de ces investissements est de relocaliser l’industrie manufacturière, dans les faits, avant de passer à la phase de régulation, ils sont pour l’instant dans la première phase, celle de la promotion visant à développer le réseau et les systèmes de fabrication numériques. Par conséquent, la conception ouverte que les Fab Labs promeuvent peut-elle insuffler de nouvelles valeurs aux décideurs politiques ? Les process Bottom Up remplacer les process Top Down, les procédures distribuées, les procédures centralisées ? Pour les analystes la participation n’est pas l’objet de cette nouvelle culture du DIY (do it yourself), du prototype, de la cocréation et de l’ouverture, c’est un levier. Un levier pour transformer le monde et ses valeurs. Et il y a selon eux une possibilité pour que les pouvoirs publics s’en emparent et relaient ces valeurs que le numérique propose via une gamme d’outils pour se réapproprier le pouvoir, pour proposer de nouvelles façons de faire politique. Plus que les outils et inventions, ce sont elles qui changeront le monde, qui nous aideront à le réparer et à nous le réapproprier.

Lire l’article

CE QUE LA VOITURE SANS CHAUFFEUR NOUS APPREND

Pour le responsable du programme de voiture autonome de Google, il n’y a pas de problèmes juridiques et réglementaires liés à la responsabilité, si ce n’est pour les fabricants de voitures. Une raison à la difficulté de passer du prototype à la production de masse, mais pas la seule : les capteurs (caméras, lasers…) et ordinateurs de bords sont pour l’instant trop coûteux pour être largement déployés, l’utilisation d’une voiture autonome n’est pas adaptée en dehors des autoroutes (elle ne saura pas à quel conducteur s’adresse un feu par exemple), et surtout le passage de relai entre le pilote automatique et le pilote humain est problématique. En effet, avec un véhicule autonome, il est très facile de ne plus être concentré et très difficile de le redevenir. L’utilisation des pilotes automatiques dans les avions érode les compétences des pilotes et émousse leurs réflexes, dans de nombreuses entreprises nous prenons des décisions à partir de systèmes qui nous aident, au risque de moins comprendre les risques : l’automatisation nous transforme en observateurs, inhibant le développement de nos compétences. L’autre révélation que nous apporte le cas de la voiture autonome est l’incapacité actuelle à imaginer le progrès hors d’évolutions technologies bouleversantes, privées et chères : il est plus facile d’imaginer le déploiement d’une technologie futuriste qui n’existe pas au-delà des labos où elle est testée que d’envisager l’expansion d’une technologie qui est déjà largement utilisée à travers le monde, telle le train. Nous en serions ainsi venus à ce qu’une technologie hautement spéculative, financée par des sociétés privées, soit vue comme un futur plausible, alors que les technologies ordinaires, financées par nos gouvernements sont vues comme irréalistes et impossibles. Pour l’auteur, nous avons le choix entre l’action collective ou les solutions individuelles que seuls les plus riches pourront s’offrir. Un moyen de remettre le débat autour de la voiture autonome dans une perspective plus large sur le choix de société pour lequel nous voulons opter. Le facteur humain à améliorer n’est pas que celui capable de piloter la machine, c’est aussi celui capable de décider quelle société et quel avenir il souhaite mettre en place…

Lire l’article

VERS UN NOUVEL ÉCOSYSTÈME ARTISANAL DANS LE DOMAINE LOGICIEL ?

On a tendance à constater que, dans le domaine logiciel, le numérique favorise la concentration et la domination de nouveaux systèmes techniques, tout comme, dans celui des produits, la globalisation et l’automatisation ont favorisé la concentration industrielle et manufacturière. A l’heure de la production standardisée et globalisée, reste-t-il encore un espace pour une nouvelle forme d’artisanat ? Pour des experts, il manque encore aujourd’hui une offre packagée pour les startups du matériel. Or, on constate plutôt l’existence d’une véritable “fracture numérique” entre les startups hardware, leurs idées improbables et le réseau traditionnel des sous-traitants de l’électronique et de la plasturgie… qui vous demandent vos trois derniers bilans avant d’envisager peut-être pouvoir travailler avec vous. Pour arriver à faire la longue traîne du Made in France, il y a besoin que ces deux univers se rencontrent. Ce qui est le cas en Chine par exemple, pas tant pour une question de coût ou de savoir-faire, mais plutôt d’agilité : pour eux la “réindustrialisation” est avant tout une question d’ouverture à l’innovation plus que de compétitivité économique…

Lire l’article

 

LE FUTUR DU TRAVAIL À L’ÈRE NUMÉRIQUE, ENTRE NOUVELLE ORGANISATION MONDIALE DES COOPÉRATIONS INDIVIDUELLES ET NOUVEAUX MODÈLES DE DOMINATION

Le numérique porte en lui une marchandisation de soi inédite, qu’elle soit explicite – on vend ses services comme on vend sa voiture sur Le Bon Coin (aujourd’hui deuxième site emploi de France), on tweete pour se faire remarquer des recruteurs – ou implicite (toute information devient monétisable, tous nos comportements sur le web sont susceptibles d’être “trackés” et dévoilés à des fins de vente…). Dans ce Nouveau Monde où même la vie privée devient marchande émergent les problématiques du travail “caché”, “invisible” ou “gratuit” : nous produisons constamment de la donnée “en nous amusant”, sans être rémunérés. Pour autant, parce qu’il permet notamment de faire du loisir un travail, et vice-versa, le numérique a rendu possible la construction collective de biens communs à l’échelle internationale, sans rémunération, dont Wikipedia est le meilleur exemple. De nouvelles conceptions de la création de valeur peuvent donc désormais être explorées, à partir de la valeur du réseau (la richesse de la mise en relation des idées) et de la richesse du nombre (1 milliard de personnes travaillent gratuitement pour Facebook). Dans ce cadre, plusieurs acteurs du numérique proposent de nouveaux modèles de mesure de la valeur et de la rémunération:

  • Les value driven networks (ou “réseaux guidés par la valeur”) : les contributions sont acceptées à priori, puis la communauté juge de leur valeur, et les rémunère en conséquence. Le contributeur peut ensuite devenir sociétaire.

  • La Peer production License (ou “licence de production de pairs à pairs”) : toutes les personnes contribuant à la production d’un bien commun peuvent en bénéficier gratuitement, les autres doivent payer une licence pour l’exploiter (comme si Wikipedia n’était accessible gratuitement qu’à ses contributeurs).

  • La redistribution de la taxe sur les données (proposition de Colin & Collin, auteurs du rapport sur la fiscalité de numérique) : une partie de la valeur de Facebook est créée par les utilisateurs, elle pourrait être taxée pour les rétribuer.

  • Le micro-paiement universel : toute contribution devrait être rémunérée (le moindre post sur Facebook nous rapportait de l’argent).

  • L’économie du partage, en plein boom, qui supprime des intermédiaires et permet de monétiser des actifs qui, auparavant, ne l’étaient pas : c’est le modèle d’AirBnB, qui permet à chacun d’être rémunéré en qualité d’hôte

  • L’invention d’un nouveau système monétaire virtuel, comme celui des Bitcoins, qui viendrait se substituer à celui qui existe actuellement.

  • Ou encore, le revenu de base inconditionnel (proche du revenu minimum garanti).

Dès lors, en érigeant de nouvelles normes de la valeur du travail et de la rémunération, les architectes du Nouveau Monde vont-ils créer les conditions du bonheur et de l’égalité pour tous ? Rien n’est moins sûr, prévient Alain d’Iribarne, chercheur au CNRS, car “le bien commun est commun pour le groupe social qui le considère comme tel”. Selon lui, les nouveaux modèles nés de la transformation numérique ne font pas exception : à l’instar du modèle de l’entreprise, ils sont le produit d’une construction sociale. Alors, le numérique va-t-il faire émerger une inédite organisation mondiale des coopérations individuelles ou, à l’inverse, de nouveaux modèles de domination à une échelle tout aussi spectaculaire ?

Lire l’article

INTERNET : VERS LA FIN DES BOX ?

Si vous lisez ces lignes, c’est que vous disposez certainement d’une connexion internet. Qui vous connecte ? Orange, Free ou SFR, ou un des Fournisseurs d’accès à internet (FAI) associatifs ? Aujourd’hui, 21 d’entre eux, tous gérés par des bénévoles, sont rassemblés au sein d’une fédération dont les principes fondateurs sont le bénévolat, la solidarité, le fonctionnement démocratique et à but non lucratif, la défense et la promotion de la neutralité du Net. Du très local au national, ces Fai adoptent des fonctionnements différents : Sameswireless par exemple dans les Pyrénées atlantiques a mis en place des antennes relais et amené le wifi bien avant les opérateurs, qui n’ont pu qu’offrir un moins bon service pour plus cher, n’attirant guère de clients ; Aquilenet ou Illyse fonctionnent quant à eux avec la fibre ou une connexion Adsl. Avec ces fournisseurs, il suffit de demander un abonnement au service d’accès Internet pour votre ligne, remplacer la box classique par un modem à brancher sur cette ligne pour être ainsi connecté au réseau associatif concerné. Si durant des années, ces associations n’ont rassemblé que quelques militants convaincus de la pertinence d’un accès internet non lucratif, le mouvement connaît aujourd’hui un nouvel engouement. En effet, face aux attaques de plus en plus visibles et explicites de la part de nombreux lobbys contre la « neutralité du net » (quand les fournisseurs ne résistent plus à la tentation d’utiliser la valeur des informations qui passent par les tuyaux), une quarantaine de projets se développent actuellement avec le soutien de la Fédération. L’appropriation collective des moyens de communication est en route…

Lire l’article

BIOLOGIE ET TECHNOLOGIE À LA SOURCE D’UN URBANISME DU FUTUR

Les villes de demain, d’après certains prospectivistes, pourraient bien s’élaborer à partir d’imprimantes 3D, de biologie synthétique et de robotique. D’après eux dans un premier temps, les outils à disposition vont se perfectionner et se standardiser. Puis, dans environ une décennie, la biologie et la technologie commenceront à fusionner. Dans un avenir plus lointain, notre vision de la construction devrait vraiment changer : « des bactéries seront modifiées pour cibler des matériaux spécifiques, comme le vieux béton. Lâchées dans les cités, elles remplaceront le vieil équipement avec une glu bactérienne structurellement plus intelligente, dotée d’accès au réseau et de capacités de calcul… Des ordinateurs cellulaires seront libérés dans les écosystèmes, captant les propriétés chimiques de l’environnement. Des cuves de bactéries produiront des carburants, des ressources protéiniques, de l’eau… ». Au final l’architecture se rapprochera de la vie telle que nous pouvons la voir à l’œuvre dans les végétaux. Quelques exemples de travaux contemporains pointent déjà dans cette direction : un système permettant “d’imprimer” des maisons à partir de sable, des systèmes multi-agents qui génèrent des “essaims de robots” décentralisés capables d’effectuer une tâche de manière collective, des organismes génétiquement modifiés susceptibles de construire des matériaux durables… De fait, l’architecture est dans l’esprit de bon nombre des pionniers de la biologie synthétique, qui n’hésitent pas à envisager des “maisons qui poussent”. Trop souvent les spéculations de prospective se concentrent sur une seule technologie et restent larges dans l’étendue de leurs prédictions, alors que les transformations procèdent de combinaisons de technologies s’appliquant de façons différentes. Dans ce scénario, c’est la synchronisation de méthodes variées, certaines opérant au niveau micro, voire nano, et d’autres à l’échelle macro, qui entraîne un résultat qui rappelle certaines des prophéties les plus folles. On le voit, la plupart des briques de base sont déjà là. Ne reste plus qu’à les faire passer à l’échelle…

Lire l’article

 

LES ENJEUX DE LA MONTÉE DE LA SURVEILLANCE

Aux Etats-Unis, le FBI a émis des dizaines de milliers de lettres de sécurité nationale ultra secrètes pour collecter toutes sortes de données sur les personnes et en a abusé pour espionner les utilisateurs de services de cloud computing. Il peut recueillir un large éventail de données personnelles d’internet sans mandat, intercepter les données de téléphones portables et utiliser un micro sur certains téléphones classiques. Le département de la sécurité intérieure américain collecte également une quantité massive de données sur les personnes, et les services de police locaux organisent des “centres de fusion” pour collecter et analyser ces données pour dissimuler les ratés de ce programme. Et le gouvernement qualifie régulièrement des choses, non pas parce qu’elles ont besoin d’être secrètes, mais parce que leur libération l’embarrasserait, alors que savoir comment le gouvernement espionne est important. Non seulement parce que l’essentiel de cet espionnage est illégal mais parce que la démocratie exige des citoyens bien informés afin de fonctionner correctement, et que la transparence et la responsabilité sont des éléments essentiels de cela (le gouvernement sert la volonté du peuple, et le gouvernement doit toujours avoir à justifier ce qu’il fait).L’enjeu n’est pas de savoir ce qu’ils font, mais quelle est la justification du recours au secret, et jusqu’où ils vont, ou pour le dire autrement, que la classification des actions ne doit pas signifier la classification des bilans ou des méthodes. La technologie donne au renseignement une puissance sans précédent. En retour nous devons exiger que le bilan qui nous en est livré soit lui aussi plus puissant, afin que nous puissions mieux armer la régulation et nos contre-pouvoirs. La surveillance des gouvernants est primordiale, elle doit être organisée, encadrée et régulièrement revisitée. Face à la montée de la surveillance, la dénonciation est la seule arme des citoyens. Cela signifie donc que nous devons l’armer légalement.

Lire l’article

LES DESSOUS DES LABS

Vous en avez assez des « labs » ? Difficile de vous le reprocher… Sur les dizaines d’annonces régulières de nouveaux laboratoires d’innovation (sociale, numérique, administrative, qu’ils soient d’initiative privée ou publique), combien relèvent d’un « me-too marketing » qui contribue à dévaluer un concept pourtant fertile ? C’est donc avec la volonté d’explorer le travail des « labs » de façon plus approfondie et d’échanger sur les échecs, nombreux mais rarement exprimés, qu’une quarantaine de labs-like du monde entier ont été réunis. Les participants reflétaient une très grande diversité d’objectifs et de thèmes : en Afrique du Sud, Ushahidi anime un logiciel de crowdsourcing, né pour collecter les témoignages de violence envoyés par email et SMS et les placer sur Google Maps ; en Grande-Bretagne, le Finance Lab explore de nouveaux modèles de systèmes financiers au services des populations ; au Cambodge, le Human Centered Innovation Lab co-conçoit des équipements du quotidien avec les habitants. Toutes ces initiatives sont réunies par une volonté de transformation active et « avec les gens », ce sont des plateformes créatives pour expérimenter des solutions en dehors du système dominant. Si leurs temps d’intervention fluctuent, elles utilisent toutes des méthodes comparables (sciences sociales, pratiques ethnographiques, design de service, technologies ), expriment une vraie difficulté à exprimer des valeurs (mettant plus vite en avant les méthodes que le sens), et s’interrogent sur leur business model, l’évaluation de leur impact, et leur passage à l’échelle, qui peut s’envisager de différentes façons. Les labs doivent pour cela choisir le rôle qu’ils veulent se donner (chercher à changer le système, ou développer une aptitude à survivre à côté du système), et donc se prendre aujourd’hui la question type de tous les moteurs de transformation sociale …

Lire l’article

L’INNOVATION ÉDUCATIVE, UNE QUESTION ÉCONOMIQUE AVANT TOUT

L’éducation paraît partout en crise. La question économique est au coeur de la question scolaire, et plus que renouveler l’apprentissage, les nouvelles technologies remettent en question l’économie même de l’éducation, en proposant une offre censée être plus économique…

Les partisans des Mooc (cours massifs gratuits en ligne, notamment des grandes écoles) y voient un outil pour lutter contre la hausse des coûts des universités, une baisse de qualité et l’augmentation du taux d’abandon qui y est observé. Et mettent en avant leur pouvoir de générer d’immenses quantités de données pour rendre l’apprentissage automatique encore plus efficace, puisque le logiciel regarde pour chaque cours si un étudiant fait une pause ou augmente la vitesse de lecture (chaque action permettant au système de s’améliorer).

Pourtant, les résultats de l’informatisation à l’école n’ont pas été forcément ceux attendus : là où il s’est installé, le numérique n’a pas eu d’effet majeur sur les résultats scolaires des élèves, ni sur le taux d’abandon. Ses détracteurs lui reprochent le manque de richesse amenée par les échanges entre élèves et avec les professeurs, ainsi qu’une vision plus informaticienne que pédagogique. Certains craignent même que les cours en ligne soient une distraction pour les enseignants et qu’ils finiront pas nuire à la qualité de l’éducation offerte sur le campus. L’étude des programmes de cours par correspondance des années 1920 montre que bien souvent la qualité de l’instruction n’était pas à niveau et que seule une infime partie des personnes inscrites ont effectivement suivi les cours. En 1928, un éminent pédagogue américain a prononcé un réquisitoire contre les études par correspondance. En 1930, partout, l’engouement avait fait long feu.

En tout état de cause, cette bataille de l’accès aux cours en ligne est depuis l’origine une bataille d’innovation scolaire entre grandes écoles, qui utilisent ces outils pour améliorer leur notoriété internationale dans la grande lutte pour le recrutement des meilleurs élèves et des meilleurs professeurs. L’enjeu est donc économique, et comporte deux risques majeurs : le risque que les Moocs, par le développement d’une hyperconcurrence entre écoles, puissent démanteler le réseau scolaire américain lui-même, et celui de la “mcdonalisation” de l’enseignement. Reste aujourd’hui aux formes anciennes d’enseignement à démontrer à leur tour leur valeur, montrer que leurs coûts peuvent être justifiés.

Lire l’article

VERS UN BUSINESS DE L’INFORMATIQUE QUANTIQUE

Le champ de l’informatique quantique est-il véritablement en train de démarrer ? C’est certainement vrai dans le domaine scientifique, puisqu’il ne se passe pas une semaine sans que la presse spécialisée ne relate une avancée, mais la question se pose aujourd’hui également en termes commerciaux. En effet, pour la première fois, des applications “pratiques” vont être développées grâce aux ordinateurs quantiques D-Wave. Ces derniers ne sont pas des ordinateurs génériques, mais sont conçus pour exécuter une tâche, résoudre des problèmes d’optimisation combinatoire (autrement dit, trouver la meilleure solution parmi un ensemble de possibilités). Sans que cela ne change grand chose à notre informatique personnelle, ces ordinateurs peuvent se montrer utiles dans de nombreuses applications pratiques, de la finance à la modélisation moléculaire ou à l’apprentissage automatique. Dans le futur proche, on peut penser qu’on y aura recours pour des applications de supercalcul, dans des tâches commerciales d’optimisation où une simple heuristique peut suffire aujourd’hui, et peut-être oeuvrera-t-il dans l’ombre d’un gigantesque Centre de données internet, aidant à la reconnaissance des images et à d’autres formes de magie de l’intelligence artificielle. Dans la plupart des cas, l’ordinateur quantique jouera le rôle d’un coprocesseur au sein d’un cluster d’ordinateurs classiques.” Selon une importante entreprise de défense américaine, on pourrait ainsi utiliser la computation quantique pour créer de nouveaux systèmes de contrôle des radars, et gérer aussi de complexes problèmes liés à l’aéronautique et à l’espace. Il pourrait être possible, par exemple, de savoir instantanément comment les millions de lignes d’un logiciel pilotant un réseau de satellites pourraient réagir à une éruption solaire ou au souffle d’une explosion nucléaire – des calculs qui demanderaient aujourd’hui des semaines. Cela semble d’autant plus prometteur que, d’après certains, le potentiel de cet ordinateur est énorme, son nombre de qubits disponibles doublant tous les ans (et donc d’ici trois ans surpasser en puissance tous les ordinateurs classiques de la terre combinés)…

Lire l’article