Patrick Genoud

Détails de l'auteur

Nom : Patrick Genoud
Date d'enregistrement : 05-10-2011

Biographie

Conseiller au numérique et à l’innovation dans le secteur public

Derniers articles

  1. On a causé de FabLabs… — 01-06-2018
  2. On a causé de notre avenir numérique… — 23-10-2017
  3. On a causé de transformation de la culture de l’organisation numérique… — 03-08-2017
  4. On a causé de Blockchain… — 02-04-2017
  5. On a causé d’un living lab pour Genève… — 04-03-2017

Articles de cet auteur

Transparence et blockchain hackathon

Ethereum

Le 26 novembre dernier, à l’initiative du Centre Universitaire d’Informatique (CUI) et de l’Institute of Information Service Science et avec le soutien de l’Observatoire technologique et du think tank Think Services, près de 70 personnes se réunissaient dans les locaux du CUI à Battelle pour un hackathon d’un genre un peu particulier consacré à la transparence. Particulier parce qu’il réunissait bien des hackers et des développeurs passionnés comme d’habitude, mais parce que dans le même temps des innovateurs, des designers, des fonctionnaires et autres citoyens concernés s’étaient joints à la fête.

La transparence constitue une opportunité majeure de repenser la démocratie en général et nos administrations publiques en particulier. Les défis dans ces domaines relèvent de questions importantes touchant notamment à la décentralisation, à la responsabilité, à la confiance ou à la sécurité.

Ce hackathon de 8 heures avait ainsi pour objectif d’explorer co-créativement de nouvelles approches et opportunités pour repenser la démocratie ainsi que les services proposés par les administrations publiques en utilisant la technologie blockchain qui offre des propriétés intéressantes de traçabilité et de confiance dans ce contexte: immutabilité et transparence des transactions dans le blockchain.

Pour l’occasion le professeur Jean-Henry Morin avait invité des membres de la communauté Ethereum (@ethereumproject) à venir partager leur plateforme dans le cadre de ce hackathon. C’est presque toute la délégation d’Ethereum que nous avons eu la chance d’avoir parmi nous avec Vitalik Buterin (@VitalikButerin)Stephan Tual (@stephantual), Ken Kappler (@KapplerKen), Taylor Gerring (@TaylorGerring), Mihai Alisie (@MihaiAlisie) et Roxana Sureanu (@RoxanaSureanu).

Jean-Henry-Morin & Ethereum team

Jean-Henry-Morin & Ethereum team

La plateforme Ethereum

La journée débute avec une présentation générale d’Ethereum, tout à la fois plateforme technologique, communauté et fondation. Ce sont les membres de la communauté Ethereum qui commencent par nous expliquer en quoi consiste leur plateforme.

L’objectif du projet est de «décentraliser le Web» en créant, à partir notamment de la technologie blockchain, une architecture qui doit permettre de créer une symphonie de solutions dans des domaines variés (médecine, votations, etc). Cette plateforme présente l’avantage dans ce contexte de vérifier une transaction numérique via le consensus d’une communauté d’utilisateurs distribuée, sans avoir à gérer la confiance ainsi obtenue via une autorité centrale. Cette notion de confiance distribuée et décentrlisée constitue le cœur d’Ethereum. C’est en bâtissant des solutions qui l’intègrent dans leurs gênes que l’on parviendra à réformer le système. Car si le blockchain a d’abord été implémentée pour vérifier les transactions de monnaies virtuelles telles que Bitcoin, elle peut être utilisée dans le même esprit pour n’importe quel contenu numérique et par conséquent pour concevoir n’importe quel service.

.

We need more transparency in our society !

 

En proposant une solution technique qui permet de repenser notre vision de la confiance, de la sécurité, de la réputation ou de la transparence, la communauté Ethereum veut permettre aux gens de se questionner sur la manière dont nous effectuons de nombreuses opérations actuellement. Le modèle décentralisé proposé par leur plateforme casse en effet les hiérarchies dont s’accommode mal le monde de l’Internet et devrait permettre l’émergence de nouveaux modèles d’affaires en abaissant considérablement la barrière d’entrée sur ces technologies aux potentialités considérables. Pour l’illustrer, on rappelle par exemple que l’infrastructure Bitcoin est 14’000 fois plus puissante que les 500 plus gros supercalculateurs de la planète.

Ethereum se positionne donc comme l’un des acteurs qui va proposer les outils qui vont participer à la redistribution de la croissance de l’économie du partage dans une logique d’autonomisation. Un participant relève cependant que dans ce domaine il faut bien intégrer deux acceptions de la confiance que les anglo-saxons distinguent clairement: la notion de TRUST (avec le cerveau) et CONFIDENCE (avec les tripes). On touche ainsi à la notion de réputation à laquelle Ethereum ne va probablement pas pouvoir répondre dans un premier temps. Mais les gens d’Ethereum sont convaincus que dans un proche avenir nous allons disposer des outils et des services qui vont nous permettre de mieux gérer la réputation en particulier et les aspects sociaux de manière générale.

Dans tous les cas, les technologies blockchain font déjà leur chemin hors des cercles d’initiés puisque des institutions établies telles que l’Union de Banques Suisses considèrent avec sérieux les potentialités offertes (voir par exemple cet article). Le vote électronique constitue un autre domaine dans lequel cette technologie est prometteuse.

People01

Manifestement les membres de la communauté Ethereum ont poussé leur réflexion bien au-delà de la technologie elle-même. Ces jeunes sont motivés et enthousiastes et ils ont manifestement envie de changer le monde. Ils ont été particulièrement convaincants dans les réponses très cohérentes qu’ils ont apportées aux questions fondamentales qui ont été posées, que celles-ci touchent à la technologie, à la confiance, ou à la perspective sociétale dans laquelle l’envisager.

Les différentes présentations amènent d’ailleurs tellement de questions que le hackathon prend du retard sur l’horaire prévu. Mais cela n’a pas trop d’importance au vu du nombre et de la richesse des discussions que cela a généré, que ce soit sur des sujets techniques ou sur des notions plus fondamentales impactées par les potentialités amenées par ce type de technologie.

La suite de la matinée enchaîne sur  un brainstorming de 30 minutes afin de proposer des idées de réalisations sur le thème de la transparence en se basant sur la technologie blockchain. Huit sujets sont proposés et les les participants embrayent sur 6 d’entre eux. Les réflexions sont nourries; on discute, on se défie, on dessine, on code…

Cette période de créativité dans les différents groupes me laisse le temps de discuter avec Taylor Gerring et Mihai Alisie, deux des membres de la fondation Ethereum qui participaient à l’événement. Ils m’apprennent que la fondation est actuellement concentrée à améliorer la robustesse et la fiabilité de la plateforme. La communauté est composée majoritairement de geeks qui ont rejoint le projet pour proposer une plateforme riche de promesses qui va permettre des avancées significatives dans de nombreux domaines. Des événements tels que ce hackathon les aident à faire connaître leur technologie, à la confronter au regard pointu des développeurs et à envisager de nouvelles applications.

GeekAttitudeMais au fil de la discussion, je suis frappé par la prise de recul que Tylor et Mihai réussissent à prendre par rapport à ce projet technologique. Tous deux ne perdent pas de vue le sens qu’ils donnent à tout ça. Pas de faux-fuyant dans leur discours; ils n’ont pas toutes les réponses à  mes questions et ils ne prétendent pas être les sauveurs de la planète. Ils travaillent en toute humilité sur une technologie riche de promesses qu’ils vont mettre à disposition de tous, sans orientation politique aucune. Les gens me disent-ils s’en empareront comme bon leur semble. Pour le meilleur, espèrent-ils, même si ils ne peuvent pas exclure des usages non souhaités. Mais il est illusoire selon eux d’imaginer de contrôler cela. Dans tous les cas, ils s’inscrivent dans une dynamique dans laquelle je me retrouve entièrement. Ils m’apprennent enfin que la majorité de la communauté Ethereum provient d’Europe et d’Amérique du Nord; mais elle compte également des contributeurs dans de nombreux autres pays.

Restitution des différents groupes

La dernière heure de ce hackathon est consacrée à la restitution des cogitations/réalisations des 6 groupes.

Ideas & Teams

Ideas & Teams

Groupe n° 1

Use of the block chain to manage rights on digital contents

Le groupe imagine une solution de gestion des droits associés à des contenus digitaux (ex fichiers, images, videos, etc). L’avantage est de pouvoir gérer des droits qui sont transférables de manière irrévocable grâce à la technologie blockchain. Une telle solution serait naturellement extensible à d’autres thématiques. Le groupe a évoqué une solution qui serait très utile dans la gestion des contrats juridiques. Une implémentation native de la licence Creative Commons serait tout à fait envisageable dans ce contexte.

Groupe n°3

Taxpayer spending and tracability

Le groupe a modélisé son approche. Leur idée est de pouvoir suivre l’utilisation qui est faite de nos impôts. Chaque contribuable pourrait recevoir disposer d’un compte créé via blockchain sur lequel sont versés ses impôts. Il dispose alors d’une traçabilité sur l’utilisation de cet argent. On peut imaginer que les gens ont la possibilité de prioriser la manière dont leur argent est dépensé ou alors de déterminer des seuils au-delà (seuils hauts ou bas) desquels leur argent n’est plus affecté à telle ou telle politique publique. Cela devrait permettre aux individus d’avoir un meilleure compréhension de la manière dont leur argent est dépensé.

Groupe n°4

Trustworthy file transfer

En se basant sur les mécanismes de certifications proposés par la plateforme Ethereum,, le groupe imagine une solution de transfert de fichier certifiée qui permet d’échanger des fichiers de manière sécurisée et certifiée. Un groupe de geeks, puisqu’ils ont déjà commencé à coder la solution qui selon eux fonctionne presque. L’ébauche de solution EtherFileCertification est publiée sur GitHub.

Groupe n°6

Transportation management

Le groupe imagine une solution de mobilité conçue selon deux perspectives: celle de l’utilisateur des transports publics et celle du transporteur. L’idée est de pouvoir identifier et suivre tous les bus circulant sur le réseau de transports publics et de pouvoir remonter les problèmes qui peuvent y être liés. Dans le même temps la solution doit permettre de gérer le payement et toutes les informations qui transitent autour de la mobilité et de remonter des informations utiles pour améliorer le réseau en fonction des besoins d’usagers (certifiés grâce à Ethereum).

Groupe n°7

eParticipation

La participation des citoyens grâce au numérique devrait pouvoir prendre une dimension nouvelle avec les potentialités offertes par la plateforme Ethereum. Le groupe part de cette hypothèse pour imaginer une observatoire participatif de la démocratie. L’idée est de documenter et de valider tout le processus démocratique et de le rendre ainsi plus ouvert et plus transparent en y incluant des mécanismes de validation qui améliorent le niveau de confiance global du système. Les commentaires et informations remontés sur la plateforme sont certifiés par la technologie Ethereum. Jean-Henry Morin évoque à propos de cette idée la nécessité de considérer le droit à l’oubli comme un prérequis du système.

Groupe n°8

Socially responsible code writing

Au vu des similarités entre les deux, le groupe propose une solution qui soit capable de gérer le code légal avec la même richesse de fonctionnalités que le code informatique. Il imagine par exemple un mécanisme de vote pas-à-pas sur les différents articles d’un texte de loi en considérant chaque article comme un objet indépendant. Une fois un quorum atteint, on peut transférer le texte de loi ainsi élaboré dans le processus habituel de votation. Un tel système devrait favoriser le droit d’initiative et abaisser la barrière d’entrée dans le processus démocratique.

Conclusion

Jean-Henry Morin conclut la journée en remerciant les participants et en interpellant les représentants de la communauté Ethereum: ce hackathon a démontré que les potentialités d’Ethereum sont innombrables et nous amènent bien au-delà du paradigme des crypto-monnaies d’où est née la plateforme. Stephan Tual l’admet bien volontiers et nous apprend que c’était le premier événement de ce genre autour d’Ethereum, c’est à dire en dehors des communautés traditionnelles de cryptographie.

Jean-Henry se réjouit en tous cas du grand nombre de gens présents et de la qualité et de la diversité des idées générées lors de cette journée. Les participants au hackathon sont selon lui tous des innovateurs en puissance qui vont changer le monde. Il conclut avec cette image forte reprise d’une discussion avec un membre de l’équipe Ethereum :

Nous participons à une course dans laquelle des gens comme ceux de la communauté Ethereum espèrent « être prêts » avec des solutions qui permettront au monde de s’en sortir lorsqu’il se cassera la figure (ou du moins lorsque le paradigme actuel aura vécu).

 

Rendez-vous est pris pour 2015 à une date restant encore à déterminer mais probablement sur la fin de l’été, début de l’automne.

Le soir-même Jean-Henry Morin a présenté les résultats de ce hackathon lors du 2ème Rendez-vous de la transparence organisé par le préposé cantonal à la protection des données et à la transparence du canton de Genève.


Références

Ethereum white paper : https://www.ethereum.org/pdfs/EthereumWhitePaper.pdf

Quelques références sur l’Etherpad de Ethereum

 


Un tout grand merci aux sponsors qui ont permis de réaliser cette journée dans des conditions parfaites :

University of Geneva, Centre Universitaire d’Informatique (CUI) et Institute of Information Service ScienceThinkServices.chObservatoire technologique, DGSI, Etat de GenèveFree IT Foundation et Fondation Raymond JacotSBEXEverdreamSoftOpendata.chEthereum

On a causé du numérique au chevet de la santé…

Le numérique au chevet de la santé

Le numérique est-il la panacée pour soutenir l’évolution de notre système de santé? Comment envisager son utilisation dans ce domaine ? Avec son énergie communicative et son humour parfois corrosif, Christian Lovis en a causé avec nous le 18 décembre dernier.  

Tout au long de la soirée, Christian a tenté de nous démontrer la convergence entre santé, technologie et citoyen/patient. Et c’est sous l’angle historique qu’il a amené le thème de la soirée. Car en refaisant l’histoire on se rend compte que les technologies et le numérique ont évolué très rapidement et ont amené, selon trois phases, des changements cruciaux qui ont profondément modifié le paysage de la santé.

ACTE 1

Tout a commencé en 1992 lorsque Al Gore décidait de rendre libre d’accès PubMed, la base de données bibliographique d’articles médicaux. Cette décision a créé un mouvement d’envergure mondiale pour un libre accès (open access en anglais) aux articles scientifiques. La célèbre revue Nature s’y est même mise récemment. Aujourd’hui une large part de la publication médicale est donc accessible à tous, que l’on habite New-York, Genève ou Tombouctou.

Et ce qui est vrai pour les publications médicales l’est aussi pour toutes les informations relatives à la santé en général et aux maladies en particulier. Cette richesse mise à disposition des chercheurs et des étudiants constitue une source de connaissance extraordinaire qui a permis dans un premier temps des avancées jusqu’alors insoupçonnées. Ainsi l’équipe de Patrick Ruch, chercheur à la HEG a publié dans la revue Gene des découvertes dans le domaine génétique obtenues uniquement en analysant la littérature existante, sans avoir à effectuer la moindre expérience.

Avec l’essor du Web, ce n’est plus seulement le monde académique qui a eu accès à cette connaissance, mais les patients eux-mêmes, en quête d’informations sur la santé. On comprend bien l’impact que cela peut avoir sur les médecins. Leur rôle change considérablement; tout comme leur place dans un système où le patient en connaît parfois plus sur sa maladie que son médecin personnel.

Photo Bruno Chanel

ACTE 2

La deuxième phase est celle de la libération de l’information et dans le même temps celle de sa consumérisation. Car au fil du temps, l’information produite hors du champ académique est venue s’ajouter à un corpus déjà très riche. Le patient y a bien sûr accès. Mais Christian note que si celui-ci veut devenir un acteur de sa santé, il est par contre pour l’instant extrêmement mal outillé pour juger de la qualité de ce qu’on trouve sur Internet. Et ceci n’est pas neutre. Car en augmentant notre niveau de connaissance sur une maladie potentielle, on augmente notre niveau de stress. Or ce n’est pas si simple d’être soi-même l’acteur de sa vie et de sa maladie.

ACTE 3

La troisième phase est celle de la mesure. Aujourd’hui les technologies de quantified-self (voir la Causerie du 23 janvier 2014 sur ce sujet) permettent une mesure de notre activité physique, de nos paramètres physiologiques et de toute une pléiade d’autres données qui caractérisent notre vie quotidienne. Cette quantité de données et d’informations que tout un chacun peut aujourd’hui ‘consommer’ nous permet de libérer notre décision. Des centaines d’apps nous aident dans ce domaine. Celles-ci se retrouvent au cœur d’un réel mouvement vers un marché non certifié de la santé. Et au-delà de ces aspects qui interpellent, ces apps ont un effet de motivation fort avec dans de nombreux cas des impacts positifs incontestables. Mais Christian note que la durée moyenne d’utilisation de ces apps est faible (3 mois). Il questionne également la réelle utilité des données ainsi générées même s’il n’a pas de réponse tranchée sur le sujet. Son constat est que le mouvement est indéniable et que nous n’en sommes qu’aux prémisses d’un mouvement qui va prendre de l’ampleur, tant quantitativement que qualitativement.

 

Photo Jean-Marc Theler

Photo Jean-Marc Theler

ACTE 4

Cela se traduit aujourd’hui par une quatrième phase est en train d’émerger, avec par exemple des apps qui effectuent des diagnostiques à notre place. Ces outils en sont à leurs premiers pas mais les perspectives sont prometteuses. Christian note qu’un nombre croissant d’acteurs occupent le marché et veulent jouer avec la santé sans toutefois vouloir entrer dans des logiques de certification qui peuvent être trop contraignantes pour eux. Dans tous les cas, on assiste à une porosité qui s’établit entre divers mondes qui ne se côtoyaient pas jusqu’ici et à une convergence entre santé, technologie et citoyens.

La discussion aborde ensuite de nombreux sujets. On parle notamment de ‘medical hacking‘ qui consiste à mettre son dossier médical en libre accès (open access) avec les opportunités et les risques que cela comporte (le droit à l’oubli par exemple auquel de nombreux participants sont sensibles).

La Causerie s’achève avec un focus sur le Big Data qui, de l’avis de Christian constitue un puissant levier d’évolution de nos connaissance en matière de santé même si les écueils dans ce domaine sont encore nombreux. Pour preuve les études menées sur les données du virus HIV à Genève qui, à partir des données mesurées depuis plus de 30 ans, racontent des histoires différentes selon que leur interprétation est faite par des cliniciens ou des data miners. Car l’un des dangers du Big Data est celui de créer des réalités auxquelles on a envie de croire. Ce sujet soulève de nombreuses questions et constituera certainement le thème d’une prochaine Causerie.

Je terminerai avec cet article sur lequel je suis tombé récemment et qui illustre de nombreux points que nous avons abordés avec Christian lors de cette passionnante Causerie.

 


Christian Lovis est médecin, professeur aux Hôpitaux Universitaires de Genève (HUG) et chef du Service des sciences de l’information médicale

Il s’est spécialisé en Suisse et aux Etats-Unis en médecine interne et en médecine d’urgence, ainsi que sur les systèmes d’information médicaux. 

Il est président de la société suisse d’informatique médicale, expert pour la stratégie en matière de cybersanté. 

 

 

 



On a causé de storytelling…

Storytelling

Le storytelling est à la mode depuis quelques années. Comme tous les concepts qui font le buzz, on en a parfois une compréhension réductrice, sans notamment en entrevoir toutes les potentialités. Pour clarifier les choses et nous ouvrir des perspectives nouvelles, Michael Mesfin est venu en causer avec une dizaine de personnes le 20 novembre dernier.   

Lorsque Michael demande aux participants de la Causerie ce que le mot storytelling évoque pour eux, les réponses fusent : « partager, inventer, emmener les gens, faire rêver, méthodologie, marketing ! ». Beaucoup de mots donc derrière ce concept qui fait parler de lui depuis quelques temps déjà. Mais un point semble rallier tout le monde: à chaque fois on évoque en filigrane une capacité à emmener les gens, à les faire rêver.

Les méthodes et techniques mises en jeu dans le storytelling sont souvent utilisées avec succès pour parfaire l’art oratoire des communicants et insuffler de l’énergie dans leur discours. Et dans tous les cas de figure Michael nous met au défi de citer un bon orateur dont le cœur du discours n’est pas une histoire qui nous emporte, avec un schéma narratif toujours présent, faisant intervenir tout ou partie des ingrédients habituels:  un héros, une quête, un adjuvant, un destinateur, un destinataire et un opposant.

Si le storytelling  fait ses preuves avec les individus, et dans la mesure où les organisations sont des « personnes morales », peuvent-elles également bénéficier de ces techniques ? Est-il possible de transposer sur elles les méthodes et les techniques du storytelling ? En un mot: peut-on faire raconter des histoires aux organisations ? C’est plus précisément autour de ce thème que Michael nous a emmenés tout au long de la Causerie. Et la réponse à cette question il nous la donne d’emblée: clairement, une organisation (ou une marque) doit aujourd’hui savoir se raconter en restant en phase entre le style utilisé dans ses approches marketing et le fond du discours. Car à l’heure des réseaux sociaux, des dissonances éventuelles à ce niveau deviennent vite très criardes et peuvent constituer un risque majeur pour l’entreprise. Michael cite pour exemple la vidéo virale « United breaks guitars » qui en mai 2008 a mis en lumière l’écart entre le discours marketing de la compagnie aérienne United et la réalité du terrain vécue par un usager.

Think Data: un exemple original de storytelling !

Il devient donc essentiel pour les organisations de savoir « raconter leur(s) histoire(s) » en y apportant la cohérence entre le discours véhiculé et les valeurs constitutives de leur identité. Jusqu’à peu, ces valeurs n’étaient souvent qu’un fourre-tout, des mots vides de sens qui résistaient mal au vécu des clients ou des collaborateurs de l’entreprise.

Selon Michael les recettes habituelles du storytelling peuvent être appliquées aux organisations pour leur permettre de changer de registre en positionnant leur discours sur leur identité et sur leurs valeurs. Il en a profité pour nous rappeler ces fondamentaux du storytelling qui restent invariants, que celui-ci soit appliqué aux individus ou aux marques. Le bouleversement provient plutôt de la démarche suivie pour construire ces histoires.

Car raconter des histoires qui portent du sens et de la cohérence par rapport aux valeurs de l’organisation impose un certain nombre de pré-requis que nous avons discutés durant la Causerie.

Two Notes on Storytelling

Le premier, en lien intime entre la direction et le top management, est de savoir se positionner au cœur de la réalité de l’organisation qu’il faut considérer comme une entité responsable, avec ses valeurs, sa stratégie, sa culture propre et la dimension du service qu’elle propose à ses clients.

Le second est de pouvoir construire ces histoires avec un maximum de collaborateurs (travail en groupes et selon des temps différents). Il s’agit alors de raconter les habitudes (souvent implicites) et de les diffuser; il s’agit également de raconter l’organisation au niveau de ses services, de ses techniques, de ses performances et de son management. Le tout bien sûr dans une démarche de co-création qui permet de garantir la consistance du discours. Et chemin faisant on s’accorde à débattre sur le langage et les histoire que l’on est en train de construire.

Attention cependant à ne pas tomber dans le piège de l’élaboration d’une histoire pour l’interne et d’une autre destinée à l’externe. La cohérence impose de créer une seule histoire que l’on peut éventuellement raconter différemment selon le contexte et les publics.

Dans son activité quotidienne, Michael constate que ce type de démarche participe clairement à élaborer une culture d’entreprise et constitue dans le même temps un véritable levier de changement des organisations. En créant de la cohérence et de la compréhension partagée on se trouve ainsi au cœur de l’empowerment des organisations en tant que telles.

Dans la discussion qui suit, on évoque alors le storytelling comme un levier efficace pour aller vers les organisations apprenantes, ou alors comme un outil qui peut aider à la gouvernance des organisations. Dans tous les cas les participants à la Causerie sont convaincus après des échanges passionnés et passionnants que le storytelling permet de redonner du sens et de la consistance à son activité professionnelle et qu’à ce titre on devrait lui donner beaucoup plus d’importance dans les organisations.


Michael Mesfin – Causerie Storytelling – Novembre 2014 (45 Mb)


Michael Mesfin

Après une expérience de 10 ans dans le domaine de la communication, du planning stratégique et du marketing, Michael Mesfin lance fin 2007 Siltan, un cabinet de conseil spécialisé dans la culture des marques, où il développe le concept d’Organic Branding, une perspective où les usagers, la science des services et l’innovation tiennent une place essentielle.

En 2013 Siltan rejoint STICS Group dans le but développer à plus large échelle des solutions professionnelles d’empowerment des personnes morales appliquées à la propriété intellectuelle et au couple marque & services.

On a causé de nouveaux métiers…

Réseaux Sociaux

Coordinateur-trice de communication digitale, planneur stratégique, manager en e-réputation ! Quels sont ces nouveaux métiers qui dessineront le marché du travail sous l’influence des média sociaux ? Quelles compétences constitueront les profils recherchés ? C’est à ces questions et à bien d’autres que les participants à la Causerie du 25 septembre dernier ont essayé de répondre en compagnie d’Olivier Tripet. 

L’explosion des médias sociaux s’accompagne de l’émergence rapide de métiers et de rôles aux noms parfois exotiques. Mais plus que les métiers en eux-mêmes, ce sont les nouvelles compétences requises et la vitesse à laquelle elles apparaissent et se combinent qui impressionnent et posent souvent problème aux ressources humaines, aux recruteurs et au système éducatif.

Olivier Tripet a apporté à la quinzaine de participants présents à cette Causerie quelques clés pour décrypter ces métiers et compétences de demain. Pour nous faire comprendre la rapidité d’évolution de ce domaine, il s’est retourné dans un premier temps sur les nombreux métiers et compétences qui ont vu le jour depuis la montée en puissance du Web au milieu des années 90. Des compétences très techniques apparaissent dans un premier temps avec les webmasters et les développeurs. Avec l’apparition des premiers moteurs de recherche, de nouveaux métiers émergent tels que traffic manager. L’avènement de l’e-commerce amène ensuite son lot de Web marketers et de chefs de produits Web. A partir des années 2000, on entre dans l’ère du Web dynamique et de la co-création avec l’émergence des corporate blogger, des gestionnaires de contenus et des gestionnaires de la connaissance. Enfin, lorsque arrive le Web social, on voit se profiler les social media managers et les community managers. Ceci sans parler des nombreux métiers existants qui ont été bouleversés par l’arrivée des médias sociaux, notamment au niveau des métiers de la communication. 

Jean-Henry Morin, Olivier Tripet et Bruno Chanel

Jean-Henry Morin, Olivier Tripet et Bruno Chanel

Comme l’illustrent les exemples proposés par Olivier, la grande majorité des métiers qui ont ainsi vu le jour avec l’évolution du Web ne sont pas vraiment considérés comme tels, mais plutôt comme des rôles qui sont de plus en plus difficiles à catégoriser sous l’étiquette ‘métier’.

A ce stade de la discussion certains participants ont l’impression que le discours d’Olivier ne concerne que les entreprises multinationales dont l’impact est global et qui ont les moyens d’embaucher ces nouvelles compétences. Olivier nous assure que ce n’est pas le cas: dans les plus petites structures, soit on fait appel à ces compétences à la demande, soit ce sont des employés qui se forment et qui endossent ces nouveaux rôles une partie de leur temps. 

Et selon lui, même dans les grandes organisations les choses ne sont pas si évidentes. Car l’arrivée de ces nouveaux métiers est pour beaucoup conditionnée par la compréhension et l’appropriation du changement de paradigme amené par le Web. Le règne des silos étanches et bien délimités est en voie de disparition, avec tous les bouleversements que cela induit au niveau des manières de travailler et des postures à adopter. Le leadership a évolué vers des formes de management beaucoup plus transversales. La génération Z est en train de casser les codes. Le Web constitue un écosystème dans lequel il faut savoir évoluer et s’adapter rapidement en jouant des multiples compétences nécessaires. Ces changements-là, pour ne citer qu’eux, influent fortement sur l’apparition de métiers et de compétences nouvelles car pour que ces nouveaux métiers trouvent leur place dans l’entreprise, il faut préalablement changer les gens et les structures dans lesquelles ils évoluent.

Et demain ? La question est sur toutes les lèvres puisque c’est le thème de la Causerie. Et bien Olivier n’as pas de réponse toute faite à la question, comme d’ailleurs personne dans la salle. Mais tout le monde s’accorde à relever que les tendances fortes (big data, Internet des objets ou économie collaborative) qui commencent à impacter le Web amèneront leur lot de nouveaux métiers et de nouvelles compétences. Et plutôt que d’essayer de deviner précisément  de quoi sera fait demain, il vaut mieux s’y préparer.

Joke

A minima il faut comprendre ce nouveau modèle et savoir le prendre en compte. Les entreprises et les organisations doivent notamment admettre qu’elles ne sont plus dans une dynamique de métiers à définir et à cadrer, mais plutôt dans l’apprentissage continu de nouvelles compétences et dans la faculté à les assembler pour répondre aux besoins émergents. Vu l’évolution rapide des technologies du Web et leur caractère souvent disruptif, il faudra savoir constamment ajuster le tir. Dans le même temps il faudra valoriser et travailler sur les compétences intrinsèques des gens : la communication, la collaboration, l’ouverture, ou la réflexivité pour ne citer qu’elles.

                    Sachons être producteurs avant d’être consommateurs

 

Et cela renvoie à deux sujets qui ont animé une bonne partie de la Causerie: celui de la recherche d’emploi et celui de la formation. Le système suisse de recherche d’emploi qui gère les filières ne connaît même pas les métiers actuels en lien avec la communication sur le Web. Et ce problème ne va aller qu’en s’aggravant, ce d’autant plus que l’on s’éloigne de la notion de métier pour aller vers celle de compétences. Les participants posent les questions qui dérangent: « La Confédération a-t-elle pris la mesure de ce changement de paradigme ? », « Que font les organismes faîtiers ? » Ces acteurs devraient proposer aux entrepreneurs un mode d’emploi et les outils pour intégrer cette nouvelle donne. D’autre part on constate que le marché ne reconnaît pas encore vraiment ces nouvelles formations car en Suisse on subit encore trop la « dictature » des diplômes.

Et lorsqu’on évoque la formation, les critiques sont encore plus acerbes. On évoque des défaillances au niveau de notre système éducatif. « Quand notre Département de l’instruction publique va-t-il se réveiller? » demande-t-on. Car pour l’instant les seules formations dignes de ce nom qui apparaissent dans la région lémanique sont l’œuvre du secteur privé. Il faut sérieusement se poser la question du rôle que l’on veut faire jouer à l’instruction dans le monde de demain.

Et certains de renchérir sur le fait que ce manque de perspectives touche tous les secteurs. Nos décideurs devraient être mieux capables d’anticiper ces changements majeurs qui vont impacter de nombreux secteurs de notre société. Une injonction qui espérons-le sera entendue !


 

Olivier Tripet – Causerie Nouveaux Métiers -Septembre 2014 (170 Mb)


OlivierTripet

Observateur et praticien chevronné des médias sociaux depuis leur avènement, Olivier s’est vu confier de nombreux mandats stratégiques dans ce domaine par des grands groupes, des PME ou encore l’Administration publique. Il intervient régulièrement comme formateur et expert dans différentes hautes écoles. Il est également le fondateur et président de la Swiss Community Managers Association.


WE (T)RUST – Global GovJam 2014

Global GovJam2014

Au début du mois de juin de cette année, l’Observatoire technologique a participé avec l’Institut de Sciences des Services de l’Université de Genève à un hackathon d’une forme un peu particulière et dont le terrain de jeu est le service public. Le Global GovJam 2014 réunissait pour la troisième année consécutive des équipes d’innovateurs motivés par la volonté de démontrer qu’il est possible en moins de 48 heures de proposer une ébauche tangible de projet novateur dans le secteur public.

Les GovJams constituent tout à la fois l’occasion de cultiver des relations hors de son cadre de travail habituel, de tester des outils de créativité et d’échanger des idées nouvelles tout en œuvrant sur un projet concret s’inscrivant dans le thème donné. Ici pas de concours, pas de prix; seulement la satisfaction d’avoir réalisé ensemble un projet innovant et d’avoir enrichi les réflexions de la communauté des participants.

La centaine d’équipes provenant des cinq continents avait deux jours pleins pour concrétiser un projet en lien avec le sujet proposé cette année: la confiance !

La vidéo de présentation du thème retenu laissait beaucoup de place à l’imagination: comment aller au-delà de la confiance telle qu’actuellement nous la vivons dans la vie courante, à titre professionnel ou privé ? Un thème tout à la fois complexe, fascinant mais surtout essentiel à l’heure où cette confiance nécessaire à tous les échanges que nous effectuons au quotidien est sujette à une érosion croissante, même dans le secteur public. Les organisateurs ne s’y sont d’ailleurs pas trompés, en jouant habilement sur les mots TRUST (confiance) et RUST (rouille) pour nous proposer le thème du hackaton: (T)RUST !

La page résumant les projets présentés témoigne de la diversité à la fois des approches choisies et des résultats finaux. Les projets imaginés par les différents groupes proposent des solutions allant de la sensibilisation à l’éducation en passant par des outils (numériques ou non) permettant de tangibiliser cette confiance si malmenée.

Après deux jours de brainstorming, d’échanges d’idées et de multiples esquisses, notre projet s’est concrétisé à travers la réalisation d’un manifeste incitant les individus, sur une base volontaire, à s’engager pour une meilleure expérience du service (pris ici dans sa globalité), source première selon nous d’une confiance accrue. Le (T)Manifesto comme nous l’avons appelé part du constat qu’il est temps de lancer une dynamique nouvelle pour reconquérir cette confiance qui s’érode et contribuer ainsi à une société plus digne de confiance, plus responsable et qui soit plus apte à rendre des comptes.

Les approches imposées par le haut ont montré leurs inefficacité. La meilleure manière d’initier ce changement passe plutôt selon notre équipe par une autonomisation des individus qui s’y lancent sur une base volontaire, dans une dynamique que nous avons baptisée WE (T)RUST. Notre ébauche du (T)Manifesto propose aux individus qui le désirent (dans leur rôle de citoyen, de collaborateurs de la fonction publique ou de membre d’une organisation privée) de signer un manifeste par lequel ils s’engagent à auto-évaluer leur niveau de confiance selon les critères suivants et à les améliorer constamment :

1. Bienveillance

La bienveillance mesure notre bonne volonté et/ou notre disposition à faire le bien dans notre vie quotidienne.

2. Transparence

La transparence mesure notre degré de transparence, en tant que personne et dans notre comportement. Fondamentalement cela signifie que vous n’avez pas d’agenda caché.

3. Engagement

L’engagement mesure notre implication dans l’accomplissement de nos tâches.

4. Responsabilité

La responsabilité mesure de quelle manière nous justifions de nos activités, nous en endossons la responsabilité qui nous incombe et nous en révélons les résultats de manière transparente.

5. Pertinence

La pertinence mesure notre capacité à fournir un service qui corresponde autant que possible aux attentes

 

Les individus qui signent le manifeste s’engagent sur chacun des points ci-dessus. D’une part en construisant leur (T)-Profile (leur profil de confiance obtenu en s’auto-évaluant selon ces critères). Et d’autre part en s’engageant à les améliorer constamment.

(T)rust

 

Notre ébauche de manifeste est concrétisée sur le site trust.unige.ch. On y trouve une explication de nos motivations, une page d’autoévaluation, la marche à suivre pour contribuer au mouvement WE (T)RUST, une page consacrée aux histoires en illustrant les usages ainsi qu’une page laissant la place aux perspectives envisagées.

Dans le court délai imparti, nous n’avons pas eu le temps d’aborder les moyens de tangibiliser ce (T)Profile, afin de pouvoir l’exposer aux autres et de le confronter ainsi à leur évaluation, dans le but de susciter des dynamiques vertueuses. Les pistes que nous avons envisagées vont du simple badge de couleur à des systèmes plus sophistiqués sur smartphone.

Ce sprint de 48 heures a dans tous les cas démontré dans quelle mesure une petite équipe motivée, travaillant selon les méthodes du design thinking peut délivrer un résultat concret et actionnable en très peu de temps. Ce résultat initial demande certes à être approfondi et confronté à d’autres points de vue. Mais il constitue selon nous une voie intéressante à suivre pour améliorer la confiance, dans le service public en particulier.

Souhaitons que cette ébauche de manifeste trouve de l’écho, à Genève ou ailleurs. Elle est à disposition sous licence Creative Commons (CC – BY – NC – SA) pour qui veut bien s’en emparer.

Notre petite équipe était composée de:  Giovanna Di Marzo (ISS), Patrick Genoud (OT), Michael Mesfin (ISS), Jean-Henry Morin (ISS), Giorgio Pauletto (OT) et Jeremy SIGNIORELLI (designer indépendant).

 

 

 

On a causé de MOOCs…

Illustration-MOOCs

Le monde de l’éducation est en pleine mutation. Les systèmes de financement public sont dépassés. Le modèle privé s’avère coûteux, élitiste, inaccessible ou sans rapport probant à la qualité de l’enseignement. Et si l’alternative résidait dans ces cours en ligne ouverts et massifs que l’on appelle les MOOCs ?

Yves Zieba a apporté son éclairage sur cette question en animant la Causerie du jeudi 19 juin dernier qui leur était consacrée. Une excellente Causerie placée sous le signe de la richesse des discussions menées par la vingtaine de participants dont un bon nombre de spécialistes et/ou de professeurs qui ont apporté leur point de vue éclairé tout au long de la soirée.

Yves a tout d’abord rappelé ce qui fait la spécificité des MOOCs (Massive Open Online Courses, Cours en ligne ouverts et massifs en français) par rapport à du eLearning ou à des vidéos postées sur Youtube. Les MOOCs sont des cours en ligne, proposés en mode ouvert à un nombre quasi illimité de participants. Mais à la différence des outils numériques traditionnels, ils offrent une palette de fonctionnalités supplémentaires qui enrichissent considérablement l’enseignement. Il s’agit notamment de forums et de réseaux sociaux qui permettent de créer des communautés d’étudiants et de professeurs; de questionnaires en ligne; de modules d’évaluation entre apprenants ou d’outils de co-création de contenus pédagogiques. Ces derniers restent naturellement au cœur de l’enseignement mais les interactions avec les professeurs et surtout entre apprenants prennent une place importante.

Contrairement à une idée reçue, les MOOCs sont majoritairement suivis par des adultes entre 35 et 50 ans ayant déjà un bachelor ou un master. Ils s’inscrivent donc plutôt dans une logique de formation continue. Autre idée reçue: ce ne sont pas forcément des professeurs universitaires qui donnent de tels cours en ligne. On y retrouve en effet une population hétéroclite allant des commerciaux aux adolescents férus de jeux en ligne en passant par des amateurs éclairés.

Au travers des échanges de la soirée, trois thèmes ont particulièrement retenu mon attention. Le premier est celui de la démocratisation de l’accès aux savoirs. Les MOOCs constituent très certainement une avancée significative vers l’utopie d’un savoir universellement partagé au niveau planétaire. Certes le chemin est encore long, ne serait-ce qu’en raison des difficultés d’accès à Internet pour une partie encore importante de la population de la planète. Mais l’effet de masse induit par les MOOCs permet aujourd’hui à des centaines de milliers de personnes de suivre simultanément un cours depuis n’importe quel pays du globe. Les MOOCs apportent donc une réponse toujours plus pertinente à des problèmes de société majeurs comme l’éducation ou l’emploi. Mais comme cela a été relevé durant la Causerie, les défis et les pièges à éviter sont encore nombreux.

A commencer par ceux qui sont au cœur du deuxième thème relevé par Yves: le caractère profondément disruptif des MOOCs qu’il va falloir appréhender correctement. Que ce soit au niveau des créateurs de contenus pédagogiques ou des plateformes de distribution, on se cherche encore. Les modèles économiques notamment ne sont pas encore aboutis et chaque acteur cherche sa voie. Mais une chose est certaine: les MOOCs remettent complètement en cause les manières de faire des acteurs ‘traditionnels’. Et au milieu de ces derniers en apparaissent de nouveaux qui viennent combler des manques comme par exemple dans le domaine de la certification authentifiée des cours. Dans ce domaine en perpétuel mouvement , Yves voit énormément d’opportunités pour les entrants.

 

Causerie MOOCs

Le dernier thème concerne la vision politique qui se profile derrière les MOOCs. De l’avis de certains participants, les états se mettent de plus en plus en retrait dans le domaine de l’accès aux savoirs. Aucune réponse définitive n’émerge de la discussion, si ce n’est pour souligner le fait que le politique devrait plus investir le domaine et proposer une vision claire qui préserve équitablement les intérêts tous les acteurs de l’écosystème des MOOCs. Certains évoquent à ce propos l’hégémonie naissante des plateformes de distribution nord-américaines (Coursera et edX notamment) qui constitue selon eux une menace pour l’indépendance et la diversité des cours mis à disposition. Certains états l’ont compris, à l’image de la France qui a lancé la plateforme FUN (France Université Numérique).

Yves a souvent insisté sur le fait que les MOOCs constituent un domaine très novateur mais qui est encore relativement peu mature. De nombreux problèmes restent encore à régler, tels que celui des coûts (et corollairement celui de la rémunération des contributeurs), celui des droits d’auteurs et des licences, celui du rapport de force entre plateformes et contributeurs, celui de la protection des données personnelles des apprenants ou celui du  contrôle qualité pour ne citer que ceux-là.

Pour terminer sa présentation, Yves a évoqué le futur des MOOCs. Il voit notamment une multiplication des formats courts, mieux adaptés aux apprenants en formation continue. Selon lui, ce type de formats s’appuiera toujours plus sur un marché d’apps dédiées (les applications mobiles sur smartphones) qui permettront de nouveaux types d’interactions, et en mobilité qui plus est. On devrait parallèlement aller vers une meilleure prise en compte du contexte de l’apprenant. Si l’on y ajoute les efforts qui sont faits en terme de ludification pour réduire le taux d’abandon élevé lié au format même des MOOCs, on a une bonne idée des directions prises. Ces différents facteurs facilitent la venue sur le marché de nouveaux entrants qui vont à leur tour amener leur lot d’innovations.

La discussion qui a suivi la présentation de Yves a beaucoup tourné autour de la valeur pédagogique des MOOCs. La critique la plus importante qu’on peut leur faire dans ce domaine tient au fait que l’on doit poser des hypothèses réductrices sur les apprenants (dont la population est par nature très hétéroclites). On manque actuellement de recul pour réellement juger de l’impact que cela a sur la qualité des cours. Yves est par contre convaincu que la force des MOOCs réside dans la richesse des interactions entre apprenants, domaine où l’on peut encore imaginer des innovations porteuses de valeur.

 

             Plus on ouvre ses contenus, plus on donne et on partage,
                  plus on favorise la création de nouveaux savoirs !

 

 

On a également évoqué les nouveaux métiers qui émergent en lien avec la montée en puissance des MOOCs: des data scientists aux community managers, en passant par la spécialisation de métiers plus traditionnels qui sont nécessaires à produire un MOOC (preneurs de vue, monteurs, spécialistes en communication, etc.).

De l’avis de tous, les MOOCs ne vont pas, comme le prétendent certains, remplacer complètement les cursus universitaires traditionnels. Mais on va clairement vers plus d’imbrications entre réel et virtuel. Et l’influence qu’ils vont avoir sur la manière d’enseigner est indéniable, notamment dans le domaine de la formation continue. Reste à savoir quel impact ils auront sur le marché du travail.


Yves Zieba – Causerie MOOCs – Juin 2014 (180 Mb)


Références

 


Yves Zieba

Yves Zieba (@ziebayves) est un leader multiculturel et multifonctionnel avec une expérience particulière en stratégie d’entreprise, en stratégie commerciale et en agilité stratégique. Passionné d’innovation et entrepreneur dans l’âme, il a mis en place des incubateurs et de nombreux partenariats. Il anime un réseau d’anciens d’une grande écoles de commerce et coordonne plusieurs communautés et think tanks dont le « MOOC, SPOC, DOCC ».


On a causé d’Open Data…

 

Open

 

 


 

Rendre les données publiques vraiment publiques, les mettre à disposition de tout le monde de façon libre et réutilisable pour plus de transparence, d’efficacité et d’innovation. C’est ça, l’Open Data ! A Genève, les Transports Publics Genevois (TPG) et le Système d’information du territoire (SITG) sont les premiers à ouvrir la voie. La Causerie du 22 mai nous a permis d’échanger avec ces avant-gardistes.

Dans la logique d’un Internet collaboratif nourri par l’échange des connaissances, l’ouverture des données publiques constitue une voie incontournable sur laquelle beaucoup se sont déjà engagés. A l’image de nombreux pays, régions ou villes à travers le monde, c’est au tour du canton de Genève de s’y mettre. Car les TPG et le SITG sont convaincus des opportunités offertes par une telle démarche.

Et comme souvent lorsqu’un sujet fait le buzz, on en dit tout et n’importe quoi. Antoine StrohPascal Oehrli et moi-même sommes intervenus pour défaire les préjugés et aider à comprendre les enjeux de l’Open Data. C’était l’occasion d’informer les participants sur ce qui se fait concrètement à Genève dans ce domaine et d’envisager ensemble une dynamique d’ouverture des données sur notre territoire.

Une fois n’est pas coutume, j’ai contribué activement à la première partie de cette Causerie pour clarifier la notion d’Open Data et en rappeler les enjeux. Et je tenais en préambule à rappeler qu’à l’Observatoire technologique nous avions bien senti le vent venir puisqu’en 2008 déjà nous avions organisé notre traditionnelle Journée de rencontre sur ce thème.

Lorsqu’on évoque l’ouverture des données publiques, il convient d’abord de différencier les notions ‘données’ et ‘informations’. Trop souvent j’ai en effet constaté que l’on se réfère à l’information diffusée sur un site Web pour penser que l’on ouvre ses données.

Le deuxième point de clarification à apporter concerne le caractère publique d’une donnée. Ici aussi l’Open Data fait parfois peur si l’on n’a pas pris la peine d’expliquer qu’une donnée n’est considérée comme ‘publique’ que si :

    • Elle est non nominative
    • Elle ne porte pas atteinte à la sphère privée
    • Elle ne relève pas de la sécurité

De très nombreuses données produites par les administrations ont ainsi vocation à être rendues publiques: celles relatives aux transports, à la culture, à la météo, à l’environnement ou les données statistique pour ne citer qu’elles.

Le dernier point à définir concerne la notion d’ouverture qui vise à s’assurer que les données soient accessibles, exploitables et réutilisables. Ce sont ces qualités que l’on recherche lorsque l’on ouvre ses données. On traduit cette ouverture aux niveaux technique, économique et juridique.  Pour plus de détails je vous renvoie au document cité en référence.

J’ai également rappelé les enjeux qui peuvent pousser une administration ou un gouvernement à ouvrir ses données. J’en ai recensé 5 :

    1. La transparence: ces données que l’on rend accessibles favorisent grandement la transparence de l’action publique à l’image des données du budget du Royaume-Uni reprises par le site WhereDoesMYMoneyGo.org
    2. L’innovation: l’Open Data constitue un moteur d’innovation indéniable en favorisant la création de services innovants qui se nourrissent de ces données.
    3. La valorisation: la mise à disposition de ces données leur donne une seconde vie et permet de les valoriser (au sens large du terme) bien au-delà de leur vocation première.
    4. Les biens communs: ces données ont été payées par le contribuable pour leur utilité de service public. Certains estiment alors qu’elles doivent à la population dans une logique de biens communs.
    5. La transformation: l’ouverture des données constitue un levier de transformation du service public. Elles poussent notamment les services à plus s’ouvrir vers la société et favorisent un décloisonnement en interne.

Ces dernières années de très nombreux pays, régions ou villes ont intégré l’un ou l’autre de ces enjeux et ont ouvert une partie de leurs données, à l’image des portails précurseurs des gouvernements US (www.data.gov) et britannique (data.gov.uk). La Suisse n’est pas en reste avec le lancement l’année dernière du portail national opendata.admin.ch.

Causerie Open Data

Et à Genève ? Et bien cela bouge aussi, comme nous l’a tout d’abord démontré Antoine Stroh qui a initié l’ouverture de certains jeux de données des Transports Publics Genevois (TPG) en septembre 2013. Comme il nous l’a raconté, tout a commencé par un voyage aux Etats-Unis lors duquel il a été frappé par la privatisation des transports publics dans la région de  San Francisco. « Comment éviter cela chez nous? » s’est-il demandé. Cette question l’a amené à une réflexion sur l’ouverture des données publiques comme l’un des éléments contribuant à valoriser le service public.

Aujourd’hui l’Open Data s’inscrit parfaitement dans la stratégie de la régie genevoise qui envisage son évolution vers une plateforme de mobilité, avec un focus sur les habitants du territoire (envisagés comme de futurs clients). L’idée est de les impliquer dans une démarche de co-création en les aidant à proposer des solutions innovantes basées notamment sur l’élément indispensable à de nombreux services de mobilité : les données. L’Open Data s’imposait ainsi naturellement.

Antoine nous a rappelé l’historique de l’ouverture des données temps réel des bus genevois. Il y est allé en douceur afin de ne pas effrayer la direction de l’entreprise, laissant toujours possible un retour en arrière.  Il fallait en effet rassurer ses collègues sur le fait que cette ouverture d’une partie des données ne mettait pas l’entreprise en danger. Les TPG ont ainsi procédé par étapes, en organisant dans un premier temps plusieurs concours et hackatons, afin de démontrer les opportunités offertes par l’Open Data.

Un autre point qui a contribué à rassurer la direction des TPG est le travail effectué sur les conditions d’utilisation des données. En Suisse les licences Open Data n’ont malheureusement aucune valeur juridique et il a fallu réfléchir à des conditions d’utilisation s’inspirant des droits et devoir de ces licences. Les TPG ont ainsi repris le travail effectué par les juristes du SITG dans ce domaine.

Antoine illustre les potentialités offertes par l’ouverture de leurs données avec les meilleures contributions au concours organisé par les TPG. Je retiens l’application Wann (disponible sur l’App Store) qui répond à un besoin simple et bien cerné, et qui a été développée en Autriche! Grâce aux formats standards utilisés, il a été manifestement facile d’adapter au contexte genevois Wannune App créée à l’origine pour deux villes autrichiennes.

Au-delà de ces exemples encourageants, Antoine voit des potentialités encore plus grandes dans les mashups mélangeant leurs données temps réel à des données ou informations crowdsourcées, à l’image du prototype UnCrowded TPG proposé par l’Institut de Science des Services de l’Université de Genève. Il souligne également l’impact fort de la visualisation des données dans laquelle il voit beaucoup d’avenir.

Au moment de faire un premier bilan, Antoine note l’importance d’animer la communauté qui gravite autour de leurs données et de bien documenter les jeux de données. Il note la nécessité d’une animation importante pour entretenir la dynamique et obtenir ainsi un impact suffisant. Il constate également qu’il manque encore des standards bien établis relatifs aux formats des données et aux licences Open Data (du moins pour la Suisse) afin de facilité leur accessibilité.

Au niveau de l’entreprise TPG, il voit dans l’Open Data un moyen de changer le regard de la population sur une entreprise qui se veut innovante. Cette démarche a permis d’initier une boucle vertueuse avec des effets manifestes en interne de l’organisation. En distillant une culture de la donnée, elle a notamment permis de fluidifier la circulation des données dans l’entreprise. Elle permet en outre d’améliorer leur qualité grâce au feedback des utilisateurs si l’on a su mettre en place les canaux de retour.

Antoine est persuadé que les TPG doivent dès aujourd’hui se préparer à l’arrivée d’innovations de rupture qui, à l’image de Uber dans le monde des taxis, vont déstabiliser les acteurs en place. La clé pour les TPG sera de savoir évoluer vers une plateforme de mobilité sur laquelle l’Open Data joue un rôle important. Il faudra mettre en place une telle plateforme et surtout créer un écosystème autour de celle-ci. Mais il faudra pour cela oublier certains réflexes et savoir évoluer dans un mode plus expérimental, favorable à l’émergence.

Pascal Oehrli nous a ensuite présenté la démarche d’ouverture des données du Système d’information du territoire genevois (le SITG). Il nous a tout d’abord rappelé l’historique du SITG et la quantité de données impressionnante déjà à disposition en consultation sur le guichet cartographique dédié. Ce mois de juin, SITG ouvrira officiellement plus de 300 de ces jeux de données géo-référencées dans une logique Open Data. Les données mises à disposition seront aussi variées que le cadastre, le marquage au sol sur les voies de circulation, les arbres isolés du canton ou son bâti 3D pour ne citer que celles-là.

Pascal souligne le fait que l’ouverture de ces données s’est faite très naturellement, dans la continuité d’une dynamique qui prévaut depuis plus de 20 ans. Dès le début les fondateurs du SITG l’ont en effet voulu ouvert, non seulement sur les partenaires producteurs de données, mais aussi sur la population et les entreprises du territoire. Il a ainsi toujours été possible d’accéder à moindre coût à la plupart des données publiques.Le SITG a su également s’appuyer sur une architecture commune garante de cohérence et d’accessibilité facilitée. Enfin, une dynamique d’échange entre les différents partenaires avait d’emblée été mise en place.

Pascal Oehrli

Il n’a donc pas été difficile de convaincre les partenaires du SITG d’ouvrir une grande partie de leurs données publiques dans une logique Open Data. L’enjeux majeur dans ce cas est de valoriser au mieux ces données. Les partenaires ont en effet créé celles-ci pour répondre aux impératifs de leurs métiers respectifs et n’ont pas vocation à les exploiter et à les valoriser au-delà. Autant alors laisser à d’autres le soin de les utiliser pour créer des services à valeur ajoutée à destination de la population ou des entreprises de notre région. Ceci d’autant que pour le SITG, le coût financier d’une telle opération est très faible.

En fait c’est avant tout au niveau légal et juridique qu’il a fallu œuvrer. D’une part la loi relative à l’organisation et au fonctionnement du SITG a dû être revue afin de tenir clairement compte de la volonté d’ouvrir certaines données. D’autre part les juristes ont dû élaborer des conditions contractuelles générales régissant l’impression, l’extraction et l’exploitation des géodonnées du SITG, ceci en reprenant les droits et les devoirs contenus dans les licences Open Data. En l’occurrence, l’utilisateur a l’obligation de :

  • Apporter une mention de la source
  • Mentionner toutes modifications et traitements apportés
  • Respecter la législation sur la protection des données

Alors que les partenaires producteurs de données peuvent en tout temps :

  • Modifier les données et produits mis à disposition
  • Changer le mode de diffusion

Comme aux TPG, la clarification de ces droits et devoirs a contribué à rassurer les partenaires du SITG.

OpenDataSITG

Dès juin 2014, trois services seront ainsi mis à disposition du public :

  1. Le téléchargement libre des données depuis le catalogue (sous forme de fichiers compressés)
  2. L’ouverture de l’extracteur en ligne pour les données OpenData
  3. La mise en place d’un webservice cartographique unique des données OpenData

Dans le même temps des mesures d’accompagnement ont été envisagées, telles que le renforcement de la communication auprès du grand public, le réseautage et la création d’une communauté d’utilisateurs. Des événements ponctuels tels que concours, hackathons ou ateliers contributifs sont également prévus.

L’Open Data ne se déclinant pas seul dans son coin, le SITG s’est rapproché de la Confédération dans ce domaine et va notamment référencer  ses données ouvertes sur le portail fédéral dédié. Enfin on prévoit déjà un renforcement de l’infrastructure, des services, et des mécanismes de gestion du changement au sein du SITG.

Pascal conclut sa présentation en annonçant la séance d’information du vendredi 13 juin 2014 à la Fédération des Entreprises Romandes qui aura pour but de présenter la démarche Open Data et les jeux de données disponibles.

La discussion qui suit ces présentations aborde plusieurs thèmes importants lorsqu’on évoque l’ouverture des données publiques. On mentionne ainsi les aspects relatifs au respect de la sphère privée. Ceux-ci sont cruciaux lorsqu’on connaît la puissance des algorithmes actuels qui mettent potentiellement à mal le caractère anonyme de certaines données publiques lorsqu’il est possible de les croiser avec d’autres. Il faudra clairement rester vigilant sur le sujet.

On aborde également le défi de la dynamique Open Data. Car ouvrir ses données c’est bien. Faire en sorte que les gens ses les approprient c’est encore mieux. Tous s’accordent à dire que le vrai défi se situe à ce niveau. D’une part parce que peu savent aujourd’hui ce qu’est l’Open Data et d’autre part parce que les outils qui permettent de s’approprier ces données (traitement, visualisation) sont encore souvent trop compliqués à utiliser.

Et tout le monde s’accorde au final pour reconnaître que l’on est dans le monde de l’émergence et qu’il faudra savoir y rester en résistant à la tentation de trop vouloir cadrer les choses !

 


Références

Ouverture des données publiques : une opportunité pour Genève, Patrick Genoud, Observatoire technologique, 2011

Le site élaboré par les étudiants de l’INSA Rennes, pour faire simplement le tour de la question

données ouvertes, le site de Simon Chignard consacré à l’Open Data

Le blog de l’association nantaise LiberTIC

En Suisse: le portail Open Data suisse et Opendata.ch

Aux TPG: Data.tpg.chUrban Data Challenge

Au SITG: le catalogue du SITG

 


 

 


Patrick Genoud

Patrick Genoud est conseiller en technologies de l’information à l’Observatoire technologique de l’Etat de Genève   

 


 


Antoine Stroh

Antoine Stroh est responsable des données de production aux Transports Publics Genevois 

 


 

 

Pascal Oehrli

Pascal Oehrli est directeur du Service de Géomatique et de l’Organisation de l’Information de l’Etat de Genève

On a causé de production alimentaire…

Food


La fin de la faim, ou comment l’innovation peut-elle sauver l’humanité?

Le climat se réchauffe, le nombre d’êtres humains s’accroît tandis que les ressources pour produire notre nourriture s’amoindrissent chaque année. Entre innovation et famine, qui aura le mot de la fin ?

Que l’on soit ouvrier d’usine au Vietnam ou président des Etats-Unis, se nourrir est le besoin fondamental de chacun sur cette planète. Aujourd’hui, grâce aux innombrables innovations dans le domaine (production, traitement, distribution) nos besoins sont satisfaits par une alimentation devenue moins onéreuse, plus saine et plus goûteuse que jamais. C’est sur ces prémisses que Jonathan Moy de Vitry a lancé la Causerie du 24 avril intitulée « Innovation versus Starvation »  et consacrée à l’innovation dans le domaine alimentaire.

Jonathan débute en illustrant de manière provocatrice ce que peut être l’innovation dans le domaine alimentaire en exhibant un hamburger de chez McDonald. Car il y en a des innovations dans un tel produit: que ce soit au niveau du mode de production, du conditionnement, du marketing, du goût, ou de la logistique associée pour ne citer que celles-là. Jonathan veut montrer par-là la nécessité d’envisager l’innovation dans le domaine alimentaire de manière holistique.

Et dans ce sens la notion de réseau d’innovation prend tout son sens. Il aimerait ainsi que l’on oublie l’image de l’innovation centrée autour d’une seule personne, à l’image de celle que l’on a de Steve Jobs. Cette image ne correspond pas à la réalité. A l’inverse, l’innovation réside aujourd’hui avant tout dans les réseaux et dans le partage des connaissances et des savoirs.

Mais ces réseaux alliés à une vision holistique de l’innovation suffiront-ils à nourrir la planète dans les décennies à venir ?

Au niveau des bonnes nouvelles, Jonathan met en avant les opportunités considérables apportées par les technologies industrielles alliées (au sein de réseaux d’innovation) aux technologies numériques. Il l’illustre notamment avec les résultats impressionnants obtenus par l’industrie de l’élevage de saumons ces dernières années. Dans un registre presque opposé, les innovations amenées dans le domaine de la production alimentaire biologique font toujours plus leurs preuves. Jonathan insiste sur le fait que c’est en combinant toutes ces approches que l’on va découvrir de réelles opportunités.

Et quelle que soit la voie choisie, Jonathan est convaincu que notre monde qui devient toujours plus complexe s’approche d’un point de bascule (un tipping point en anglais) dans le domaine alimentaire. Il est important selon lui d’atteindre ce point de bascule en ayant trouvé des solutions pérennes à nos problèmes d’alimentation. Car une fois celui-ci atteint, le chaos qui en résultera risque de ruiner nos efforts pour innover efficacement.

Photo Bruno Chanel

Photo Bruno Chanel

A ce point de la présentation, Jonathan nous a beaucoup parlé des technologies comme des solutions aux problèmes de production alimentaire. Mais il n’oublie pas la composante humaine et termine son exposé en insistant sur l’innovation sociale qui doit compléter le tableau. Nous sommes en effet parties prenantes de la solution. Nous pouvons ainsi innover dans notre vie quotidienne et contribuer à des améliorations significatives de la situation. Des choix simples peuvent en effet avoir des impacts importants. Dans le domaine du gaspillage notamment, les gains peuvent être considérables: toute nourriture non gaspillée n’as pas besoin d’être produite.

                    Enjoy your food, you will eat less!

Jonathan conclut en affirmant (avec tout l’auditoire d’ailleurs) qu’innovation technologique et innovation sociale vont main dans la main pour résoudre les difficultés à venir.

La discussion qui suit aborde de nombreux thèmes. On évoque notamment la brevetabilité comme étant un frein majeur à l’innovation technologique. Est-ce normal dans un domaine qui concerne des enjeux aussi importants pour la planète? Et c’est là que les gouvernements ont un rôle à jouer. Mais tant que nous n’aurons pas une prise de conscience planétaire des enjeux, cela va être difficile. On disserte alors sur le pouvoir qu’ont les citoyens dans ce domaine, pouvoir qu’ils ne prennent pas ! Et pourtant les technologies numériques offrent des opportunités sans pareil au niveau de la communication et de l’information.

La Causerie se termine en évoquant les nombreuses initiatives lancées sur le territoire en matière d’alimentation (voir références).


Références

Food Focus Genève : https://www.facebook.com/FoodFocus

Le Printemps carougeois qui se déroulera sur le thème de l’alimentation Fédération romande d’agriculture contractuelle de proximité : http://www.acpch.ch

La Ruche qui dit Oui : http://www.laruchequiditoui.fr/

 


 

Jonathan Moy de Vitry

Probablement l’un des coursiers à vélo les plus atypiques du canton, Jonathan Moy de Vitry a obtenu son Master en innovation et management industriel à l’Université de Gothenburg en Suède l’année dernière. Sa thèse portait sur la manière dont l’innovation durable a aidé l’industrie des fermes de saumons norvégiens à échapper au célèbre “Fishmeal Trap« , un travail pour lequel il a reçu une récompense de l’Agence Nationale de l’Innovation suédoise. 


 


On a causé de protection des données…

Protection des données

La protection des données, un mythe ?

La question était au cœur de la Causerie du jeudi 27 mars dernier à la Muse. Près de trente personnes avaient rejoint Alexis Roussel, président du Parti Pirate Suisse et défenseur ardent et avisé du numérique, pour en discuter. 

Les opportunités liées au numériques ne sont plus à démontrer. Mais à quel prix ? Force est de constater que nous bénéficions fréquemment d’un confort technologique au prix de concessions dans le domaine de la protection des données et de la sphère privée. Certains n’y voient qu’une évolution naturelle de notre société. D’autres s’en préoccupent et tirent la sonnette d’alarme: la protection des données ne fonctionne pas, ni en Suisse, ni ailleurs !

Alexis est de ceux-ci. Il prône une réappropriation politique et juridique des données. Il souhaite une organisation du marché et est convaincu que les opportunités d’avancer dans la bonne direction existent. Et ce sont ces idées qu’il a voulu partager avec nous ce soir-là.

Il part du constat qu’Internet est résilient et fonctionne très bien malgré tout ce qu’on peut dire. Mais le problème est qu’il connaît actuellement une perte de confiance amplifiée par les affaires de ces derniers mois. D’une part nos données personnelles nous échappent et sont convoitées par de très nombreux acteurs de l’Internet, Google et Facebook en tête. D’autre part nous sommes surveillés par les gouvernements, à l’image de la NSA qui dispose d’un arsenal gigantesque pour espionner la planète numérique.

Pour illustrer la multitude des sociétés qui s’intéressent à nos données lorsque nous surfons sur Internet, Alexis nous propose une démonstration du module Lightbeam qui permet de donner un coup de projecteur sur ceux qui nous surveillent et sur là où partent nos données personnelles. Le résultat est visuel et très convaincant. On remarque notamment que Google Analytics (que nous ne voyons jamais directement) est omniprésent lorsque nous surfons sur le Web.

Lightbeam

Cette constellation de sociétés qui s’intéressent à nos habitudes de navigation et à nos données peut paraître anodine, surtout lorsque l’on estime n’avoir rien à cacher ou à se reprocher. Mais Alexis rappelle qu’il est tout à fait anormal de ne pas être au courant de ces manières de faire et surtout de ne pas être en mesure de s’en protéger (pour le commun des mortels du moins). C’est d’autant plus inquiétant lorsque l’on est un professionnel qui traite et échange sur le Web des données sensibles comme peut le faire quotidiennement un médecin ou un avocat.

L’autre problème majeur réside dans le fait que ces entreprises peuvent savoir énormément de choses sur les individus en agrégeant des données en apparence anodines en terme de protection de la sphère privée. 

Alexis pense que le problème se situe dans un premier temps au niveau juridique. En effet les mécanismes actuellement en place ne fonctionnent pas et ne prennent pas en compte notre identité numérique de manière suffisamment large. L’article 13 de la constitution helvétique précise en effet que « Chaque personne a le droit d’être protégée contre le mauvais usage de ses données personnelles ». Mais cet article ne va pas suffisamment loin. Les mécanismes juridiques appliqués à la personnes devraient en effet être appliqués à nos données afin de préserver notre intégrité numérique.

       Aujourd’hui Internet est un espace de vie ! Et la vraie question est celle de notre personnalité numérique

Pour illustrer son propos, Alexis décrypte avec nous le cas Moneyhouse qui a défrayé la chronique l’année dernière. Cette société collecte les données concernant la situation financière des individus et les revend aux entreprises (de microcrédit notamment). Avec ces manières de faire, et sans garde-fou juridique, on subit un effet d’échelle impressionnant et on abolit quasiment le droit à l’oubli. On se retrouve face à une entreprise dont on n’a jamais entendu parler et qui peut influencer durablement notre vie en vendant des données nous concernant et dont certaines peuvent même être fausses.

Et même si les moyens juridiques de se faire entendre existent, ils ne sont pas tournés à l’avantage du citoyen. Celui-ci doit la plupart du temps compter sur des organisations faîtières pour l’aider dans ce domaine, à l’image de la page proposée par la Fédération Romande des Consommateurs qui explique comment effacer ses données de Moneyhouse.

Après ce tableau introductif plutôt noir de la situation actuelle, Alexis évoque le futur ! Et il n’est pas forcément plus rose. Avec par exemple l’arrivée sur le marché des Google Glass qui permettent potentiellement de filmer tout un chacun en tous temps, partout, et sans son consentement. Où iront ces données ? Quel contrôle aurai-je sur elles lorsqu’on me filme ? Comment régir les interactions des individus dans ce contexte ? On aborde ici de vraies questions sociales. Il y a certes des avantages amenés par ces services numériques qui nous facilitent la vie. Mais à quel prix ? Il faut une vraie réflexion de fond sur le sujet avant de se laisser déborder par des usages dont nous n’aurons ni souhaité ni même envisagé toutes les conséquences. 

DataNSAAlexis évoque également le gros trou noir lié à la sécurité nationale. On assiste depuis quelques années à un tabou intolérable: personne n’a plus un mot à dire lorsqu’elle est mise en avant. Que faire alors ? Ne plus bouger ? Alexis pense que non. Il prône tout d’abord de remettre en question le Safe Harbour qui régit les transferts de données numériques entre l’Europe et les Etats-Unis. Les conditions d’utilisation notamment doivent être revues pour aller vers plus de simplicité. Dans le même temps il faut donner aux citoyens plus d’informations sur le sujet ainsi que les outils pour mieux gérer la question.

Le problème réside dans le fait que les outils en place, qu’ils soient technologiques ou juridiques, considèrent Internet comme un vecteur de communication. Or c’est beaucoup plus que cela: c’est un espace de vie ! Les outils à créer doivent ainsi permettre de protéger l’être humain dans son intégrité numérique.

            Data is not data ! Data is us!

 

Mais au-delà de la volonté des politiques à faire appliquer des mesures adaptées, il faudra veiller à leur applicabilité. Cela nécessitera de repenser le fonctionnement du marché de la donnée, que celle-ci soit personnelle ou anonymisée. A terme le système devrait nous permettre d’aller devant un juge si l’on sait que quelqu’un possède des données nous concernant sans que nous en soyons informés.

Mais où sont les évidences ? questionne le professeur Michel Léonard qui souligne qu’il est très difficile de les obtenir dans le monde numérique. Les outils juridiques risquent ainsi de ne pas trouver de réponse technologique pour faire appliquer les lois.

Alexis est dans tous les cas convaincu qu’une meilleure prise en compte de la protection des données attire les individus et les entreprises et constitue ainsi un moteur à l’innovation. Dans ce sens, la juridiction suisse en la matière peut constituer un avantage compétitif. Preuve en est le nombre croissant d’entreprises qui viennent installer leurs serveurs de données chez nous: la Suisse est en train de devenir un paradis de la vie numérique. Les européens l’ont compris puisqu’ils sont en train de réviser leur droit dans le domaine de la protection des données.

Causerie 'Protection des données'

Le sujet de cette Causerie nous a ensuite emmené vers des thèmes divers et variés : on a notamment évoqué le cloud computing, la monnaie numérique Bitcoin, la plateforme Ethereum, les banques d’informations de demain ou le rôle crucial de l’éducation (à tous les niveaux).

Alexis a eu le mot de la fin en affirmant qu’il faut faire basculer la société en augmentant son niveau de maturité dans le domaine de la protection des données. Le débat commence à avoir lieu dans la population. Il faut maintenant qu’il remonte au niveau politique en interpellant les décideurs pour les aider à mieux comprendre le sujet et à faire les bons choix. Et c’est là l’une des missions que s’est donnée le Parti Pirate.

Références

  • Le billet bien senti de Jacques-André Widmer (qui a participé à la Causerie) sur le blog de la Tribune de Genève
  • Le site d’information citoyenne Ethack 
  • Le site de l’Electronic Frontier Foudation (EFF) qui défend nos droits dans le monde numérique
———————————————————————————————————————————————————–Alexis Roussel
Alexis Roussel est juriste et entrepreneur. Il est président du Parti Pirate Suisse et est à ce titre un militant actif, ardent défenseur du numérique tout en pointant ses dérives.
———————————————————————————————————————————————————–

On a causé de Quantified Self…

Quantified Self

Mieux se connaître soi-même par les chiffres. C’est l’objectif du Quantified Self, un mouvement qui a vu le jour en 2008 dans la baie de San Francisco sous l’impulsion de Kevin Kelly et Gary Wolf, éditeurs du magazine Wired. Il est depuis lors en pleine expansion.

Le Quantified Self (QS) vise à la collecte et au partage en temps réel des données qui nous concernent par le biais d’objets connectés et d’applications mobiles. Le mouvement s’inscrit dans une tendance globale vers la réappropriation de notre corps et de notre personne en général.

  Avec le Quantified Self, bienvenue dans l’ère de la mesure de notre intimité !   

Laurent EymardC’est Laurent Eymard qui lance cette Causerie du 23 janvier 2014 avec une présentation plutôt destinée aux néophytes. Il nous apprend qu’il a découvert le QS il y a une année seulement. Mais il a manifestement rattrapé le temps perdu !

Le QS recouvre une réalité trop vaste et trop changeante pour en donner une définition catégorique. Laurent nous propose celle de Wikipedia et nous renvoie également aux sites MyData Labs (francophone) et quantifiedself.com (anglophone)

Pour lui le QS n’est pas uniquement une affaire de technologie. C’est avant tout une démarche qui vise à se quantifier soi-même, quel que soit le moyen utilisé. La technologie n’est qu’un facilitateur et permet d’aller beaucoup plus loin que le simple carnet de notes et les graphiques Excel. C’est elle qui a permis le formidable boom que connaît le QS depuis deux ou trois ans.

Laurent l’illustre avec une série d’exemples provenant des multiples domaines concernés par le QS: cela va des vacances, au sport, en passant par l’alimentation, la sécurité ou la santé.

La dimension sociale du QS est pour lui évidente. En phase avec l’évolution du Web et de ses usages, le QS s’est en effet naturellement invité sur les réseaux sociaux sur lesquels on partage ses expériences. Lorsqu’il s’agit de la quantification de nos performances ou de nos paramètres physiques, c’est souvent dans un esprit de compétition favorisé par la composante ludique intégrée dans les principaux dispositifs et services proposés.

Avec une participante à la Causerie, nous nous demandons si ce type de systèmes ne tend pas à nous faire perdre l’écoute de notre corps. Apprenons à mieux écouter ce dernier plutôt que de faire une confiance aveugle à des technologies qui ne sont de par ailleurs pas toujours aussi précises qu’on voudrait nous le faire croire. Laurent acquiesce mais nous rappelle que le QS n’en est qu’à ses débuts et que le meilleur reste à venir. Il est en outre convaincu que les paramètres mesurés peuvent révéler beaucoup plus de choses qu’une simple écoute de notre corps.

Tout comme Kate Wac qui animait la Causerie avec lui, Laurent est persuadé qu’au-delà des aspects descriptifs qui permettraient éventuellement de poser un diagnostic, le QS autorisera toujours plus de passer à un mode prédictif, voire prescriptif. Dans un premier temps en tous cas, ces outils valident une perception ou peuvent déclenchent des alertes.

Les dispositifs de mesure vont toujours plus se fondre dans des objets qu’on a achetés pour d’autres usages (à l’image des montres actuelles). Dans un futur proche Laurent pense que des applications et des services de visualisation vont nous aider à mieux valoriser les données produites. Le QS est juste en phase d’apprentissage !

Laurent mentionne pour terminer sa présentation l’exemple extrême de Tim Cannon qui pousse le QS dans ses extrêmes et va jusqu’à hacker son corps en y implantant des système de mesure (voir par exemple ici). Avec, qui sait, des applications vraiment intéressantes qui vont en découler !

Kate Wac prend ensuite la parole pour nous présenter son expérience personnelle ainsi que les recherches qu’elle mène dans ce domaine. Elle résume le rapport qu’elle entretient avec le QS avec cette phrase:

           Quantified Self is a journey, not a destination !

Kate est venue au QS il y a de nombreuse années avec pour objectif de surveiller sa ligne. Son parcours professionnel et l’évolution des technologies l’ont naturellement amenée à se tourner vers le QS. Elle illustre les différents domaines qu’elle a investigués en présentant la mesure de son activité physique durant ces dernières années obtenue grâce au coach électronique Fitbit, un des produits phares du marché.

Elle nous révèle également une série de ‘mesures’ plutôt originale et qui nous démontre ainsi que le QS peut prendre des formes inattendues: sa webcam la prend en photo automatiquement très régulièrement devant son écran et lui permet de tenir un historique sur plusieurs années de l’évolution de sa physionomie et de ses états émotionnels. Kate ne sait pas forcément comment exploiter ce type de données aujourd’hui. Mais elle est convaincue que la mesure des émotions peut nous réserver des surprises prometteuses.

Elle mesure également ses activités quotidiennes (rendez-vous, repos, détente, etc.) en prenant la peine de catégoriser et de mesurer la durée de chacune d’entre elles. Elle ne voit pas non plus d’exploitation immédiate de ces données, mais elle les acquière en se disant qu’elle pourra un jour en faire quelque chose d’utile pour elle. Kate amène ainsi clairement le QS dans la self-expérimentation. Selon elle, les potentialités sont énormes. Mais comme souvent dans le monde du numérique l’un des obstacles est le manque de normalisation (technique et sémantique) qui permettrait un échange facilité des données mesurées pour les croiser, les enrichir et ainsi créer de la valeur pour l’utilisateur.

Kate présente également quelques formes de QS qui ont le vent en poupe, tel que le money spending (la mesure de nos dépenses quotidienne). La collecte de ces données et leur partage sur des sites dédiés (tel que Mint) constituent selon elle une aide appréciable pour toute une catégorie de personnes qui ont de la peine à gérer leur argent.

Les avancées prometteuses du QS, Kate les perçoit avant tout dans le domaine de la santé. Elle espère que nous serons bientôt capables avec de tels systèmes de mesurer facilement (et précisément) notre taux de glucose, notre rythme respiratoire et notre pression sanguine. Avec ces données nous entrerons vraiment dans l’ère de la prévention active. Enfin elle est persuadée que le QS va investir des domaines tels que les émotions, la flexibilité sociale et la flexibilité mentale. Mais ça c’est pour demain ! Kate&Participants

Le débat autour des questions soulevées par Kate et Laurent est vif. Quatre thèmes reviennent dans la discussion:

  1. Le QS ne risque-t-il pas d’introduire des biais de comportement dans notre société en érigeant implicitement une norme qui n’est pas forcément ni souhaitée, ni souhaitable. Dans le même ordre d’idée, ces technologies n’auraient-elles pas tendance à déresponsabiliser les gens? Pas de réponse définitive sur ce sujet tant les exemples discutés peuvent servir l’une ou l’autre cause.
  2. La deuxième question concerne la surinformation. Où va la masse des données que ces capteurs envoient sur le web ? Qu’en fait-on réellement à titre personnel ? Peut-on les récupérer afin de croiser ces données et de les exploiter à leur juste valeur ? L’obésité informationnelle ne menace-t-elle pas ? Autant de questions qui n’ont pas toujours des réponses claires. Kate et Laurent conviennent qu’il faudra s’en préoccuper tout en rappelant que le domaine est trop nouveau pour avoir résolu toutes ces questions.
  3. Le vrai problème qui revient systématiquement dans nos échanges est celui du respect de la sphère privée. Que font les entreprises des données que nous partageons avec elles ? Notre sphère privée est-elle préservée ? Les gens ont-ils conscience des dérapages possibles avec des données qui touchent à notre intimité ?  Kate a conscience des problèmes potentiels mais préfère se concentrer sur la valeur ajoutée que cela peut avoir pour les individus, cela sans bien sûr nier les dérives possibles. Avec l’une des participantes de la Causerie, elle insiste sur le fait que les données récoltées peuvent constituer des bases de données riches de promesses pour les chercheurs (dans le domaine de la santé notamment).
  4. En lien avec ce dernier point, nous nous demandons si les données issues du QS ne se substituent pas à des mesures plus ‘professionnelles’ entraînant par là-même des risques potentiels liés à une précision limitée et/ou à une mauvaise interprétation des résultats ? La majorité s’accorde sur le fait que les mesures de QS sont complémentaires des données obtenues par des professionnels et qu’il faut plutôt y voir toutes les opportunités liées si l’on y met les garde-fous nécessaires. Dans cet esprit, on note à titre d’exemple la valeur ajoutée que pourraient représenter les données QS dans le cadre du dossier médical partagé (monDossierMédical.ch) lancé récemment à Genève. Kate a été approchée par les initiateurs du projet, mais on s’est bien vite rendu compte qu’il y avait de nombreux autres problème à régler avant de s’intéresser à cette voie.

Le mot de la fin revient à Kate qui évoque quelques défis à venir pour le QS. Je retiendrai notamment: un travail important à faire sur l’accessibilité à ces technologies et aux données produites (outils, services, visualisation, interprétation, etc.); les coûts de ces technologies qui ne les rendent aujourd’hui pas accessibles à la majorité; et une nécessaire prise en compte des aspects éthiques liés aux usages du QS.

———————————————————————————————————————————————————–

Laurent EymardLaurent Eymard dirige sa société Red Dolphin spécialisée dans les produits technologiques portables, particulièrement ceux en lien avec le Quantified Self. Il est actif dans les communautés de passionnés de ces sujets.

 


La présentation de Laurent

———————————————————————————————————————————————————–

Katarzyna Wac

Katarzyna Wac est chercheuse à l’Institut de Science des Services de l’Université de Genève. Elle y dirige le Centre de recherche pour la qualité de vie.

Dans une approche transdisciplinaire, elle s’intéresse aux systèmes de réseaux mobiles permettant de fournir aux utilisateurs des services ‘partout, en tous temps et par n’importe quel canal. Au-delà de ses travaux de recherche, Katarzyna est une utilisatrice de longue date des outils du Quantified Self. 

 


La présentation de Katarzyna

 

Page 4 de 10« 1...23456...10...Fin »