OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Les data en forme http://owni.fr/2012/07/03/les-data-en-forme-episode37/ http://owni.fr/2012/07/03/les-data-en-forme-episode37/#comments Tue, 03 Jul 2012 12:12:12 +0000 Paule d'Atha http://owni.fr/?p=115151 Une fois n’est pas coutume, nous allons ajouter une pincée de pédagogie à cette chronique hebdomadaire, 37e du nom et bonne première pour juillet. Et on en profite pour souhaiter de bonnes datavacances à tous nos lecteurs, comme ça on n’oubliera pas.

Discours de la méthode

Pour démarrer gentiment, explorons les 10 étapes pour élaborer une infographie du tonnerre [en] par Josh Smith, membre de l’éminent studio de design new-yorkais Hyperakt (dont on vous a récemment parlé). Ces dix étapes ont été mises en pratique au sein de cette agence grâce à l’expérience acquise dans le temps. Au vu de notre propre activité plus modeste de producteurs d’infographies (comme ici, ici ou encore ici), il nous semble que cette chronologie soit particulièrement appropriée pour tout projet “data” – infographie ou autre. Les 10 étapes pour faire un projet data selon Hyperakt : 1) récolter les données 2) tout lire 3) trouver le petit truc narratif 4) identifier les problèmes 5) créer une hiérarchie 6) faire une maquette 7) choisir un format 8) déterminer une approche visuelle 9) peaufinage et tests 10) publication. Le plus intéressant se trouve naturellement dans la démonstration cachée entre les titres.

Mise en pratique

Et pour mettre immédiatement en application cette méthode, nous avons repéré cette semaine trois infographies au style fort différent, mais qui nous semblent toutes particulièrement réussies.

La première, pondue par les maîtres en la matière : le New York Times, qui dépeint en une seule fresque les Résidents invisibles [en] décrits par le projet Microbiome Humain de l’Institut de la santé étasunien. Le défi était pour le moins colossal, puisqu’il s’agissait ici de représenter en une seule infographie un panorama général des microbes classés par familles, par localisation dans le corps, par quantité et par fréquence. Au final, le choix d’enfermer l’arbre de catégorisation naturel dans un cercle permet une représentation claire que n’aurait pas forcément permis un autre modèle géométrique. Ça n’a pas forcément l’air comme ça, mais le boulot de designer informationnel (so chic) c’est quand même un boulot compliqué.

Deuxième infographie, imaginée par l’équipe très efficace de l’Open Data Blog d’il Sole 24 ore : les investissements des fonds souverains, une affaire de 81 milliards [it] qui s’accroche à la gageure de mettre en peinture ce mécanisme de circulation du gros argent entre les pays qui disposent des réserves et les sociétés ou pays qui ont besoin de liquidités. Là encore, la scénarisation de l’infographie est plus ardue qu’elle n’en a l’air, car elle doit être légère en restant fidèle à la complexité des données, et elle doit être… jolie. Et de ce côté, c’est donc plutôt réussi.

La troisième infographie sélectionnée cette semaine est Game of Phones [en], une illustration chatoyante de la guerre sans merci que se livrent Apple et Google à travers leur plate-forme de téléchargement mobile. Le scénario, imaginé par la boîte d’analyse de données App Annie, consiste à poser des chiffres sur une cartographie imaginaire : il est assez courant. L’idée ici est naturellement de livrer un clin d’oeil médiéval à la série TV du moment en dessinant les contours d’un continent improbable à l’esthétique très ludique.

De l’interactivité

La visualisation de données n’est pas en manque de littérature non plus cette semaine. La lecture du papier en trois parties de Ben Jones, Data Visualisation : clarté ou esthétique ? [en] pose les bases d’une réflexion centrale du journaliste de données lorsque vient le moment de déterminer la meilleure façon de représenter une série de chiffres. L’auteur offre une grille de raisonnement qui prend en considération les atouts et les travers de la représentation lorsqu’elle privilégie un aspect plutôt qu’un autre (clarté ou esthétique, donc). Et synthétise des pistes pour marier au mieux ces axes en prenant en compte un troisième non moins important : l’impact causé par la visualisation.

Partant de cet enrichissement, on apprécie d’autant mieux lorsque le travail du journaliste de données est fortement documenté au point de dévoiler le cheminement in extenso qui a conduit une simple idée de représentation dynamique de la donnée à sa matérialisation finale sur le site (là encore) du New York Times. La dataviz en question date du 17 mai dernier et illustre l’introduction en bourse de Facebook en démontrant comment s’est déroulée celle de 2 400 autres sociétés “techno” et comment leur valeur boursière a évolué après trois ans. Sans surprise avec le NYT, c’est propre, clair, sans fioritures. Et il est donc particulièrement passionnant de se précipiter sur le blog de Kevin Quealy parce qu’il y conserve la trace de toutes les étapes de création de la visualisation pensée par la journaliste Amanda Cox et de sa petite équipe – et le processus créatif pour représenter des données assez complexes est d’autant plus intéressant à comprendre qu’on saisit bien la force des éléments coercitifs mentionnés plus haut : en gros ça doit être beau, mais ça doit être clair, mais ça doit être percutant.


Twitter superstar

Deux visualisations de données élaborées autour de Twitter ont tenté, elles aussi, d’adopter les bons principes de la semaine – en ne réussissant pas nécessairement à convaincre sur tous les fronts.

La première performance a été réalisée par Jeff Johnston. Son défi : représenter graphiquement les liens [en] qui unissent via Twitter les participants du festival Eyeo et mettre en couleurs l’évolution de ces relations à la suite de la manifestation. À défaut d’être très clair, au moins c’est joli.

Deuxième bel ouvrage, pondu par Nicolas Belmonte, est celui matérialisé à l’occasion de la fin de l’Euro de football : le “streamgraph” #Euro2012 montre “simplement” le nombre de tweets échangés durant la compétition en introduisant le paramètre lexical dans son analyse. Le plus intéressant ici est bien sûr que le dispositif capte quelle équipe est mentionnée pour chaque match et à quel moment du match ces mentions se produisent. À défaut d’être très joli, au moins c’est clair.

Beau job

Nous terminerons cette semaine 37 avec une présentation (meow) très complète et une réflexion non moins passionnante sur le(s) métier(s) du journalisme de données : les huit chapeaux de la visualisation de données [en]. Plus qu’un simple agrégat d’idées sur la meilleure manière de représenter la data, nous avons là un alignement convaincant d’arguments militant en faveur de la constitution d’un journalisme de données d’équipe tel que nous le pratiquons chez Owni, préférant la somme de talents hors-norme plutôt que la structuration indivise de combattants compétents en tous points mais spécialistes d’aucun. À ajouter, donc, à toutes ces lectures estivales qui réchaufferont les cœurs et les esprits.


Tous les épisodes précédents des Data en forme.
Paulette sur Twitter | Paulette sur Facebook | Paulette sur Pinterest

]]>
http://owni.fr/2012/07/03/les-data-en-forme-episode37/feed/ 3
Les data en forme http://owni.fr/2012/04/30/les-data-en-forme-6/ http://owni.fr/2012/04/30/les-data-en-forme-6/#comments Mon, 30 Apr 2012 15:27:12 +0000 Paule d'Atha http://owni.fr/?p=108460 OWNI : découvrez la data-bible, du journalisme tout lent, des réseaux nucléaires qui s'emmêlent et des prix littéraires qui se thématisent. Il y a même du Johnny Hallyday, c'est dire.]]> Depuis ce week-end, Paule d’Atha est un peu émue : notre bible est sortie. Elle est rouge, elle est toute jolie et elle s’appelle The Data Journalism Handbook. Elle a plusieurs parents : conçue à l’initiative du Centre européen du journalisme et l’Open Knowledge Foundation, elle a vu la BBC, le Chicago Tribune, le Guardian, ProPublica, La Nacion, Le Washington Post, et bien d’autres, participer à sa réalisation.

Ce qui nous plaît dans ce handbook (manuel), c’est que le contenu est fondé sur la pratique et les retours d’expériences, et qu’il tente déjà de prendre du recul sur cette “nouvelle” pratique protéiforme, en évolution constante que constitue le data journalism. Par exemple, la partie “In The Newsroom” montre que le data journalism est arrivé différement dans les rédactions : ABC par le biais de projets multi-plateformes, The Chicago Tribune par l’intégration de hackers.

Paul Bradshaw, de l’Université de Birmingham, termine la page consacrée à la définition du data journalism par ces phrases, qu’il nous a semblé intéressantes de relever :

Les données peuvent être la source du data journalism, ou elles peuvent être l’outil avec lequel l’histoire est racontée – ou elles peuvent être les deux. Comme n’importe quelle source, elles doivent être traitées avec scepticisme ; et comme tout outil, nous devons être conscients de la manière dont il est construit et la manière dont il restreint les histoires que l’on peut créer avec

The Data Journalism Handbook est en vente sur O’Reilly et accessible gratuitement en ligne à cette adresse.

Les films en lambeaux

Combien a rapporté Drive ? Quelle rentabilité pour Black Swan ? Qui de Slumdog Millionnaire ou de Gran Torino a eu le plus de spectateurs ?

La remarquable infographie interactive de Tom Evans (dont nous saluons au passage la jolie photo de profil Twitter) intitulée “Film Stripes” et hébergée chez Visual.ly permet de comparer les films selon plusieurs critères : budget de production, argent rapporté par le film, note, et rentabilité. On y apprend ainsi que Paranormal activity tient le haut du classement avec un taux de rentabilité s’élevant à 1 142 000 % : 0,015 millions de dollars de budget pour 171,3 millions de dollars encaissés.

Une vision à la fois esthétique et financière de l’économie du cinéma américain. Petit bémol cependant, l’infographie ne précise pas selon quels critères (années, nationalité…) ont été sélectionnés les films présents.

Browse more data visualizations.

La littérature version thème

Le magazine Delayed gratification, publié par “The Slow Journalism Company”, s’est intéressé aux thèmes présents dans la liste des oeuvres sélectionnées pour le Booker Price 2011, l’un des plus importants prix littéraires remis uniquement à des romans de fiction écrits en anglais, par un auteur vivant citoyen du Commonwealth, de l’Irlande, du Pakistan ou de l’Afrique du Sud.

“Plot lines” en recense vingt thématiques : certaines présentes dans un seul livre, comme “tigre échappé” ou “meurtre de frères cowboys” ; d’autres plus largement partagés : “amour”, “mort”, “guerre”.

Nous avons par ailleurs bien aimé le concept sur lequel se base”The Slow Journalism Company“ :

Slow Journalism mesure les informations en mois et non en minutes, rendant compte d’histoires une fois que la poussière s’est installée. The Slow Journalism Company offre un antidote aux médias jetables et considère comme une vertu d’être le dernier à sortir les informations. Ses publications sont belles, collectables et designées pour être conservées et chéries.

Et en effet, ses archives d’infographie recelent de petits trésors, tant dans l’idée que dans la réalisation : “Le vrai sens de Noël” par exemple, basée sur les recherches Google ou “Février 2011 sur Twitter” qui géolocalise les échanges sur Twitter. Un lien à garder dans sa veille.

Le nucléaire en visuel

Cette application est “oldlink” mais elle nous semblait grandement mériter sa place dans notre veille data.

“FaceNuke”, réalisée par Greenpeace, cartographie les relations dans le secteur de l’énergie en France. Les points représentent des personnalités et au clic, la liste des personnes auxquelles le “point” est relié s’affiche, regroupée en fonction de leur organisation d’appartenance (Areva, EDF, UMP, etc.)

Le bon point : la base de données ayant servi à l’application, est accessible en format tableur depuis l’onglet “En savoir plus”.

Le mauvais point : les liens entre personnes ne sont pas qualifiées. Greenpeace précise dans sa méthodologie que ce sont des mandats actuels ou passés ou une formation mais le détail des liens n’apparaît pas dans l’application.

Si vous aimez les dataviz qui parlent des dessous du nucléaire, il y en a des très jolies publiées par Marion Boucharlat, Sabine Blanc et Claire Berthelemy sur OWNI.fr ici et ici.

Les dataviz aux frontières

Trois datavizualisations cette semaine pour conforter notre identité française :

Pour pouvoir continuer de râler dans le métro parisien, mais avec un beau plan et des infos à jour : utilisez le plan Sublyn. Développé par Geoffrey Dorne (notre excellent chroniqueur de “Vendredi, c’est graphism”) et Barbara Chabriw, Sublyn propose un plan des métros parisiens plus fidèle à la réalité géographique et qui permet d’accéder en temps réel aux tweets publiés sur chaque ligne de métro. Esthétique, interactif, intelligent : de quoi faire – une fois de plus – peur à la RATP.

Pour améliorer notre connaissance sur l’artiste préféré des Français : le parcours formation de l’EMI-CFD, accompagné par Karen Bastien de WeDoData a réalisé une application sur les auteurs des chansons de Johnny Hallyday, selon les périodes, les ventes de singles, ou encore les chansons. Même sans être fan de Jean-Philippe Smet, cette application met en scène des informations de façon novatrice et réfléchie – une réalisation bien aboutie pour un projet de formation.

Rien à voir avec ce qui précède. Mais tout aussi essentiel. Pour savoir si sa cave est bien remplie : The Telegraph permet de vérifier en une dataviz les meilleurs millésimes, de 1978 à 2011.

Bonne data semaine à tous !


Retrouvez tous les épisodes des Data en forme !

]]>
http://owni.fr/2012/04/30/les-data-en-forme-6/feed/ 0
L’Espagne lève le voile de l’information http://owni.fr/2012/04/10/l%e2%80%99espagne-leve-le-voile-de-linformation/ http://owni.fr/2012/04/10/l%e2%80%99espagne-leve-le-voile-de-linformation/#comments Tue, 10 Apr 2012 13:26:01 +0000 Emmanuel Haddad http://owni.fr/?p=105055

Les pouvoirs publics faciliteront, de préférence par des moyens électroniques, l’information dont la divulgation s’avère d’importance majeure pour garantir la transparence de leur activité, en tenant compte des limites présentées dans cette loi.

Huit ans qu’ils l’attendaient ! Huit longues années à mendier la concrétisation d’une promesse électorale du socialiste José Luis Zapatero, une première fois en 2004, puis réitérée en 2008, après sa réélection comme président du gouvernement espagnol… En vain. Jusqu’à ce Conseil des ministres du 23 mars, où le gouvernement conservateur dirigé par Mariano Rajoy a annoncé que l’avant-projet de loi sur la transparence serait mis en œuvre.

Cancre européen

C’est le soulagement dans les rangs de ceux qui ont soutenu ce projet, comme Jesús Lizcano, professeur d’économie financière à l’université autonome de Madrid et président de Transparency International en Espagne :

Mieux vaut tard que jamais. C’est absolument nécessaire pour améliorer la qualité de notre démocratie et la participation citoyenne… Et pour nous élever au niveau de nos voisins.

Car l’Espagne était le dernier pays d’Europe de plus d’un million d’habitants à ne pas disposer de loi sur la transparence. Reste Chypre, Malte et le Luxembourg. De quoi faire dire à un journaliste d’El Pais :

Le manque de transparence semble être quelque chose d’instauré dans la culture politique espagnole.

Les militants du droit d’accès des citoyens à l’information publique voient leurs efforts récompensés. Victoria Anderica, coordinatrice de la campagne d’Access Info Europe, une des entités pionnières de la coalition raconte :

En 2006, il y avait sept organisations dans la Coalición Pro Acceso [Coalition Pro Accès, ndlr]. Aujourd’hui, on compte 56 membres qui demandent une loi d’accès à l’information publique, parmi lesquels Access Info Europe, Amnistie International ou Ecologistas en Accion.

Six années de silence administratif et de promesses non tenues. “En 2010, nous avons fait une expérimentation, la campagne des 100 questions pour mesurer le niveau de transparence des administrations”, poursuit-elle. Les requêtes ne sont pas anodines : le nombre de soldats tués en Irak et en Afghanistan, les dépenses de la Présidence de l’UE ou de la candidature de Madrid aux JO 2016, ou encore les déplacements à l’étranger du maire de la capitale. Chaque fois, la même réponse qui ne vient pas : silence administratif. Victoria a calculé :

Au total, 50% de nos demandes ne reçoivent pas de réponse et parmi les réponses, seules 20% sont recevables.

Malgré les défauts du projet, l’important est d’aller de l’avant. Jesús Lizcano se montre optimiste :

Je pense, comme beaucoup d’observateurs, que le projet de loi ne met pas en place les instruments nécessaires pour instaurer une vraie transparence. Au niveau de la bonne gouvernance par contre, les progrès sont notables. Nous pouvons améliorer ce projet de loi grâce à la consultation publique.

Car l’Espagne a beau avoir du retard, elle tient à se placer à “l’avant-garde mondiale”, martèle-t-on au gouvernement. Les citoyens peuvent donc envoyer leurs propositions au législateur pendant quinze jours, lequel les prendra en compte pour le texte de loi final. Promet-on.

Droit à savoir

Les citoyens espagnols ont du pain sur la planche, tant les lacunes demeurent. Une pétition en ligne vient même d’être lancée pour obliger le gouvernement à proposer une nouvelle loi plus aboutie. Victoria est rebutée par les nombreuses exceptions prévues :

La Coalition Pro Accès propose dix principes minimum pour garantir le droit à l’information publique et le projet est loin de les inclure. En particulier le droit à l’information publique n’est pas défini comme un droit fondamental et il n’y a pas d’organe indépendant pour le défendre.

L’Agence espagnole de protection des données devient d’un coup de baguette magique l’Agence espagnole de protection des données et d’accès à l’information. C’est elle qui répondra aux réclamations. Le projet de loi [pdf] prévoit que :

En cas d’absence de résolution au bout de deux mois, la réclamation sera considérée comme rejetée.

Le directeur de l’actuelle Agence de protection des données, dite indépendante, est nommé par le gouvernement sur conseil du ministre de la Justice [pdf]. Le président de Transparency International en Espagne prévient :

Seul le Parlement peut refuser cette nomination à la majorité absolue. Ce qui est impossible actuellement. La politisation du projet est donc une entrave à la transparence. Mais ce n’est pas la seule. Au sein de l’administration, les fonctionnaires ont l’impression de trahir leurs supérieurs en livrant une information au citoyen, d’où cette inertie qui domine. Dorénavant, ils vont devoir changer pour respecter la loi.

La formation des fonctionnaires sera un des deux défis pour faire de cette loi un succès. L’autre tient à l’envie des citoyens de s’informer. Là-dessus, tous les yeux sont tournés vers le Royaume-Uni, pionnier de l’open governement en Europe. La plateforme whatdotheyknow a beaucoup inspiré tuderechoasaber (“ton droit à savoir”, ndlr), un outil créé par les membres de la Coalición Pro Acceso pour que les citoyens puissent exercer leur droit à l’information de la manière la plus simple et rapide possible.

Contre l’opacité, le journalisme de données

Tout reste à faire et l’optimisme de Jesús Lizcano, combiné aux initiatives de la coalition des militants du droit à l’information fera peut-être taire les critiques. Reste un regret. Que l’accent soit porté sur le code de bonne gouvernance est un moyen d’insuffler la crédibilité dont l’Espagne, réputée pour la corruption de sa classe politique, a besoin sur les marchés. Le gouvernement instrumentalise en effet cette loi pour plaire à Bruxelles, inquiet de voir la dette publique espagnole à son plus haut niveau depuis 22 ans, et culpabiliser le PSOE d’avoir truqué les chiffres du déficit en quittant le pouvoir.

Mais vu de l’intérieur, on craint un effet d’annonce. C’est ce qui s’est passé avec la loi de 2006 sur l’accès à l’information sur l’environnement. Malgré l’obligation administrative de livrer toute information environnementale, l’ONG Oceana a attendu cinq ans avant de recevoir le rapport de l’Institut Espagnol d’Océanographie révélant la pollution au mercure de plusieurs espèces de poissons, de l’espadon au thon rouge en passant par le requin.

Pour éviter qu’un tel silence ne se reproduise, Victoria a une recette à l’accent indigné :

Ne pas avoir peur du paternalisme de l’État espagnol, qui pense trop souvent que les citoyens ne sont pas capables de manier l’information qui les concerne.

En ajoutant, en guise de première pierre, à la naissance de la Loi sur la transparence celle d’un premier groupe de journalisme de données.

Photos CC Flickr Attribution ‘Playingwithbrushes’ et Attribution jenny downing

]]>
http://owni.fr/2012/04/10/l%e2%80%99espagne-leve-le-voile-de-linformation/feed/ 7
Le Véritomètre de la présidentielle http://owni.fr/2012/02/16/veritometre-factchecking-presidentielle/ http://owni.fr/2012/02/16/veritometre-factchecking-presidentielle/#comments Thu, 16 Feb 2012 09:58:02 +0000 Nicolas Patte http://owni.fr/?p=98726 Le Véritomètre
Découvrez “Le Véritomètre“.

Le citoyen, qui est un être sensible, éduqué, un peu idéaliste et pas cynique pour un sou, connaît deux moyens sûrs pour arrêter son choix au moment d’élire celui ou celle qui le représentera au plus haut niveau de l’État.

Le premier, sans doute le plus sensé, est de déchiffrer avec attention le programme politique diffusé par l’ensemble des candidats à l’élection présidentielle (soit une petite vingtaine aujourd’hui), et de confronter ces lectures avec son bon sens, son entendement, ses convictions et sa vision de la chose publique. Le deuxième moyen, moins subjectif – mais toutefois fort compatible avec le premier, c’est donc celui qui aura notre préférence – consiste à écouter chaque candidat(e) durant la campagne pour vérifier scrupuleusement la fiabilité des propos tenus lors de ses allocutions.

Confiance

La question de la confiance, pour le citoyen sensible, éduqué, etc., est évidemment cruciale dans son rapport au politique : on élit à la fonction suprême une personnalité qui ne ment ni ne triche car elle détient durant cinq ans la créance morale de plusieurs dizaines de millions de bonnes âmes résolues, à travers la fonction présidentielle, à réformer l’État, travailler honnêtement, vivre décemment, moraliser le capitalisme. Et toutes ces sortes de choses.

Évaluer la crédibilité des principaux candidats à l’élection présidentielle française est donc le pari de l’application web “Le Véritomètre 2012″. Imaginée, construite, peaufinée pour i>TÉLÉ par tous les métiers présents chez OWNI, avec : une chef de projet (Anne-Lise Bouyer), des développeurs (James Lafa, Tom Wersinger), des graphistes (Marion Boucharlat et Loguy) associés à des journalistes de données (Marie Coussin, Grégoire Normand, Pierre Leibovici, Sylvain Lapoix, Nicolas Patte, votre serviteur) et à un meneur de jeu (Guillaume Dasquié). Onze joueurs focalisés sur l’objectif humble et ambitieux de faire rentrer la balle dans le but et de faire hurler la foule.

Au scalpel

Le “Véritomètre” est impitoyable et absolument impartial. Les grands rendez-vous médiatiques de François Bayrou, François Hollande, Eva Joly, Marine Le Pen, Jean-Luc Mélenchon et Nicolas Sarkozy y ont été et y seront scrutés mot à mot, analysés au scalpel dans un grand exercice de vérification des faits (“fact checking“), en confrontant en permanence leurs verbes à la réalité des chiffres officiels. Chaque intervention a été et sera découpée quotidiennement en multiples citations qui, toutes, font l’objet d’un examen personnel et finalement d’une sanction : “correct”, “incorrect” ou “imprécis”. Avec neutralité.

Ainsi, c’est la somme de ces citations qui donne un indice final de crédibilité à chaque discours, entretien ou débat majeurs de la campagne. Et c’est l’ensemble de ces interventions qui attribuent un indice global moyen aux six candidats à l’élection présidentielle, encastrés pour cette occasion sur un classement qui déterminera précisément celui ou celle en qui tient la “ligne de crédit” – corde de la confiance à l’instant donné.

Et ce n’est pas tout. En sus de ce classement de crédibilité et du “fact checking” de l’ensemble des interventions des six principaux candidats à l’élection, nous avons décidé de rassembler au sein du “Véritomètre” les données majeures de la campagne réparties sur les grands thèmes qui la baliseront. Aujourd’hui, c’est plus de 130 graphiques contextualisés et sourcés répartis au sein de ces thématiques (économie et fiscalité, éducation, immigration, santé, sécurité) qui sont disponibles. Au gré des vérifications et du vent de la campagne, cette masse augmentera afin de constituer une véritable base de données de tableaux de bord de la vie politique du pays.

Le “Véritomètre” est un site web – qui fonctionne également sur les tablettes et les smartphones – mais c’est aussi un rendez-vous quotidien à l’antenne d’i>TÉLÉ tout au long de la campagne. Un partenariat vertueux entre la principale chaîne d’actualité continue et un média innovant amoureux du journalisme de données. Et deux acteurs portés par l’objectif de faire de cette élection politique, marquée par une crise internationale sans précédent et une volonté mondiale de renouvellement démocratique, un terrain de rencontre et un lieu d’éducation entre ces citoyens partagés entre l’envie d’avoir confiance et l’envie d’espérer un monde meilleur.

Et pas cynique pour un sou.

“La vraie politesse n’est que la confiance et l’espérance dans les hommes.” (H.D. Thoreau)


Illustrations et couverture par LOGUY pour OWNI /-)
Suivez le “Véritomètre” sur Twitter (et profitez-en pour nous laisser vos remarques) !

]]>
http://owni.fr/2012/02/16/veritometre-factchecking-presidentielle/feed/ 98
Données publiques et journalisme:|| une mine de richesses! http://owni.fr/2010/07/07/donnees-publiques-et-journalisme-une-mine-de-richesses/ http://owni.fr/2010/07/07/donnees-publiques-et-journalisme-une-mine-de-richesses/#comments Wed, 07 Jul 2010 14:18:08 +0000 Eric Scherer http://owni.fr/?p=21431

Le journalisme de données commence à prendre son essor en France, mais les données publiques, contrairement à d’autres pays, n’y sont pas encore totalement libérées ou facilement accessibles.

Cette semaine à Marseille, lors de la seconde conférence Lift France (technologie & prospective), les appels se sont multipliés pour libérer gratuitement les données publiques. L’enjeu est économique, démocratique et social. Les données sont le pétrole de la nouvelle société de l’information.

Hélas, aujourd’hui, « nous avons l’état d’esprit du 19ème siècle, les méthodes du 20ème et les besoins du 21ème », a joliment résumé Sam Pitroda, conseiller en technologies de l’information du Premier ministre indien.

Nous avons souvent dit, ici, comment l’exploitation et la visualisation de données, permises par les nouveaux outils numériques et l’Internet, comptaient parmi les pistes les plus prometteuses du journalisme de demain. Le journalisme sportif et le journalisme financier en sont les premiers utilisateurs. Est-ce un hasard si ce sont deux types de journalismes à plus fortes valeurs ajoutées, mieux monétisables ?

Pour le reste, il faudrait quand même que les données soient disponibles !

La France en retard

Les États-Unis et la Grande-Bretagne ont ouvert ces dernières années des portails de données publiques, des répertoires gratuits : Data.gov et Data.gov.uk. Au Royaume-Uni, c’est une campagne de pression du Guardian durant quatre ans qui en est largement responsable. Tim Berners-Lee, l’inventeur du web, a donné un coup de main ! La Banque Mondiale propose aussi un accès à ses données.

La France n’a pas encore de portail, et son projet, s‘il reste de vouloir faire payer, de verrouiller de limiter l’accès, ces données, risque de l’isoler en Europe et d’empêcher la création de services d’informations à valeur ajoutée, de promouvoir de nouveaux usages, de développer de nouvelles activités et de nouveaux intermédiaires. En bref, de favoriser une véritable industrie de la connaissance dans laquelle le public aura aussi un rôle important (intelligence collective, “crowdsourcing”, ré-utilisation des données). À moins que les hackers ne s’en occupent directement !

Le journalisme de données, un chemin prometteur mais compliqué

Quant au journalisme de données, c’est à la fois simple et compliqué.

Simple, car il s’agit simplement de transformer des données en information, en connaissance, en savoir. Traiter, analyser, donner du sens, c’est le propre du journalisme.

Compliqué, parce qu’il faut d’abord collecter, trier, et exploiter les données, les statistiques, les chiffres qui inondent le web, puis les scénariser et les visualiser sur écran de manière éducative, ludique, informative. Et surtout, il faut faire travailler ensemble des métiers différents : journalistes, développeurs, designers web, statisticiens, graphistes…

C’est surtout l’un des rares champs de fort développement potentiel et de création de valeur pour les entreprises de médias au niveau commercial (pour des sites web de médias) car il favorise immersion, engagement et interactivité, éléments clés pour monétiser davantage les sites d’infos (temps passé, voire partie payante).

C’est aussi un potentiel éditorial, pour de l’investigation et des scoops (rappelez-vous les notes de frais des députés britanniques), pour du contexte et de la mise en perspective historique et géographique. Mais aussi pour réduire le “bruit”, diminuer « l’infobésité » croissante, la surabondance d’infos, le déluge informationnel.

C’est souvent aussi rendre compréhensible la complexité, en s’adressant à l’intelligence visuelle du public. L’angle “data” du journalisme va se développer comme un nouvel angle de narration.

Des projets qui déjà foisonnent

Rappelons que, durant la campagne électorale d’Obama, la page du site web du New York Times la plus consultée fut une infographie animée du financement de la campagne démocrate, alimentée par des données et scénarisée.

La BBC vient donc de lancer un site (DataArt) pour évangéliser sur ce potentiel. Google vient de proposer une version allégée de son logiciel “GapMinder” à télécharger, et le site Tableau Public propose des outils en open source.

En France, deux équipes – des pure players – s’y mettent aussi. ActuVisu.fr, ouvert le week-end dernier, associant étudiants et développeurs sur le thème “l’information vous saute aux yeux (…) ou l’art de faire parler les données“, et OWNI, laboratoire de journalisme numérique, dont une partie est dédiée au “data journalism”.

La presse régionale, qui émet de grandes quantité de données (faits divers, travaux publics, météo…) devrait aussi rapidement profiter de ce potentiel.

Parmi les meilleures ressources web sur ce sujet :

Billet initialement publié sur AFP-MediaWatch.

Image CC Flickr aurelio.asiain

]]>
http://owni.fr/2010/07/07/donnees-publiques-et-journalisme-une-mine-de-richesses/feed/ 0
Fabrique du datajournalism #2 : nous sommes prêts! http://owni.fr/2010/06/01/fabrique-du-datajournalism-2-nous-sommes-prets/ http://owni.fr/2010/06/01/fabrique-du-datajournalism-2-nous-sommes-prets/#comments Tue, 01 Jun 2010 10:24:53 +0000 Caroline Goulard http://owni.fr/?p=17125 Now, it’s on !

Un développeur, un statisticien et une graphiste : l’équipe datajournalisme d’OWNI a subitement pris de l’ampleur ce matin.

Premier test pour les new-comers de la soucoupe : après une rapide mise au parfum sur l’actualité de la semaine, trois sujets ont été retenus – le blocus israélien à Gaza, Roland-Garros et le sommet Afrique-France – et les huit datajournalistes mobilisés ont eu quinze minutes pour produire un mini-cahier des charges pour chaque projet.

Quatre heures plus tard, sur les écrans de l’open space, on pouvait voir :

-Un défilé de cartes, « France à quelle Afrique tu parles ? » : pour chaque sommet Afrique-France depuis 1973, quels étaient les pays représentés par leurs chefs d’États ? Quelle carte de l’Afrique ces données dessinent-elles ? Une visualisation en forme d’archipel à géométrie variable, en fonction de l’évolution des relations diplomatiques.

-Une infographie interactive liée à une base de données interrogeable sur les pays vainqueurs de Roland-Garros, de Wimbledon, de l’Open d’Australie et de l’US Open, par épreuve, et depuis 1990 : quelle est la couleur nationale du podium ? Quels sont les pays qui ont émergé dans le monde du tennis ces derniers années ?  Quels sont ceux qui sont sortis des palmarès ? Une visualisation avec des petites balles de tennis, déclinable à l’envie avec des ballons de basket, de foot, de baseball, etc., et les statistiques qui vont avec.

-Une visualisation sous forme de jeu de l’oie : comment traiter de façon ludique un sujet critique, avec le parcours de deux habitants de Gaza : Talal, l’entrepreneur, et Ahmad, le fonctionnaire : prix des clopes, accidents sanitaires, marché noir, taxes du Hamas, bakchich pour arriver à bon port, etc.

La fabrique du data #2 se poursuit par un passage en revue des projets dans les cartons.

@martin_u: motivé comme jamais sur ce genre de projet

Les projets déjà réalisés à améliorer

« Authentique ou retouchée » : côté développement : une V2 sur les rails, et côté éditorial une traduction geek-français et français-anglais à prévoir. Ce widget attire toujours plus de 1.000 utilisateurs par mois, assez pour qu’il deviennent intéressant de le doter d’un vrai petit écrin avec une url dédiée, et des fonctionnalités spécialement pensées pour les journalistes qui ont besoin de vérifier la provenance de photos crowdsourcées.

« Où je vote » : les élections sont passées, mais le crowdsourcing continue, 75% des données sont désormais qualifiées, un bel effort qui mérite d’être salué.

« Lycées.eu » : moins de quinze personnes ont utilisé cette application. Nous réfléchissons à la façon de la relancer car l’outil est potentiellement riche.

« La crise grecque en datajournalisme » : un vrai succès qui nous a donné l’idée de lancé une Data TV, sous forme de rendez-vous hebdomadaire de décryptage de gros volumes de données grâce aux gadgets Google Motion Charts. Qu’en pensez-vous ?

Les projets dans les tiroirs

« Le media ring » : le moins qu’on puisse dire, c’est que l’équipe ne manque d’idées pour questionner la popularité de nos médias dans les réseaux sociaux. Façon combat de boxe, avec une petite application où l’on pourrait réunir virtuellement les équipes de supporters-followers-Ilikers et vérifier… laquelle a la plus grosse. Façon widget pour site d’information : nous aimerions ajouter quelques stats au dessus des traditionnels boutons « partager sur Facebook », « partager sur Twitter », etc. Et si on se met à rêver, on pourrait même vous proposer une application Amazon-like du style « les lecteurs qui ont twitté cet article ont aussi twitté celui là » : merveilleux pour mettre en valeur des archives et capt(iv)er les lecteurs sur un site.

« Éoliennes » : Christine Tréguier, journaliste à Politis, mène depuis plus d’un mois une enquête sur le prix de l’énergie selon ses différents modes de production. Nous nous apprêtons à illuminer son travail par quelques visualisations. Le résultat sort bientôt sur OWNI.

« La vie en prison vue par les données » : projet un peu laissé de côté par manque de matériau, nous comptons le relancer sous forme de web-docu.

Les nouveaux projets

« Appli vélib cassés » : vous n’avez qu’à prendre en photo un vélib cassé ou une station vide, nous agrégeons les données pour vous fournir une carte en temps réel de l’état des vélos et du réseau à Paris.

« Clean your Facebook » : une petite appli pour nettoyer les photos où vous avez été taggués, vos updates de statuts et autres wall-plaisanteries, ça vous tenterait ? Le droit à l’oubli, ça vous intéresse ?

« Les liens entre les hautes sphères du CAC 40 » : la très chouette visu d’Alternative Eco nous a donné plein d’idées : nous aimerions réaliser un graph relationnel des liens entre les membres du CAC 40 : écoles fréquentées, rémunération, présences dans les conseils d’administration, etc.

« Visualiser les subventions versées par le conseil régional d’Île-de-France » : l’article de H16 nous a mis l’eau à la bouche, on reviendra dessus avec de la visu.

« La réforme des retraites en visu » : plusieurs problématiques nous semblent pertinentes : scénario de réforme des retraites en France, comparaison entre l’âge légal de départ à la retraite et l’âge réel, panorama européen des systèmes de retraite, etc. Les données ne manquent pas, nous cherchons un partenaire pour nous aider à avoir un regard « clair » sur la situation.

« Presse papier vs presse sur le web : quel circuit de distribution ? » : une infographie montrant le trajet d’un article depuis sa conception par une entreprise de presse jusqu’à son appropriation par un lecteur, sur le papier et sur le web. Notre idée est de démontrer que le web peut décupler vos contacts avec votre public.

« Les Big Brother Awards : découvrez-les par les données » : nous avons un magnifique projet d’interface pour les archives des Big Brother Award : une visualisation de plusieurs centaines de dossiers sous forme d’éco-système navigable par thème et par acteur. A l’arrivée, une visualisation capable de raconter l’évolution de la société de surveillance en France.

« La carte des morts aux frontières » : 3.700 points à placer sur une à partir de ce très riche document. Histoire de traiter de sujets importants pour nous, et pas foncièrement LOL.

Et bien sûr, puisque la soucoupe n’a pas embarqué que des datajournalistes, nous vous préparons des dossiers, des analyses et des archives pour agrémenter tous ces projets.

Il ne vous reste plus qu’à guetter les retombées de cette riche journée sur les pages d’Owni.fr, ou ailleurs.

Vous êtes journaliste, développeur ou graphiste, et vous avez des idées de visualisation autour de base de données interrogeables ? N’hésitez pas à nous contacter (contact[at]owni.fr)

Vous faites partie d’un média et souhaitez coproduire l’un de ces projets ou une autre coproduction? Contactez-nous (contact[at]owni.fr) !

Illustrations CC Flickr par Extra Ketchup

]]>
http://owni.fr/2010/06/01/fabrique-du-datajournalism-2-nous-sommes-prets/feed/ 2
Une réponse parmi d’autres, trop rares, à la crise des médias ? http://owni.fr/2010/04/23/owni-une-reponse-parmi-d%e2%80%99autres-trop-rares-a-la-crise-des-medias/ http://owni.fr/2010/04/23/owni-une-reponse-parmi-d%e2%80%99autres-trop-rares-a-la-crise-des-medias/#comments Fri, 23 Apr 2010 10:23:51 +0000 Nicolas Voisin http://owni.fr/?p=13065 Le plan de vol de la soucoupe

Alors que le moindre battement d’ailes d’un papillon dans les médias américains induit une réaction quasi immédiate  en France comme ailleurs dans le monde, la compénétration entre sphères publiques européennes reste quasi nulle.

OWNI vise à se faire l’écho du meilleur des informations et des idées sur l’ère numérique en provenance de nos voisins européens. Pour ce faire, dans un premier temps, un réseau de vigies européennes sera constitué. A l’horizon 2011, une version anglaise d’OWNI sera lancée , parallèlement à un déploiement européen et international d’OWNI ; ceci notamment à l’aide de partenariats d’ampleur transfrontalière (cf. interview d’Adriano Farano).

Laboratoire du journalisme innovant, OWNI se doit d’être à la pointe de l’expérimentation en matière de datajournalism, une nouvelle façon de présenter l’information à l’aide de visualisations, d’infographies dynamiques, de journalisme de base de données et d’outils interactifs.

Fort de ses équipes, OWNI a déjà fait montre de ses capacités en matière de datajournalism: une carte de la vidéosurveillance dans le cadre des Etats Généraux de la Sécurité à l’école ou encore un outil de géolocalisation des bureaux de vote à l’occasion des Régionales 2010.

En préparation : visualisation des données sur les établissements carcéraux, carte des flux migratoires en Europe, visualisations autour du parc éolien français ou du G20, ou encore représentation graphique et interrogeable de la place des médias classiques dans le web social.

Dans le même sillage, OWNI vise également à expérimenter des nouvelles formes de journalisme, en particulier avec le “journalisme de liens”. Lancé aux États-Unis avec des “success stories” telles que The Drudge Report, le “linkjournalism” consiste en une sélection de liens pertinents sélectionnés avec soin pour un public donné.

Dans les projets d’OWNI figure notamment le lancement d’une LinkTV, une web TV basée sur des liens de vidéos de qualité hébergées entre autres sur YouTube ou Dailymotion. Ceci fait suite aux expérimentations menées depuis deux an notamment avec Aaaliens (agrégateur de liens fédérant certains des veilleurs les plus réputés du web social francophone).

Pour porter son projet éditorial, OWNI se constitue en pôle non-profit, composé d’une association, OWNIeditors, et d’un fonds de dotation, OWNIpedia, qui financera d’autres projets innovants dans l’écosystème de l’information.

Les valeurs intrinsèques d’OWNI s’inscrivent dans l’un des principes fondamentaux de la démocratie française: l’accès des citoyens à la culture et au savoir comme véritable extension du droit social. Cette notion d’intérêt général a été fondée par le Conseil National de la Résistance selon lequel, pour pouvoir participer pleinement à la démocratie et faire des choix réfléchis et informés, les citoyens doivent acquérir un minimum d’éducation et de savoir.

Valeurs et outils, deux notions inextricables

Né en avril 2009 en France lors de la bataille contre la loi Hadopi, OWNI est engagé pour les libertés numériques et vise à faciliter un débat public constructif, critique et technophile. Fort d’un réseau de 500 contributeurs, auteurs, professionnels, chercheurs, journalistes, entrepreneurs et d’internautes actifs, l’objectif d’OWNI – média, réseau social et plateforme de publication – est d’offrir le meilleur de l’information et du débat sur l’évolution de la société numérique en France et en Europe.

OWNI raconte et analyse l’impact d’Internet sur la société, les pouvoirs et les cultures. La publication met en scène au quotidien ses contenus à la destination gracieuse du plus grand nombre, et grâce à la bonne volonté de notre communauté d’auteurs. Celle-ci accepte de publier ses articles sous licence Creative Commons, permettant ainsi aux idées de circuler le plus possible.

Ces valeurs, nous tentons au quotidien de les défendre en permettant à chaque internaute, d’obtenir une information claire, identifiée et gratuite pour comprendre la mutation du monde qui nous entoure.

OWNI est développé en open source (en logiciel libre) dans l’environnement Wordpress (WorpressMu + BuddyPress), “Content Managing System” qui est la première plateforme de publication dans le monde. Ceci est un choix stratégique fondamental qui participe de la philosophie de notre média, en adéquation directe avec les valeurs de l’Internet que nous défendons (partage, collaboration, transparence, ouverture), mais c’est également un avantage en termes de recherche et développement collaboratifs considérable.

Enfin, et c’est un point clef, l’environnement de travail, le code, les services, les applications tierces, sont en permanence mis à jour et testés par des millions d’utilisateurs dans le monde. La communauté de développeurs Wordpress est très dense, très active (bien plus que toute autre communauté autour d’une plateforme de publication en logiciel libre comme Drupal). Automatic, société qui pilote et exploite le code de Wordpress (à l’adresse wordpress.com et en fournissant des solutions professionnelles dédiées) fait évoluer de façon organisée et pérenne l’écosystème de bénévoles, d’entrepreneurs du web et de passionnés qui gravitent autour de sa solution, sans échange marchand systématique entre ses membres (cf. l’adresse wordpress.org).

Les repères économiques usuels s’effondrent

Dans un monde en perpétuel changement, en crise globale et identitaire, les repères économiques usuels s’effondrent.

Les acteurs économiques doivent repenser leurs modèles, en se transformant. L’alliance entre le profit et le non-profit répond aujourd’hui à cette problématique. Le commerce équitable en est la preuve flagrante. Avec 2 300 milliards d’euros de chiffre d’affaires net global en 2007, 79 000 points de ventes dont 55 000 supermarchés, et une croissance annuelle de 20%, le commerce équitable est le marché qui connaît la croissance la plus rapide du monde. Ce succès est du à l’association du secteur économique (fabricants et distributeurs) avec le secteur non lucratif (associations, fondations), qui répondent tous deux au besoin essentiel des clients d’aujourd’hui : vivre dans un monde meilleur. Ainsi, les entreprises conservent leurs marges et leurs rentabilités tout en aidant 1,5 million de paysans dans le monde.

Dans le secteur des médias, l’hyper abondance de l’information, et notamment numérique, a provoqué un effondrement des recettes publicitaires perçues par chacun des acteurs. Cette situation entraîne la nécessité de repenser le rôle de médiateur culturel.

C’est ce qu’à fait le milliardaire américain Herbet M. Sandler avec le média web ProPublica qu’il a doté d’un budget annuel de 10 millions de  dollars. Pilotée par l’ancien directeur de la rédaction du Wall Street Journal, la rédaction produit des sujets d’investigation qui sont diffusés soit en partenariat avec d’autres médias (dont le New York Times), soit directement sur son site web. Leur production est financée par le non-profit via des mécènes qui donnent en moyenne 66 000 euros. Ainsi, la rentabilité du média est assurée tout en délivrant une information claire et objective au plus grand nombre.

Ce modèle profit/non-profit vient d’être récompensé en avril 2010 par un Prix Pulitzer remis à une enquête publiée sur ProPublica.

L’attrait profit/non-profit permet en outre de créer des synergies fiscales grâce, en particulier, aux mécaniques de donations. Lancée en 2007 par Jean-François Daniel (disclaimer: Jean-François Daniel fut un partenaire actif d’OWNI) l’opération “La Rose Marie Claire” en France est un exemple concret de ce type de synergie. En vendant une rose dont la moitié du prix de vente est reversée à des associations qui scolarisent les jeunes filles défavorisées, les entreprises bénéficient d’une réduction fiscale de leur impôt sociétés sur la partie du prix qui est reversée et augmentent leur chiffre d’affaires grâce au trafic supplémentaire généré par l’attrait du non-profit (augmentation de 20% du trafic dans les points de vente), sans compter l’image qu’elles donnent ainsi à leurs clients.

Dans le cas d’OWNI, la synergie profit/non-profit se traduit [maj : aurait pu se traduire] par la création de l’association OWNIeditors qui prendra dorénavant en charge le développement éditorial du média social OWNI, jusqu’ici piloté par 22mars. Ceci se fait en restant dans le même écosystème et avec une totale continuité – 22mars est fondateur d’OWNIeditors et a associé à son capital l’ensemble de l’équipe éditoriale (Guillaume Ledit, Sabine Blanc, Adriano Farano, Nicolas Kayser Bril) en plus des développeurs (Tom Wersinger, Aurélien Fache) et de notre maître es-design, Loguy aka Logule. Cette prise en charge est permise dans un premier temps par l’octroi d’un prêt à taux zéro de 250 000 euros à l’association, puis par le développement des recettes non-profit : dons, mécénat et subventions.

Ce dispositif permettra l’essor du projet éditorial d’OWNI. La nouvelle version du site en est l’une des incarnations. En beta permanente, la soucoupe est un phalanstère, un lieu d’expérimentation afin de permettre une information qui serve l’intérêt général et permette une meilleur compréhension des cultures liées à l’essor de ce nouveau corps social qu’est le web, devenu véritablement “social”.

Notre stratégie – et les mois, voir les années, de travail que cela a nécessité – est une réponse parmi d’autres, trop rares, à la crise des médias. Cet écosystème est celui d’une économie qui précède puis que permet une stratégie médiatique d’intérêt public, menée par des artisans. Ces artisans en lien social sont la “dream team” que le temps et l’exigence nous ont permis de réunir.

Un éditeur ne saurait avoir d’autre chemin que celui de “prendre soin”. Et de sublimer.

Ils nous ont également aidé sur ce chemin : Pierre Bilger, Eric Scherer, Pierre Bellanger, Jacques Rosselin, Jean-Christophe Feraud, Jean-Marc Manhack, Olivier Missir, Sébastien Ravut, Remi Vincent, Pierre Romera, Isabelle Mirri (…)

Voir aussi The Flying Saucer’s Flight Plan, en anglais.

MAJ : Dissocier l’actif et les équipes ? Nous n’avons pas retenu cette hypothèse. Par contre le modèle mixte “profit / non-profit” est au coeur de l’économie d’OWNI. Suivez les Editos mensuels, ils content notre histoire ;-)

]]>
http://owni.fr/2010/04/23/owni-une-reponse-parmi-d%e2%80%99autres-trop-rares-a-la-crise-des-medias/feed/ 6
Les nouveaux métiers du journalisme http://owni.fr/2010/03/09/les-nouveaux-metiers-du-journalisme/ http://owni.fr/2010/03/09/les-nouveaux-metiers-du-journalisme/#comments Tue, 09 Mar 2010 10:48:53 +0000 Nicolas Marronnier http://owni.fr/?p=9712 4317536426_64b9df34d8

Titre original :

Au Social Media Club, les nouveaux métiers du journalisme

Un débat public organisé par le Social Media Club sur les nouveaux métiers du journalisme en ligne s’est déroulée le 17 février 2010, à La Cantine, à Paris. Animé par Julien Jacob, il a suivi le format classique du Social Media Club France, à savoir une prise de parole d’environ 15 minutes pour chaque intervenant suivie d’une série de questions/réponses. Résumé de chaque intervention rédigé par le Social Media Club.

Le journalisme crowdsourceur

Jean-Luc Martin-Lagardette, journaliste pour le webzine Ouvertures, a évoqué pour nous l’expérience qu’il a menée avec le site Agoravox.

L’objectif général de sa démarche était de tenir compte de la participation du public dans l’élaboration de l’information. Cet objectif s’est traduit par la tenue d’une série d’ « enquêtes participatives », menées à l’aide de la communauté d’internautes voulant bien témoigner et contribuer à une réflexion autour d’une thématique bien précise.

Jean-Luc a évoqué la première de ces enquêtes (été 2007), qui fût sans conteste la plus enrichissante, concernant un sujet d’actualité déjà assez largement traité et qui faisait à l’époque déjà polémique sur le site : l’obligation vaccinale. Rebondissant sur un fait d’actualité (en mars 2007 une loi est passée qui durcissait les sanctions contre les réfractaires vaccinaux), il a tout d’abord écrit un premier article commentant ce projet de loi en invitant les internautes à réagir : ce durcissement était-il selon eux justifiée ?

Les commentaires n’ont pas tardé à affluer (600 contributions à date) et l’enquête fait aujourd’hui pas moins de 70 pages, épais dossier librement accessible sur le site d’Agoravox qui a donné lieu à presque 70 000 téléchargements !

La vraie richesse de cette démarche, selon Jean-Luc Martin-Lagardette, a été la réelle diversité des sources et des angles. Sur internet, les contributeurs étant tous sur un pied d’égalité, la distanciation se trouve en effet maximisée entre le journaliste et ses sources, le professionnel s’en tenant à l’information brute, au contenu, sans a priori sur celui-ci.

On peut donc entrevoir avec ce type de démarche une certaine « neutralisation » de l’avis du journaliste qui, face au grand nombre de contributions et d’avis contradictoires, a plutôt un travail de synthèse à effectuer.

Bien sûr, au fur et à mesure de la remontée des informations, Jean-Luc a mené un vrai travail d’investigation en procédant à des vérifications, à des interviews de personnes compétentes (scientifiques, responsables administratifs, associatifs), comme cela se fait dans toute enquête journalistique.

Mais le journaliste a tenu à souligner à quel point sa démarche se différenciait d’une investigation classique, la singularité de cette enquête résidant dans sa longue durée (3 mois) et dans l’utilisation de la puissance de l’outil internet en matière de mobilisation des sources.

Jean-Luc nous a en outre fait part de son regret à propos du faible relais opéré par les médias traditionnels concernant les résultats de son enquête, écho qui aurait pu permettre de lancer un réel débat sur la scène publique, d’avoir un véritable impact politique.

Enfin, il a souligné le fait qu’il lui a manqué un réel outil de gestion des contributions (documents, mails, commentaires…) pour faire face à leur nombre important et à leur diversité.

Le journalisme de données

Augustin Scalbert a pris la parole à ce sujet. Journaliste pour Rue89, il a pris ici la parole en tant qu’acteur de la campagne Libertés d’informer lancée entre autre avec ses confrères Luc Hermann et Paul Moreira. Cette campagne vise à promouvoir le vote d’une loi en faveur d’un accès plus libre à l’information en France. Concrètement, le collectif milite pour offrir aux citoyens un mécanisme de contre-pouvoir par le biais d’un accès libre aux données administratives, dans une logique de transparence.

Augustin a souligné le fait que la France est un des pays occidentaux les moins transparents en matière de mise à disposition de documents administratifs. Aux Etats-Unis, le Freedom of Information Act datant de 1966 garantit cette transparence. Le site Wiki Leaks s’est fait le spécialiste de la publication de données confidentielles outre atlantique, concernant la santé publique, le droit, ou les dépenses gouvernementales… C’est à lui que l’on doit par exemple la récente révélation du traité international ACTA qui fait craindre un filtrage généralisé du net sans passer par une autorité judiciaire.

En France, une loi de 1978 a bien donné naissance à la CADA (Commission d’Accès aux Documents Administratifs) mais celle-ci ne disposant pas d’un pouvoir d’injonction voit la moitié de ses demandes d’accès à des données sensibles tout bonnement refusée. Augustin donne comme exemples l’affaire Borel (décès suspect d’un magistrat à Djibouti), la violente répression de la manifestation algérienne du 17 octobre 1961 ou encore les retombées de la catastrophe de Tchernobyl en France comme autant de dossiers aux nombreuses zones d’ombre qu’un libre accès aux documents officiels aurait pu permettre d’éclaircir.

La CADA reste donc utile, pouvant constituer une menace en cas d’une réelle pression citoyenne sur l’administration, mais demeure un outil trop restrictif et finalement peu utilisé.

La pétition lancée par Libertés d’informer regroupe à ce jour 6000 signatures et ne dispose malheureusement que de trop faibles relais politiques. La classe dirigeante ne semble pas réaliser que rétablir un lien de confiance avec ses citoyens passe par le soutien de ce genre d’initiative.

Finalement, ce dont le mouvement Liberté d’informer est le symptôme, c’est que les journalistes et de façon plus générale les citoyens ont soif d’information brute, de données librement accessibles et exploitables, pertinentes et incontestables…

En effet, pour paraphraser Nicolas Vanbremeersch, « dans un monde d’hyper commentaires, on ne peut qu’espérer que les médiateurs de l’information s’emparent des données » pour nous fournir de l’information effective pertinente et ainsi à nouveau exercer leur rôle de contre-pouvoir.

Le journalisme coproducteur

Pierre Haski, cofondateur du site Rue89, est venu nous parler de son expérience d’un nouveau journalisme en ligne.

Il a  abordé le modèle du site en matière de production de l’information. Au départ, Rue89 reposait sur l’idée de « l’info à 3 voix », soit l’association de contributions émanant de journalistes, d’experts et d’internautes produisant de l’information séparément mais en un espace commun.

Cette méthodologie n’a pas été suivie dans les faits, le système ayant vite démontré ses limites du fait du manque de crédibilité des contributeurs amateurs et donc de la nécessité d’une validation journalistique des contenus produits.

Le modèle actuel équivaut donc plutôt à une « mise en musique » des différentes contributions, à un travail commun de production d’information.

Cette coproduction de l’information se matérialise de différentes manières. Par exemple, le site a mis en place un comité de rédaction participatif qui voit les 15 journalistes professionnels connectés en live à une centaine de chatteurs proposant des pistes de réflexion et apportant leur feedback aux idées émises par les journalistes.

Pour couvrir l’évènement au plus près et réagir rapidement aux faits d’actualité, Rue89 bénéficie des nombreux témoignages et remontées d’informations émanant d’internautes (live blogging, système d » « alertes ») et peut ainsi exploiter cette information brute afin de fournir du contenu de qualité sur son site.

Ce travail main dans la main avec la communauté des internautes permet à Rue89 de couvrir un évènement avec une rapidité jusqu’ici jamais atteinte : le site a par exemple été le premier à prendre la mesure de la grève en Guadeloupe. La presse n’en parlait pas, mais Rue89 recevait des messages indiquant des problèmes : ils ont alors mobilisé par email les habitants de l’île figurant dans leur base de données en demandant des témoignages, précieuses sources d’informations à partir desquelles les journalistes du site ont pu rédiger un article fourni sur les évènements.

Pour reprendre l’idée de Jeff Jarvis, à l’heure d’internet, l’information et donc les articles ne sont plus des produits finis mais ce sont des process en perpétuelle évolution. Sur le site, l’auteur d’un article se charge de la modération des commentaires, répond aux remarques émises et met en avant les contributions intéressantes dans une démarche de perpétuel enrichissement de la réflexion. Il arrive de ce fait que sur la base des commentaires, un second article soit rédigé pour affiner l’analyse première.

Là où les sites des journaux traditionnels se contentent d’externaliser le traitement des commentaires à des sociétés tierces, Rue89 effectue donc pour sa part un aller-retour permanent entre fondamentaux du journalisme et gestion du participatif, instaurant ainsi un vrai rapport avec le lecteur.

Le journalisme témoignage d’actualité

Philippe Checinski nous a présenté le site dont il est l’un des fondateurs : CitizenSide.

Il nous a tout d’abord rappelé que 20 000 photos sont envoyées chaque jour sur Facebook et 24h de vidéos chaque minute sur Youtube. L’idée du site est donc partie de ce constat que les internautes sont de plus en plus enclins à poster du contenu en ligne.

Le site se veut donc être une plateforme assurant l’intermédiation entre amateurs et professionnels de l’information. Le service repose sur la mise à disposition de contenu UGC aux médias qui peuvent venir piocher parmi les photos et vidéos d’actualité postées par les internautes. CitizenSide se charge de fixer le prix et de négocier la vente aux médias intéressés.

600 à 1200 photos/vidéos sont reçues chaque jour par le site. Avant toute mise en ligne, l’équipe du site effectue donc un travail de vérification du contenu. C’est là son cœur de métier, nous affirme Philippe. Cette validation repose sur une identification claire de la source (sa fiabilité, ses antécédents) et sur une expertise technique du site.

L’équipe dispose en effet de puissants outils permettant d’extraire des métadonnées de toute photo ou vidéo postée. Ces données renseignent CitizenSide sur la qualité du contenu (photo retouchée ou issue de Facebook, lieu de capture par géolocalisation…) et permettent de valider ou non une contribution.

Le site s’appuie donc sur la volonté des gens de participer à l’actualité et oeuvre ainsi à la crédibilisation du document amateur, trop souvent considéré comme peu fiable.

Le business model de CitizenSide reposait tout d’abord sur le prélèvement d’une commission sur les transactions effectuées sur le site, mais Philippe a aussi évoqué le développement d’une marque blanche vendue aux médias, avec mise à disposition de la technologie et du back-office du site. Le gratuit 20 minutes, BFM TV ou Voici comptent déjà parmi les clients.

Le cofondateur du site nous a également annoncé le lancement imminent de la plateforme EditorSide qui regroupera en un espace unique l’ensemble des contenus disponibles sur CitizenSide mais aussi sur les sites partenaires disposant de la technologie du site.

Enfin, Philippe Checinski a abordé les perspectives offertes par le développement d’applications mobiles et l’usage des techniques de géolocalisation qui en découle. On pourrait imaginer à l’avenir un système d’injonction à la contribution de « city-reporters » (aller prendre une photo ou capturer une séquence vidéo), sorte d’appel à témoins en temps réel, en fonction du lieu où se trouve chacun et des évènements qui s’y déroulent.

Le journalisme en réseau

Alexandre Piquard, journaliste sur LePost, est venu clore cette session par son témoignage.

Il nous a présenté le modèle du site, à la fois hébergeur et éditeur de contenu.

LePost rassemble en effet à la fois des contributions d’internautes (40 000 membres), des posts de blogueurs invités (30 experts) et des articles émanant de la rédaction (6 journalistes spécialisés). Chaque jour, une centaine d’articles passe en Une du site, issus de ces trois sources, et 6000 commentaires sont postés. D’où la notion de « journalisme en réseau », concept basé sur l’idée d’écosystème médiatique où différents acteurs enrichissent une même plateforme par des informations complémentaires.

La gestion de ce flux incessant d’informations est opérée par l’équipe de rédaction. Différents labels existent pour qualifier l’information et ainsi mettre en avant telle ou telle contribution. Le label « info brute » correspond aux apports des internautes non encore validés par les professionnels. Ce type d’information ne peut se retrouver en Une, au contraire des articles « info vérifiée » qui jouissent d’une visibilité accrue, au même titre que les articles des journalistes et blogueurs (« info rédaction » et « info invités »).

Faire du journalisme en réseau c’est aussi ne pas hésiter à se projeter hors de sa plateforme, insiste Alexandre. LePost se veut ainsi ouvert au microblogging produit sur les réseaux sociaux et relaie ponctuellement des « live twits » sur sa Une, en témoigne la récente couverture des débats sur la Loppsi à l’Assemblée. En outre, le site n’hésite pas à relayer du contenu issu d’autres médias et à renvoyer vers leurs sites en mettant en pratique le « journalisme de liens » cher à l’Américain Scott Karp.

Retrouvez l’actualité du Social Media Club France sur son blog : http://www.socialmediaclub.fr
Et rejoignez la communauté sur Viadeo pour échanger avec les membres autour de nos problématiques.

> Article initialement publié sur Rue89

> Illustration par Doing Media Studies sur Flickr

]]>
http://owni.fr/2010/03/09/les-nouveaux-metiers-du-journalisme/feed/ 1
Libérons les bureaux de votes ! http://owni.fr/2010/03/04/liberons-les-bureaux-de-votes/ http://owni.fr/2010/03/04/liberons-les-bureaux-de-votes/#comments Thu, 04 Mar 2010 11:31:48 +0000 Regards Citoyens http://owni.fr/?p=9397 468379788_d62d4b31f9_o

Le sésame pour aller voter

Il est très difficile de connaître l’emplacement de tous les bureaux de vote. Nous nous en sommes aperçus lors de notre travail sur l’étude du redécoupage électoral. Le ministère de l’intérieur ne centralise pas ces données. Il s’agit pourtant d’informations nécessaires à notre travail citoyen. Le seul moyen de les obtenir : contacter les 36 000 mairies ou les 100 préfectures départementales. Nous avions donc décroché nos téléphones, et contacté une quarantaine de villes et préfectures pour obtenir les adresses des 1 400 bureaux de vote impliqués dans le redécoupage.

Une fois le bon interlocuteur identifié, le défi consiste à obtenir le document recensant les adresses des différents bureaux de vote. De la liste manuscrite dictée par téléphone au document scanné de travers, les cas de figure sont nombreux ! Et il faut ensuite tirer des documents ainsi obtenus les données utiles dans un format structuré : extraire les adresses et les identifiants, positionner les adresses sur une carte, et associer les bureaux de vote aux résultats électoraux.

En parlant de ce travail, nous avons découvert que des acteurs comme 22mars, La Netscouade ou BureauDeVote.fr rencontraient les mêmes problèmes. Parmi eux, Nicolas Kayser-Bril de 22mars avait déjà contacté toutes les préfectures. Plutôt que de travailler chacun seul dans son coin, nous avons décidé d’unir nos forces pour reconstituer ces informations qui devraient être accessible à tous.

Grâce au travail de NKB de 22mars, 88% des documents ont été réunis. Seules quelques préfectures ne nous ont toujours pas fait parvenir les documents définissant leurs bureaux de vote, et la poursuite des efforts de chacun finira certainement par payer.

Mais le travail n’est pas fini ! Il reste désormais à convertir l’ensemble de ces documents en données exploitables. Là encore nous tentons d’innover : reconnaissance de texte OCR, conversion automatique de PDF, conversion de tableurs, … Parfois avec succès, souvent beaucoup plus difficilement. La dernière expérience en date est une application de crowdsourcing permettant de faciliter et décentraliser la partie manuelle du travail. Grâce à cette plateforme participative, quiconque ayant ne serait-ce que 5 minutes pour nous aider peut participer à libérer ces informations.

Parce que nous estimons que l’accès à ces données est essentiel au bon fonctionnement de la démocratie et qu’elles devraient appartenir à tous les citoyens, nous avons décidé d’ouvrir également une plateforme de partage afin que chacun puisse s’approprier au fur et à mesure de notre avancement les documents et les données produits jusqu’à présent. N’hésitez donc pas à participer vous aussi à cette aventure ! Appelez les préfectures récalcitrantes ; téléchargez nos données et les documents préfectoraux, corrigez et complétez les ; participez à la transcription communautaire grace à l’interface de crowdsourcing ! Toutes les contributions sont les bienvenues pour illustrer les usages innovants qui peuvent émerger de données aussi centrales à notre démocratie.

Rendez-vous donc très vite sur http://elections.regardscitoyens.org/ !

» Article initialement publié sur Regards Citoyens

]]>
http://owni.fr/2010/03/04/liberons-les-bureaux-de-votes/feed/ 0
Le “data journalism” contre Albert Londres http://owni.fr/2010/02/11/le-data-journalism-contre-albert-londres/ http://owni.fr/2010/02/11/le-data-journalism-contre-albert-londres/#comments Thu, 11 Feb 2010 12:46:49 +0000 JCFeraud http://owni.fr/?p=7986 Avez-vous déjà entendu parler du “data journalism” (“journalisme de données” en version française) ? Non ? Normal. Le sujet agite beaucoup en ce moment les professionnels de la profession, suscite des contributions savantes dans les conférences sur l’avenir de la presse et sur les blogs dédiés, nourrit d’interminables discussions sur Twitter (je me tweet-clashait encore hier gentiment à ce sujet avec mon excellent confrère Eric Mettout de Lexpress.fr)…mais il reste à mon sens fortement éloigné des préoccupations réelles du lecteur. C’est pourtant la dernière tarte à la crème d’un métier en plein questionnement existentiel.
Mais de quoi parle-ton exactement ?
Le “data journalism”est une nouvelle technique journalistique très en vogue chez nos amis anglo-saxons qui consiste à collecter des masses de données complexes (chiffres, statistiques, rapports annuels…) pour en extraire des informations jugées pertinentes avant de les organiser sous la forme de jolis tableaux, graphiques et autres infographies colorées plus ou moins bien commentés… Nos confrères américains et grands-britons ne jurent plus que par cette dérive scientiste qui est un peu au journalisme ce que la police scientifique est à la maison Poulaga. A savoir un truc très efficace à la télé pour résoudre les affaires classées de “NCIS” ou “Portés disparus”, mais beaucoup moins dans la vraie vie quand il s’agit d’empêcher un braquage de fourgons blindés au lance-roquette ou une émeute dans les cités…


Deux grands évènements ont contribué l’an dernier à l’avènement de ce fameux “journalisme de données”:
1) La “libération” des données publiques décrétées en janvier 2009 par l’administration Obama avec l’ouverture du site data.gov qui permet à tout citoyen d’accéder à un catalogue de données brutes mis en ligne par le gouvernement américain. Bon courage. Car cette énorme masse de chiffres est bien sûr illisible et incompréhensible pour le profane…A moins justement qu’un bon samaritain formé aux dernières techniques de l’infographie et de la “visualisation éditorialisée” ne se saisisse de ces rébarbatives statistiques pour les traduire en jolis histogrammes et autres camemberts illustrés.

2) Mais le grand fait d’armes du “database journalism” reste évidemment la  révélation du scandale des notes de frais des parlementaires britanniques par le “Daily Telegraph” au printemps dernier. Ou comment un journal populaire a en fait obtenu un CD contenant un listing de députés indélicats en versant la coquette somme de 70 000 livres (78 734 euros) à un employé de la Chambre des communes (au passage bonjour la déontologie!). Mais en révélant ces petites et grandes turpitudes - du remboursement de la construction d’un abri de jardin pour canards au défraiement de la location de films X par monsieur mon mari – le “Telegraph” a vu ses ventes bondir de 100.000 exemplaires.
Résultat, une partie de la profession ne jure plus que par la magie du disque dur bourré de données croustillantes. Ou alors l’analyse scientifique de statistiques bien plus austères mais très parlantes. Cela donne par exemple l’été dernier un papier magistral d’Antoine Vayer dans “Libération” : “Contador : du kérosène dans les veines”
Ou comment un non journaliste et vrai spécialiste de l’effort sportif (ex-directeur de Festina) démontre par A + B  (durée de l’ascension, poids du coureur, puissance développée etc…) que la victoire du coureur au col du Verbier était humainement impossible…sans prendre un petit remontant. Reconnaissons là une belle victoire du “data journalism”. Mais de là à en faire un cas d’école et un manifeste comme le fait Nicolas Vanbremeersch dans un article intitulé “Pour un journalisme de données” publié par Slate en juillet dernier, il y a un grand pas qu’il faut se garder de franchir.

Citations :

“De nombreux médias ont compris qu’un article n’était plus l’alpha et l’omega de l’information, mais qu’une infographie, voire la compilation intelligente de données, mises à disposition sur un site Internet, était un meilleur levier d’information qu’un article, qu’une tribune d’expert. Les meilleurs articles d’information, en ligne, les plus consultés, sont souvent de beaux diagrammes”, s’enflamme l’ami Vanbremeersch, un HEC qui ne dirige pas une école de journalisme mais une agence “conseil en communication corporate”.
Et de poursuivre : “Les pouvoirs (Amaury Sport Organisation, l’Elysée) ont un intérêt objectif à maîtriser la divulgation de l’information (…). Les contre-pouvoirs (les médias, les opposants) ont intérêt à travailler non à simplement commenter, mais à fournir leurs données. Se contenter du commentaire, c’est jouer le jeu du storytelling des pouvoirs. Entrer dans la donnée, c’est jouer la subversion”.
Avant de conclure carrément : “Dans un monde d’hyper commentaires, mais aussi de grande puissance de compilation et calcul, la véritable médiation avec la réalité se fait par la donnée”.
Un autre tenant du data-journalism, Fabrice Epelboin qui n’est pas journaliste non plus (il se présente comme “creative geek, startupper, web strategy consultant, editor of Readwriteweb France”) en appelle donc dans ce papier à une refonte de la formation initiale des journalistes pour les préparer “à ce tournant du métier”.

OK les gars mais il y a un petit Problème. On part du journalisme sportif – celui qui par nature se prête le mieux à l’exégèse statistique avec ses scores et temps chronométrés – pour généraliser à l’ensemble du métier ! Et en creux, on sent bien que certains fanatiques du “journalisme de données” à l’anglo-saxonne voudraient carrément en finir avec le “journalisme de narration” à la française. Bref faire la peau à ce bon vieux Albert Londres
C’est à ce moment là je mets le holà !
Si le journalisme de données répond dans certains cas au besoin de traiter l’avalanche d’informations qui déferle sur nous par tous les tuyaux et sur tous les écrans de la civilisation numérique, bref à nous rassurer face à “l’infobésité” qui menace (voir ce bel article savant), cette tendance à vouloir objectiviser à outrance la réalité me donne la chair de poule. Car précisément, le journalisme c’est d’abord affaire de chair ! Une belle plume pour décrire le réel avec des morceaux d’humanité dedans vaut bien mieux que tous les tableaux Excel du monde.  On dénonce le “story telling” des “spin doctors” qui nous manipulent ? Très bien. Mais le métier de journaliste c’est d’abord raconter les ressorts d’une actualité en répondant le mieux possible aux fameux “5 W” : Qui ? Quoi ? Où ? Quand ? Comment ? (voire 6 W avec le Pourquoi ?). Or les chiffres à eux-seuls sont bien incapables de répondre à ce questionnement qui est à la base de tout article normalement constitué.
Que diantre, ce n’est quand même pas avec du “data journalism” qu’Albert Londres a fait fermer  le bagne de Cayenne ! Et plus près de nous, notre confrère Tonino Serafini n’a pas eu besoin de statistiques officielles du ministère des affaires sociales pour dire dans “Libération” la misère et la détresse humaine des sans-abris du Bois de Vincennes : il n’a fait que raconter ce qu’il voyait.

L’analyse des chiffres par tous les nouveaux champions du journalisme de bureau ne remplacera jamais les yeux et les oreilles d’un bon journaliste qui prend encore la peine d’aller sur le terrain pour témoigner. Le journalisme d”enquête et d’investigation a sans doute besoin de données chiffrées. Mais de là à transformer tous les porteurs de carte de presse en experts en “data mining”…
La profonde crise – économique mais aussi d’identité – que traverse la presse ouvre un boulevard aux dernières modes technologiques venues d’outre-Atlantique. Et si on les laisse faire, les ingénieurs en référencement prendront bientôt les commandes des journaux. Ils pilotent déjà souvent leurs sites Web. Mais le journalisme de données n’est sûrement pas le meilleur moyen de réconcilier le lecteur avec la presse.  Le récit et le reportage restent des genres majeurs du journalisme à la française qui assume sa part d’engagement et de subjectivité. Et quand la plume et l’histoire sont à la hauteur, le lecteur en redemande : en témoigne le beau succès rencontré par la revue “XXI” fondée par Patrick de Saint-Exupéry…tiens tiens un prix Albert Londres. C’est d’ailleurs une toute jeune journaliste de “XXI”, Sophie Bouillon, qui a décroché à 25 ans le dernier Prix Albert Londres grâce à un formidable reportage africain (“Bienvenue chez Mugabé”).
Bref à tous les zélotes du “data journalism” (qui sont les mêmes que ces partisans du “robot-journalisme” épinglé dans ce récent billet) je dis :
“Nous ne sommes pas des numéros !”.
Le journalisme, c’est aussi affaire de littérature y compris sur le Web où la petite logique comptable et justement statistique a malheureusement tendance à privilégier le “flux” de données en lieu et place de l’info racontée par des journalistes formés à l’enquête, au reportage et au récit.
Jean-Christophe Féraud

» Article initialement publié (et commenté!) sur Mon Ecran Radar et téléporté sur la soucoupe /-)

]]>
http://owni.fr/2010/02/11/le-data-journalism-contre-albert-londres/feed/ 1