Pour faire suite au premier billet qui faisait le point sur l’appréhension juridique (probable) des données publiques, deux autres aspects : la définition de l’Open Data selon l’Open Definition (I) sur laquelle s’appuient certaines des différentes licences utilisées pour une ouverture des données (II).

I – la définition de l’Open Data

Élaboré initialement dans le domaine du logiciel, le mouvement collaboratif du Libre et de l’Open s’est ensuite rapidement étendu au-delà : dans le domaine de la documentation puis des autres œuvres littéraires et artistiques, du matériel, ainsi que des données [1].

Pour se faire, il s’appuie sur le système de propriété intellectuelle existant par l’usage de licences dites libres (ou Open Source [2]). Ces licences constituent ainsi le corollaire inévitable, même si insuffisant, à toute ouverture de (bases de) données dans le cadre d’une politique (publique ou privée) d’Open Data) et peuvent être définies comme des contrats de licence non exclusive de droits de propriété intellectuelle, consentis pour le monde entier et toute la durée des droits, par lesquels un titulaire de droits autorise gracieusement [3] un licencié à copier, modifier et distribuer sa création.

Chaque type de création ayant ses spécificités, plusieurs définitions formalisent les libertés attendues dans chaque domaine. L’Open Data est l’application des concepts formalisés par l’Open Knowledge Foundation (dédiée à la promotion de la connaissance ouverte dans toutes ses formes) au Royaume-Uni et la Sunlight Foundation (qui a pour objet de rendre les gouvernements « transparents et responsables ») aux États-Unis : un accès libre et gratuit aux données sous une licence gratuite qui permette la libre reproduction, redistribution, modification et la libre ré-utilisation (y compris à des fins commerciales) des données[4].

Ces concepts ont été formalisés sous la forme d’une définition (générique) appelée l’« Open Definition », écrite sur le modèle de l’« Open Source Definition » du domaine du logiciel.

Continue reading »

Tagged with:
 

Tardivement apparu sur le devant de la scène politique, le mouvement de l’Open Data connaît aujourd’hui une adoption fulgurante : au motif de l’achèvement d’une politique de transparence initiée par le secteur public dans les années 80 ou comme nouvelle source de valorisation de leurs données par les acteurs privés. Pas plus tard que cette semaine, on a pu assisté au lancement de la plate-forme de données nantaise et à une manifestation pour la libération des données lilloises, rejoignant ainsi la liste des collectivités ayant adopté leur propre « politique Open Data » (savante composition d’arguments politiques, techniques, stratégiques et juridiques).

Ce billet ne tend pas vers l’exhaustivité, mais se concentre sur la dimension juridique afin de dessiner un panorama global des enjeux juridiques et des pratiques contractuelles qui entourent la valorisation des données dans un mode « ouvert. »

Le statut juridique des données sera donc détaillé (1) avant de faire le point sur le mouvement contractuel de l’Open Data (2). Un autre billet viendra ultérieurement compléter ces éléments en approfondissant les questions que pose l’Open Data en termes de stratégies (quelle(s) licence(s) utiliser, et comment les utiliser), de politiques, et de mises en place concrètes (processus).

Continue reading »

Tagged with:
 

Le WFS pour les nuls !

On 22 novembre 2011, in BIG Fiches, by BIGTeam

Après avoir été dévoilée en avant première hier lors de la 5ème journée interopérabilité géospatiale, nous vous proposons de découvrir la fiche technique sur le standard WFS de l’OGC.

« Le Web Feature Service (WFS) est un standard OGC de Service Web qui définit une interface d’interopérabilité technique, dédiée à la publication d’objets géographiques (c’est-à-dire des données vecteur) ainsi que leur structure. »

Cette fiche technique a pour objectif de répondre à ces questions :

  • Qu’est ce que le standard WFS ?
  • Comment fonctionne le standard WFS ?
  • Ou trouver des exemples de mise en œuvre du standard WFS ?

Un Grand Merci aux contributeurs de la fiche : Benjamin Chartier, David Jonglez, Dimitri Sarafinof, Hervé Caumont (contributeur initial), Nicolas Klein, Yves Jacolin (contributeur initial)

A noter :

Tagged with:
 

Comme évoqué dans un billet précédent présentant le comité « Business Value » de l’OGC, l’OGC en partenariat avec deux membres universitaires (Santa Clara University et University of North Carolina) vient de lancer une enquête auprès de tous les acteurs des communautés géospatiale et géoinformatique afin de mieux comprendre les raisons d’implémenter et d’utiliser les standards OGC.

Cette enquête s’appuie sur une expression de besoins émise par le comité « Business Value » de l’OGC dans le cadre des travaux en cours au sein de ce comité sur l’usage des standards OGC et leur pertinence socio-économique. Les résultats de cette enquête seront utilisés par l’OGC pour mieux comprendre la valeur et l’usage des standards OGC par les différentes communautés et ainsi améliorer ses différents programmes de spécifications, de tests et de promotion des standards OGC.

Continue reading »

Tagged with:
 

Dans l’informatique, les modes sont assez courantes et initées par quelques gurus anglo-saxons. La dernière en vogue s’appelle le cloud computing, en français l’informatique en nuage ou infonuagique (http://fr.wikipedia.org/wiki/Cloud_computing). Tout le monde s’y intéresse et évidemment le monde de la géo-informatique n’échappe(ra) pas à ce nouveau concept. Ainsi, l’OGC s’est lancée dans un livre blanc sur le sujet (« OGC Standards and Cloud Computing »[1]), le FGDC américain propose le projet GeoCloud Sandbox Initiative [2], des articles se multiplient dans des revues scientifiques [3] et les premières solutions des éditeurs en mode gratuit et payant fleurissent sur Internet [4].

Le cloud computing arrive donc dans le monde de la géomatique et pourrait encore changer nos usages de la géographie et des SIG pour de nombreux utilisateurs. Voyons pourquoi et comment ?

Le cloud computing, d’un nouveau modèle économique pour les hébergeurs à des services à valeur ajoutée ?

Les infrastructures informatiques utilisées pour la plupart de nos projets géomatiques, notamment  sur le Web sont soit :

  1. mises en œuvre et gérées en interne de nos organisations,
  2. hébergées par des sociétés privées spécialisées.

Lorsque nous publions un site Web avec une interface cartographique, nous exploitons une infrastructure client/serveur définie depuis les années 1990. Le Cloud Computing offre ce même service en hébergeant dans les nuages (=Internet) notre application préférée.

Continue reading »

Tagged with:
 

La 5ème Journée française de l’interopérabilité géospatiale, organisée par le Forum français de l’OGC, se tiendra cette année le 21 novembre 2011. Le ministère de l’Ecologie, du Développement Durable, des Transports et du Logement sera heureux de l’accueillir à la Grande Arche de la Défense.
Pour consulter le programme détaillé et vous inscrire :

http://www.forumogcfrance.org/spip.php?rubrique57

Comme chaque année, cette journée gratuite et ouverte à tous est l’occasion de faire se rencontrer les acteurs de l’interopérabilité (utilisateurs publics ou privés, éditeurs de solutions, chercheurs et monde académique).

Cette année, le thème sera « Téléchargement, Partage, Service : Questions, Solutions, Avantages« .
Au delà d’un nécessaire éclaircissement sur les standards en place et les obligations d’INSPIRE, vous pourrez entendre des retours d’expérience des utilisateurs. Vous avez aimé, l’an dernier, les démonstrations d’interopérabilité sur le standard WMS par les fournisseurs de solutions, alors vous adorerez les démonstrations d’interopérabilité sur le standard WFS !
Enfin le lien entre les standards d’interopérabilité et les initiatives Opendata feront l’objet d’un débat entre les principaux acteurs nationaux.

Au 21, donc !

Rédacteur : François Robida

Tagged with: