Le relais de la GO-intéropérabilité !

On Tuesday 06 March 2012 à 16:52, in BIG News, by BIGTeam

Après plusieurs semaines de grand calme… BIG va très bientôt être redynamisé par 3 experts de la GéoInteropérabilité !

Marie-Lise, Dimitri et Gilles se sont proposés de prendre, en équipe, le relais de l’animation du blog.

Merci à toutes et tous pour ce bout de blog crée et animé ensemble. La clé du BIG succès est sans aucun doute dans la diversité de vos points de vue et la qualité des billets. Souhaitons à nos nouveaux GO plein de chance dans cette aventure !

Ils vont très vite vous proposer des pistes d’amélioration.

Côté coulisses, tout s’organise pour un redémarrage début mars… accrochez vos ceintures, BIG va se réveiller :-).

Nicolas, GO retraité…

 

Conception d’un format GML avec contraintes

On Monday 09 January 2012 à 18:09, in BIG Articles, by ogayte

1. Introduction

Ce document est le deuxième d’une série de trois articles consacrés à GML.

Le premier, intitulé « Pourquoi utiliser GML ? » présentait les caractéristiques de ce format et ses capacités de validation.

Le présent article décrit de manière plus détaillée les étapes de conception d’un format GML intégrant des contraintes. Ce sont ces contraintes qui vont permettre d’assurer la qualité de l’échange de données et qui constituent une grande partie de l’intérêt de ce format.

Nous commencerons par revenir sur les notions de schémas et de validation XML avant de décrire leur application à la création d’un exemple de format GML (« BIG ») permettant la représentation d’un modèle de données complexe.

Au delà des aspects purement techniques de l’écriture d’un schéma d’application XSD, nous discuterons pour terminer des enjeux liés aux différents types de modélisation des données.

Continue reading »

Tagged with:
 

La directive européenne INSPIRE impose aux Etats membres de faciliter l’accès à des informations géographiques fiables. Cependant, elle ne définit pas les modalités pratiques de son application. Experts du domaine : rejoignez AFNOR pour anticiper et accompagner les évolutions de votre secteur !

La Commission européenne, pour mener à bien la politique communautaire environnementale, a créé la directive INSPIRE. Cette directive vise à établir en Europe une infrastructure de données géographiques pour améliorer la qualité des différentes données géographiques des Etats membres comme les images satellites, les relevés des températures ou les niveaux de précipitations. Le but étant de mieux concevoir et mettre en œuvre les politiques communautaires dans les domaines de l’environnement, des transports, de l’énergie et de l’agriculture, et du secteur postal.

Les États membres doivent donc s’engager à faciliter l’accès à des informations géographiques fiables aux utilisateurs, décideurs et citoyens. Cependant, la directive INSPIRE ne définit pas les modalités pratiques de son application. Afin de préparer la France à ces nouvelles réglementations et les acteurs économiques à les mettre en œuvre, AFNOR anime la commission de normalisation « Information Géographique et Spatiale » avec pour principale mission la réalisation de guides d’application de la directive INSPIRE.

Continue reading »

Tagged with:
 

De l’« open-source » à l’« open-data »

On Tuesday 29 November 2011 à 08:00, in BIG Articles, by bjean

Pour faire suite au premier billet qui faisait le point sur l’appréhension juridique (probable) des données publiques, deux autres aspects : la définition de l’Open Data selon l’Open Definition (I) sur laquelle s’appuient certaines des différentes licences utilisées pour une ouverture des données (II).

I – la définition de l’Open Data

Élaboré initialement dans le domaine du logiciel, le mouvement collaboratif du Libre et de l’Open s’est ensuite rapidement étendu au-delà : dans le domaine de la documentation puis des autres œuvres littéraires et artistiques, du matériel, ainsi que des données [1].

Pour se faire, il s’appuie sur le système de propriété intellectuelle existant par l’usage de licences dites libres (ou Open Source [2]). Ces licences constituent ainsi le corollaire inévitable, même si insuffisant, à toute ouverture de (bases de) données dans le cadre d’une politique (publique ou privée) d’Open Data) et peuvent être définies comme des contrats de licence non exclusive de droits de propriété intellectuelle, consentis pour le monde entier et toute la durée des droits, par lesquels un titulaire de droits autorise gracieusement [3] un licencié à copier, modifier et distribuer sa création.

Chaque type de création ayant ses spécificités, plusieurs définitions formalisent les libertés attendues dans chaque domaine. L’Open Data est l’application des concepts formalisés par l’Open Knowledge Foundation (dédiée à la promotion de la connaissance ouverte dans toutes ses formes) au Royaume-Uni et la Sunlight Foundation (qui a pour objet de rendre les gouvernements « transparents et responsables ») aux États-Unis : un accès libre et gratuit aux données sous une licence gratuite qui permette la libre reproduction, redistribution, modification et la libre ré-utilisation (y compris à des fins commerciales) des données[4].

Ces concepts ont été formalisés sous la forme d’une définition (générique) appelée l’« Open Definition », écrite sur le modèle de l’« Open Source Definition » du domaine du logiciel.

Continue reading »

Tagged with:
 

OpenData & licences : le statut juridique des données

On Thursday 24 November 2011 à 08:30, in BIG Articles, by bjean

Tardivement apparu sur le devant de la scène politique, le mouvement de l’Open Data connaît aujourd’hui une adoption fulgurante : au motif de l’achèvement d’une politique de transparence initiée par le secteur public dans les années 80 ou comme nouvelle source de valorisation de leurs données par les acteurs privés. Pas plus tard que cette semaine, on a pu assisté au lancement de la plate-forme de données nantaise et à une manifestation pour la libération des données lilloises, rejoignant ainsi la liste des collectivités ayant adopté leur propre « politique Open Data » (savante composition d’arguments politiques, techniques, stratégiques et juridiques).

Ce billet ne tend pas vers l’exhaustivité, mais se concentre sur la dimension juridique afin de dessiner un panorama global des enjeux juridiques et des pratiques contractuelles qui entourent la valorisation des données dans un mode « ouvert. »

Le statut juridique des données sera donc détaillé (1) avant de faire le point sur le mouvement contractuel de l’Open Data (2). Un autre billet viendra ultérieurement compléter ces éléments en approfondissant les questions que pose l’Open Data en termes de stratégies (quelle(s) licence(s) utiliser, et comment les utiliser), de politiques, et de mises en place concrètes (processus).

Continue reading »

Tagged with:
 

Le WFS pour les nuls !

On Tuesday 22 November 2011 à 07:00, in BIG Fiches, by BIGTeam

Après avoir été dévoilée en avant première hier lors de la 5ème journée interopérabilité géospatiale, nous vous proposons de découvrir la fiche technique sur le standard WFS de l’OGC.

« Le Web Feature Service (WFS) est un standard OGC de Service Web qui définit une interface d’interopérabilité technique, dédiée à la publication d’objets géographiques (c’est-à-dire des données vecteur) ainsi que leur structure. »

Cette fiche technique a pour objectif de répondre à ces questions :

  • Qu’est ce que le standard WFS ?
  • Comment fonctionne le standard WFS ?
  • Ou trouver des exemples de mise en œuvre du standard WFS ?

Un Grand Merci aux contributeurs de la fiche : Benjamin Chartier, David Jonglez, Dimitri Sarafinof, Hervé Caumont (contributeur initial), Nicolas Klein, Yves Jacolin (contributeur initial)

A noter :

Tagged with:
 

Participez à l’enquête sur l’usage des standards OGC !

On Thursday 17 November 2011 à 07:00, in BIG Articles, by emondon

Comme évoqué dans un billet précédent présentant le comité « Business Value » de l’OGC, l’OGC en partenariat avec deux membres universitaires (Santa Clara University et University of North Carolina) vient de lancer une enquête auprès de tous les acteurs des communautés géospatiale et géoinformatique afin de mieux comprendre les raisons d’implémenter et d’utiliser les standards OGC.

Cette enquête s’appuie sur une expression de besoins émise par le comité « Business Value » de l’OGC dans le cadre des travaux en cours au sein de ce comité sur l’usage des standards OGC et leur pertinence socio-économique. Les résultats de cette enquête seront utilisés par l’OGC pour mieux comprendre la valeur et l’usage des standards OGC par les différentes communautés et ainsi améliorer ses différents programmes de spécifications, de tests et de promotion des standards OGC.

Continue reading »

Tagged with:
 

Cloud computing, un nouveau défi pour la géomatique ?

On Tuesday 15 November 2011 à 06:50, in BIG Articles, by pierrel

Dans l’informatique, les modes sont assez courantes et initées par quelques gurus anglo-saxons. La dernière en vogue s’appelle le cloud computing, en français l’informatique en nuage ou infonuagique (http://fr.wikipedia.org/wiki/Cloud_computing). Tout le monde s’y intéresse et évidemment le monde de la géo-informatique n’échappe(ra) pas à ce nouveau concept. Ainsi, l’OGC s’est lancée dans un livre blanc sur le sujet (« OGC Standards and Cloud Computing »[1]), le FGDC américain propose le projet GeoCloud Sandbox Initiative [2], des articles se multiplient dans des revues scientifiques [3] et les premières solutions des éditeurs en mode gratuit et payant fleurissent sur Internet [4].

Le cloud computing arrive donc dans le monde de la géomatique et pourrait encore changer nos usages de la géographie et des SIG pour de nombreux utilisateurs. Voyons pourquoi et comment ?

Le cloud computing, d’un nouveau modèle économique pour les hébergeurs à des services à valeur ajoutée ?

Les infrastructures informatiques utilisées pour la plupart de nos projets géomatiques, notamment  sur le Web sont soit :

  1. mises en œuvre et gérées en interne de nos organisations,
  2. hébergées par des sociétés privées spécialisées.

Lorsque nous publions un site Web avec une interface cartographique, nous exploitons une infrastructure client/serveur définie depuis les années 1990. Le Cloud Computing offre ce même service en hébergeant dans les nuages (=Internet) notre application préférée.

Continue reading »

Tagged with:
 

La 5ème Journée française de l’interopérabilité géospatiale, organisée par le Forum français de l’OGC, se tiendra cette année le 21 novembre 2011. Le ministère de l’Ecologie, du Développement Durable, des Transports et du Logement sera heureux de l’accueillir à la Grande Arche de la Défense.
Pour consulter le programme détaillé et vous inscrire :

http://www.forumogcfrance.org/spip.php?rubrique57

Comme chaque année, cette journée gratuite et ouverte à tous est l’occasion de faire se rencontrer les acteurs de l’interopérabilité (utilisateurs publics ou privés, éditeurs de solutions, chercheurs et monde académique).

Cette année, le thème sera « Téléchargement, Partage, Service : Questions, Solutions, Avantages« .
Au delà d’un nécessaire éclaircissement sur les standards en place et les obligations d’INSPIRE, vous pourrez entendre des retours d’expérience des utilisateurs. Vous avez aimé, l’an dernier, les démonstrations d’interopérabilité sur le standard WMS par les fournisseurs de solutions, alors vous adorerez les démonstrations d’interopérabilité sur le standard WFS !
Enfin le lien entre les standards d’interopérabilité et les initiatives Opendata feront l’objet d’un débat entre les principaux acteurs nationaux.

Au 21, donc !

Rédacteur : François Robida

Tagged with:
 

TJS : le nouveau standard de partage de données géo-statistiques

On Tuesday 04 October 2011 à 08:59, in BIG Articles, by mauviere

Table Joining Service est un des tout derniers standards mis au point par l’Open Geospatial Consortium. Si cette norme a rapidement suscité un intérêt en France, on le constate dans les cahiers des charges qui sortent, c’est parce que :

  • elle soulage les gestionnaires d’applications statistiques, qui peuvent intégrer sans effort dans leurs bases des données prêtes à l’emploi ;
  • elle ouvre aux utilisateurs d’observatoires un large éventail d’indicateurs utilisables : avec TJS, ils se connectent de façon transparente à de nombreux serveurs de données ;
  • elle offre un format de sauvegarde intelligent de jeux de données documentées : les méta-données permettent de définir automatiquement les bons retraitements et les bonnes représentations cartographiques en fonction des caractéristiques propres des indicateurs ;
  • elle est facile à implémenter, en tout cas beaucoup plus facile que GML.

TJS est le chaînon manquant entre WMS et GML. WMS distribue des images, qui sont certes d’emploi immédiat, mais offrent peu de possibilités de retraitements, d’extractions ou de valeur ajoutée. GML est un format verbeux et complexe. Son polymorphisme rend l’écriture de modules de décodage génériques rebutante. A contrario, TJS délivre des fichiers compacts, simples à lire et à générer. Ils peuvent s’intégrer dans toute sorte de retraitements, dans l’esprit des Web Processing Services. Ce n’est d’ailleurs pas un hasard si les standards WPS et TJS ont le même « Papa », à savoir le Canadien Peter Schüt.

Continue reading »

Tagged with: