Interopérabilité et services web standardisés : du « Human to Human » au « Machine to Machine »
Mise en contexte
Le partage de l’information géographique est aujourd’hui une nécessité reconnue par tous et divers dispositifs mis à disposition des acteurs d’un même territoire la permettent : observatoires territoriaux et infrastructures de données spatiales mises en œuvre au niveau d’agglomérations, de départements, de régions ou au niveau national. Ces dispositifs s’appuient techniquement sur divers standards d’interopérabilité mis au point par l’OGC (‘Web Services’ géographiques et de métadonnées notamment) pour assurer à la fois l’interopérabilité de chaque plate-forme avec les dispositifs de ses adhérents / partenaires et l’interopérabilité des plates-formes entre elles.
Ils permettent notamment :
- De moissonner des métadonnées, soit par transfert périodique automatisé, soit par accès distant via des requêtes à un géorépertoire (interface CS-W)
- D’accéder uniformément à des données distribuées, exposées par des Services Web, pouvant comporter égalementdes fonctions de traitement, et donc sans jamais requérir de transférer ou télécharger les fichiers natifs (interfaces WMS, WFS, WCS, WPS)
On rappelle la définition publiée sur son site par le Forum OGC France (FOF). « L’interopérabilité est la capacité des systèmes à communiquer, à échanger des données, à « travailler » ensemble, sans que l’utilisateur ait besoin de connaître les caractéristiques spécifiques à chaque système. L’interopérabilité est basée sur l’utilisation de standards définissant les interfaces des composants des systèmes. Une application connaissant les interfaces standards est capable d’utiliser n’importe quel composant respectant ces standards. »
3 composants techniques sont donc concernés par cette problématique d’interopérabilité :
- Les données, car la plupart des besoins d’interopérabilité concernent la capacité d’accéder à des données distantes et/ou stockées dans des systèmes divers, et leur mise à disposition dans un schéma applicatif (ou modèle de données) unifié: elles doivent donc si possible être accessibles à travers des interfaces de service et des encodages standardisée (GML, SensorML, WaterML, O&M…),
- Les services d’accès aux données (en encodage natif et/ou standard) et les services offrant des traitements sur ces données,
- Enfin, les métadonnées, qui permettent dans un premier temps d’identifier des données et des services, dans un second temps de les sélectionner, dans un troisième temps d’intégrer les accès ou traitements à des processus informatisés.
Il semble important de rappeler que ces standards sont conçus pour plusieurs types d’usages, impliquant comme émetteurs ou récepteurs des humains (‘Humana’) et des systèmes informatiques (‘Machine’). Aujourd’hui, pour de nombreux géomaticiens, les métadonnées sont surtout un moyen pour un acteur (personne ou structure organisationnelle) de faire connaître à d’autres acteurs l’existence de données et de services et ils sont tentés de se focaliser sur les interactions entre humains. Dans ce registre, les métadonnées et les outils d’exploitation associés posent un certain nombre de problèmes (ergonomie, complexité sémantique, etc). On verra plus loin que les métadonnées doivent également être conçues comme un moyen pour les systèmes informatiques de dialoguer et d’échanger. Il s’agit ici véritablement d’interopérabilité et celle-ci pose des problèmes d’un autre ordre qui doivent également être abordés.
Les deux tableaux suivants examinent les 4 cas possibles dans le contexte des métadonnées et des ‘Web Services’ :
Contributeurs : Arnaud CAUCHY, François ROBIDA, François SALGE, Henri PORNON (contributeur initial), Hervé CAUMONT, Marc LEOBET, Nicolas KLEIN
Consulter la suite de l’article concernant les problèmes identifiés…
Comments are closed.