Voici la suite et fin de l’article « Human to Human » au « Machine to Machine » (voir plus bas l’épisode 1 « mise en contexte » et 2 « problèmes rencontrés »).

Commentaires

Dans tout ce qui précède, apparaissent des problèmes d’interopérabilité à divers niveaux :

  • problèmes d’interopérabilité technique : compatibilité ascendante des versions d’interfaces, maturité des outils de validation des protocoles d’interopérabilité (cf. les efforts de l’OGC CITE conformance testing…), coûts d’évolution des systèmes (par exemple la question de la migrations d’un parc de navigateurs Web… cf. Javascript, HTML 3/4/5, …)
  • problèmes d’interopérabilité d’ordre sémantique : d’une part, différents utilisateurs décrivent les mêmes données sur des territoires différents avec des mots clés hétérogènes, d’autre part, les mots clés et descripteurs renseignés dans les métadonnées ne sont pas compris de la même façon par les utilisateurs qui consultent. Bien entendu, ceci peut arriver avec des mots clés spécifiques, mais aussi avec des thésaurus. Les mots clés spécifiques sont utilisables par des utilisateurs humains, plus difficilement par des systèmes informatiques, mais les mots clés standardisés par des nomenclature devraient pouvoir être utilisés par les deux catégories d’utilisateurs.
  • problèmes d’ordre linguistique : la confrontation des mêmes concepts exprimés dans plusieurs langues peut poser des problèmes (à un concept dans une langue peuvent correspondre pour partie plusieurs concepts voisins dans une autre langue) et l’exploitation combinée de ces concepts pose des problèmes au requêteur (lancer des requêtes multilingues)
  • problèmes d’ordre organisationnel ? Ce sont là les enjeux majeurs en matière d’interopérabilité, notamment sémantique. Les organisations humaines en charge de ces problématiques, comme l’OGC ou INSPIRE, n’existent que par leurs contributeurs, qui doivent réaliser des investissements initiaux conséquents pour tirer parti sur le long terme des gains de l’interopérabilité. Mais ils doivent aussi se structurer en interne pour induire ces efforts dans leurs processus métier. Un bon exemple concerne la définition de profils applicatifs sur la base de standards existants (cf. INSPIRE et les standards OGC). Ces profils, pour être pérennes, doivent être portés par l’organisation au sein du processus de standardisation (et non pas rester confidentiels au sein de la communauté).

Les problèmes évoqués semblent montrer que l’objectif de faciliter la mutualisation entre les acteurs peut être atteint, même avec une faible standardisation des données, services et métadonnées, mais que l’objectif d’interopérabilité entre les systèmes est beaucoup plus difficile à atteindre sans un niveau supplémentaire de standardisation.

Les questions de licences et autorisation d’accès ne sont pas un problème marginal, et peuvent en particulier bloquer les actions de type COMPUTER (ce n’est en général pas lui qui clique dans la case acceptant les conditions…). La problématique est de deux types : autoriser l’accès à des services ou données (approche basée sur le rôle) ou éviter la diffusion incontrôlée des données (approche basé sur les licenses). L’OGC a globalement tardé à prendre en considération les questions de sécurité et d’accès.

Sur le thème de l’accès, qui est crucial pour permettre l’interopérabilité des services, l’OGC propose à travers un Best Pratice document l’adoption du Standard Internationnal WS-Security publié par l’organisme OASIS. Sur le thème des licences, les initiatives OGC sur GeoDRM semblent enlisées pour l’instant. A noter toutefois que la majeure partie des données concernées par INSPIRE pourront être exonérées de cette procédure.

Pistes de réflexions et solutions à étudier

Faut-il imposer une ou plusieurs ontologies ? Mettre au point des services de recherche plus élaborés ? Standardiser le nommage des métadonnées et les mots clés ?

Des solutions améliorant la définitions d’ontologies ou l’amélioration des services de recherche sont en grande partie déjà arrêtées, que ce soit par les spécifications déjà adoptées ou en cours de discussions, ou les obligations portées par le règlement Téléchargement avec l’enchaînement des opérations :

  1. Décrire une série de données géographiques
  2. Accéder à un objet géographique
  3. Décrire un type d’objet géographique.

Toutefois, ces solutions ne seront dans notre environnement quotidien que d’ici dix ans.

La question est donc : que pouvons-nous faire pour accélérer leur mise en place ?

Étudier les moyens techniques utilisés dans des contextes « computer to computer » : ontologies, outils de tri de l’intelligence économique, autres (futurs) standards de WEB Services… Ce point reste à développer.

Pour plus d’informations

Le projet GIGAS (GEOSS, INSPIRE and GMES an Action on Support)

http://www.thegigasforum.eu/project/project.html

GIGAS est un projet Européen qui a étudié pendant prés de deux ans, l’ensemble des opportunités et problématiques de l’interopérabilité entre les initiatives GEOSS, INSPIRE et les projets GMES. L’ensemble des Technology Watch Reports sont disponibles sous :

http://www.thegigasforum.eu/project/material/deliverables.html

Contributeurs : Arnaud CAUCHY, François ROBIDA, François SALGE, Henri PORNON (contributeur initial), Hervé CAUMONT, Marc LEOBET, Nicolas KLEIN

Tagged with:
 

1 Response » to “« Human to Human » au « Machine to Machine » : commentaires et pistes de réflexion”

  1. […] articles à venir Interopérabilité et services web standardisés : du « Human to Human » au « Machine to Machine » « Human to Human » au « Machine to Machine » : commentaires et pistes de réflexion […]