Archives de l’auteur : Esther Dzalé Yeumo Kaboré

Opendatamonitor: un site pour trouver, analyser et comparer des données ouvertes

Opendatamonitor est un « observatoire »  des données ouvertes développé dans le cadre d’un projet européen FP7. Opendatamonitor « moissonne » des catalogues de données et permet de localiser des jeux de données ouvertes tout en informant sur leur degré d’ouverture.  Les jeux de données sont analysés selon 4 critères : licence (ouverte ou non), formats (lisibles par les machines ou non), disponibilité et complétude des métadonnées. Par exemple, sur l’ensemble des catalogues moissonnés à ce jour par Opendatamonitor, 75% des jeux de données sont publiés avec une licence ouverte, 45% le sont dans des formats « machine readable », 65% sont disponibles, et 58% sont décrits avec des métadonnées généralement reconnues comme indispensables (licence, author, organisation, date released and date updated). En France, ces proportions sont respectivement de 46%, 47%, 87% et 72%.
Les catalogues de données de la recherche semblent absents pour l’instant de cette plateforme.

Pour en savoir plus : http://www.opendatamonitor.eu

opendatamonitor

opendatamonitor2

 

Cartographie des standards de métadonnées

Voici une cartographie de l’univers des standards de métadonnées qui peut aider dans le choix des standards de métadonnées.
La carte est construite autour de 4 axes: le domaine d’application, la communauté, la fonction, la finalité. Chacun de ces axes est composé de catégories. Chacun des 105 standards figurant dans cette carte est évalué selon son niveau d’applicabilité aux différentes catégories. Le niveau d’applicabilité ou la force d’un standard dans une catégorie résulte à la fois de son niveau d’adoption, de sa finalité et surtout de sa pertinence dans cette catégorie.
La carte se présente  sous la forme de deux elipses. La moitié de chaque élipse représente un des quatre axes sus mentionnés. Chaque axe est subdivisé en « quartiers » représentant ses catégories. Plus un standard est mentionné proche du centre de l’elipse, plus le lien de ce standard avec la catégorie concernée est fort.
Un glossaire des standards de métadonnées accompagne la carte.

  • Les catégories de l’axe domaine: ressources visuelles, textes scolaires, matériels de musique, images de films, données géospatiales, datasets, objets culturels;
  • Les catégories de l’axe communauté: archives, industrie de l’information, bibliothèques, musées;
  • Les catégories de l’axe fonction: modèle conceptuel, standard de contenu, vocabulaire contrôlé, framework technologique, langage balisé, format d’enregistrement, standard de structure
  • les catégories de l’axe finalité: données, metadonnées descriptives, metadonnées de droits, metadonnées de préservation, metadonnées de structure, metadonnées techniques.

 

Google réalise un pas supplémentaire vers le Web sémantique avec Knowledge Graph

Google lance une nouvelle fonction de recherche sémantique : Knowledge Graph. cette fonction s’appuie sur une gigantesque base de données contenant à ce jour environ 500 millions d’objets, 3,5 milliards de faits et des liens entre ces objets. Déployée pour l’instant dans la version en anglais du site, la fonction Knowledge Graph se matérialise par l’affichage d’une colonne supplémentaire à droite de l’écran lors d’une recherche (encadré en rose dans la figure ci-dessous).


Bien que Knowledge Graph soit encore loin d’être exhaustif,  c’est une très bonne nouvelle dans la mesure où il permettra sans doute de vulgariser les apports du Web sémantique:

  • des recherches plus précises, capables de dépasser les problèmes d’homonymie ;
  • des recherches plus efficaces ;
  • plus de sérendipité (plus de chance de découvrir par « hasard » des résultats pertinents que l’on ne recherchait pas au départ).

Découvrez l’annonce de Knowledge Graph ici, et pour plus d’informations, cliquez .

Près de 90 outils gratuits pour cartographier l'information

Voici une page qui liste environ 90 logiciels gratuits permettant de cartographier l’information. On y trouve des outils de mind mapping ou de concept mapping, des outils de représentation des connaissances, etc…

Publier pour le web des données et le faire savoir

Comme pour le web des documents, l’indexation des données publiées dans le web des données est importante. Il existe deux approches pour référencer ses données dans le web des données:

  1. créer un fichier VoID (Vocabulary for Interlinked Dataset) et le déclarer sur les principaux moteurs de recherche sémantiques tels que Sindice. Un tel fichier permet de décrire le contenu d’un ensemble de données (informations de base, informations utiles, licences, sujets), les services associés à cet ensemble de données, et l’organisation du contenu (en sous ensembles de données notamment)
  2. créer un sitemap sémantique et le référencer sur les principaux moteurs de recherche sémantiques.

Lisez l’article qui se trouve ici si vous souhaitez savoir comment créer en pratique un fichier VoID et un sitemap sémantique et comment les déclarer sur les moteurs de recherche sémantiques.

5 moteurs de recherche en langage naturel

Les moteurs en langage naturel doivent théoriquement pouvoir comprendre n’importe quelle question posée avec des mots courants. Certains vont même jusqu’à donner une réponse précise. Découverte de 5 d’entre eux.

Powerset, True Knowledge, Hakia, Ask et Google sont les 5 moteurs testés, avec des questions telles que « What’s the first name of Barack Obama’s wife ? », « how old is Michael Jackson ? » ou « When did World War II start ? ». En savoir plus..

Stanbol : naissance d'un projet Apache de moteur sémantique

Catégorisation automatique, génération de liens vers des données existantes, alimentation de bases de connaissances… Stanbol fournit aux acteurs de la gestion de contenu une couche d’analyse sémantique. En savoir plus…