Archives par étiquette : tutoriel

API ISTEX : tutoriels d’interrogation

L’INIST-CNRS vient de mettre à disposition (24/10/2016) de courts tutoriels pour découvrir et utiliser l’API de la plateforme ISTEX (initiative d’excellence en Information scientifique et technique). Pour le moment 3 modules sont proposés avec de nombreux exemples de requêtes.

Voir aussi : la documentation de l’API ISTEX

Rédiger sa bibliographie de thèse avec Zotero et Latex

Ce petit guide donne de précieuses indications pour les chercheurs (es) qui utilisent Zotero et souhaitent intégrer leurs références bibliographiques dans LateX. Il sera également très utile pour les formateurs interne de l’Inra (Programme Mister et autres) qui sont souvent confrontés à ces questions lors de leurs interventions.

Source : LateX avancé. Faire sa bibliographie de thèse avec Zotero et LaTeX.  .  16 février 2015.  http://fr.slideshare.net/SCDAMU/faire-sa-bibliographie-avec-zotero-et-latex

Veille : organiser ses sources (cours et exercices)

Le site Espace Dominique Lachiver  propose un cour et des exercices sur la gestion de la veille, ( en licence libre, CC Share ALike).

Il propose des  cours et des travaux pratiques  pour  gérer ses sources et ses fils RSS en utilisant des extensions FireFox  (DuckDuckGo Plus, Awesombar) et Feedly, un agrégateur  de flux.

Les support sont disponibles sur différents formats :

Source : NetPublic » Comment faire de la veille efficacement (cours et exercices).

Le projet FreeYourMetadata… avec Google Refine


Signalé par la page Facebook de la communauté AIMS de la FAO, FreeyourMetadata.org est un projet  du  Multimedia Lab (ELIS — Ghent University / iMinds) et du MaSTIC (Université Libre de Bruxelles).
Ce projet montre des exemples, avec des jeux de données disponibles du Power Museum (Sidney, Australia) et avec l’outil Google Refine comment effectuer trois composantes essentielles du traitement des données.

  1. Le nettoyage : harmoniser et corriger les données
  2. La réconciliation : lier les données avec des vocabulaires existants
  3. La publication des données  : rendre les données utilisables d’une manière durable

Pour chacune des trois actions, une procédure par étape (et des vidéos) explique comment utiliser Google Refine. Un jeu de données résultant de chaque étape est disponible.
Pour l’action 2, l’extension de Google Refine  DERI RDF Extension for Google Refine doit être installée. Les données initiales sont ici connectées automatiquement au vocabulaire contrôlé  Library of Congress Subject Headings (LCSH). Le site explique aussi  comment extraire des entités nommées(*) à partir  de données non structurées  en utilisant une extension développée par le projet OpenRefine extension.
Enfin, nous attendons avec impatience l’action 3 :  Sustainable  access.
Les responsables de ce projet donnent aussi des conférences sur ce sujet.. voir le site.
A voir absolument la vidéo d’introduction (en anglais) pour vous convaincre de l’intérêt de promouvoir les Linked data.
(*) La reconnaissance d’entité nommées (extract names entities) consiste à rechercher des objets textuels (c’est-à-dire un mot, ou  un groupe de mots) catégorisables dans des classes telles que noms de personnes, noms d’organisations ou d’entreprises, noms de lieux, quantités, distances, valeurs, dates, etc. (source wikipédia).