Archives par étiquette : API

API ISTEX : tutoriels d’interrogation

L’INIST-CNRS vient de mettre à disposition (24/10/2016) de courts tutoriels pour découvrir et utiliser l’API de la plateforme ISTEX (initiative d’excellence en Information scientifique et technique). Pour le moment 3 modules sont proposés avec de nombreux exemples de requêtes.

Voir aussi : la documentation de l’API ISTEX

API ScienceDirect et entrepôts institutionnels

L’Université de Floride (UF) et Elsevier ont dévoilé fin mai le résultat du projet pilote sur lequel ils collaborent depuis 2014[1] et qui permet à l’université, par le biais de l’API ScienceDirect, de connecter son entrepôt institutionnel IR@UF à la plateforme ScienceDirect. Les nouveaux articles publiés par les chercheurs de UF dans les revues d’Elsevier sont ainsi automatiquement signalés dans l’entrepôt (les métadonnées des articles anciens ont également été récupérées).

Si ce lien entre la plateforme de l’éditeur et l’entrepôt peut accroître la visibilité des publications des chercheurs de l’UF en améliorant l’interopérabilité des systèmes, il ne permet pas en tant que tel le libre accès à la publication puisque les conditions d’accès de l’utilisateur aux textes intégraux sur la plateforme éditoriale sont inchangées. Par ailleurs il permet à Elsevier de collecter des données sur l’activité des utilisateurs qui accèdent à ces publications.

La prochaine étape annoncée du projet est de permettre à tout utilisateur d’accéder à une version intégrale de la publication sur la plateforme éditoriale : la version de l’éditeur pour les abonnés à Science Direct, la version acceptée du manuscript après une période d’embargo pour les autres.

Source : Opening Up the Repository: University of Florida, Elsevier explore interoperability in the publishing space

[1] Automating IR updates: The University of Florida and Elsevier answer questions about their institutional repository pilot project. By Judith Coffey Russell, University of Florida, and Alicia Wise, Elsevier | July 13, 2015

Intégration entre Open Journal Systems et Dataverse pour déposer les données de la recherche

source : Altman M., Castro E. , Crosas M., Durbin P , Garnett A., and Whitney J. (2015). Open Journal Systems and Dataverse Integration– Helping Journals to Upgrade Data Publication for Reusable Research . Code {4}lib Journal. http://journal.code4lib.org/articles/10989

Cet article décrit un nouvel outil libre pour la publication des données en « open data » dans le processus de soumission d’un article scientifique à un journal. Il comprend un plugin pour Open Journal Systems (OJS) qui supporte la soumission de données, la citation, l’évaluation et le processus de publication et fonctionne comme une extention du Dataverse Systems qui fournit une API standard de dépôt.

Le dataverse Project a commencé en 2006 à Harvard’s Institute for Quantitative Social Science (IQSS). Il contient maintenant plus de 60 000 ensemble de données de la recherche. Pour plus d’informations sur Open Journal Systems, voir le billet sur ce blog.

Dataverse a developpé une extention SWORD qui permet de déposer des fichiers de données et autres types de document à partir d’autres systèmes comme OJS maintenant mais pourrait aussi être implémenté sur Open Science Framework (voir integrating Dataverse with the Open Science Framework) .

La figure ci-dessous, issu de l’article,  montre le processus de soumission complet. Les auteurs soumettent en même temps le jeu de données et l’article.

dataverse

re3data : une première version d’API disponible

Re3data_Logo_RGB_72dpire3data, répertoire d’entrepôts pour les données de la recherche (1130 entrepôts en mars 2015 avec un accroissement moyen de 10 entrepôts par semaine), vient de mettre à disposition une première version d’API, en test, qui permet aux développeurs de récupérer au format XML d’une part la liste des entrepôts et d’autre part la description complète d’un entrepôt identifié.

Les nouveautés de l’archive ouverte HAL v3

Ce billet reprend 2 billets du blog du CCSD http://blog.ccsd.cnrs.fr. Les nouveautés de HAL V3 du 27 juin 2014 et Les API dans HAL v3 du 15 novembre 2013.

Dans les Nouveautés de HAL V3. Le billet décrit la présentation qui a eu lieu dans trois URFIST différents sur les nouveautés de la version 3 de HAL. Au niveau technique sont présentés l’authentification  centralisée, les licences dans HAL et Créative Commons, le moteur  de recherche SOLR et  les API de  recherche (interrogation base et référentiels).

Voir le diaporama Halv3 presentation_ juin_2014 from OAccsd.

Le second billet, Les API dans HAL v3 , détaille, avant la sortie de HAL V3,  les API  disponibles en SWORD (Simple Web-service Offering Repository Deposit). SWORD est un standard d’échanges international fondé par le JISC (Joint Information Systems Committee) pour les imports.

Capturesword

Extracteur de métadonnées :  la V3 de HAL intégrera le même extracteur de métadonnées open source (https://github.com/kermitt2/grobid) que ResearchGate.

Pré-remplissage de méta-données : Lors du dépôt de l’article, des méta-données préremplies et consolidées avec Crossref quand c’est possible, seront proposés.

Moteur de recherche :  Les API s’appuyant sur les fonctionnalités du moteur de recherche Solr seront plus puissantes et permettront d’interroger plus finement les documents déposés et  les référentiels.

Crossref va lancer Prospect : un service de text mining et data mining

Le service de data mining et text mining de Crossref, Propect, a été approuvé en novembre et sera lancé en 2014. Le pilote est  déjà disponible.

Il y aura deux aspects à ce service :

  • une API  TDM (pour texte standard pour le text mining et le data mining) qui permettra aux chercheurs de demander le texte intégral au site de l’éditeur sous une forme standard.
  • une bibliothèque des conditions d’utilisations pour les éditeurs qui souhaitent que les chercheurs acceptent des conditions d’utilisation. Ces conditions d’utilisation ne sont pas requises quand les documents sont en open access ou quand les chercheurs font partie d’une organisation abonnée à la revue ou aux contenus de l’éditeur.

Pour les informations techniques voir :

Sources :

La valeur de Twitter : 140 caractères et 31 métadonnées

Un article intéressant signalé sur le Scoopit de Pierre Levy.

Ford, Paul. “The Hidden Technology That Makes Twitter Huge” Bloomberg Buisinessweek Technology, November 7, 2013. http://www.businessweek.com/articles/2013-11-07/the-hidden-technology-that-makes-twitter-huge.

Les tweets, considérés comme éphèmères transportent un nombre impressionnant de métadonnées. Chaque tweet peut être incorporé (embedded) dans un site web et donc doit contenir les informations pour se décrire de manière isolée de la timelime, fenêtre ou les tweets s’affichent  au fur et à mesure de leur diffusion.

Un tweet contient une liste de 31 métadonnées. Il connait l’identité de son créateur (robot ou humain), la localisation de son endroit de création, la date, les retweets et bien d’autres petits éléments.  Le texte d’un tweet représente moins de 10% de l’information. Pour obtenir ces éléments sur les tweets, il est nécessaire de demander une clé API. Les données sont exprimées en JSON.

La liste des champs est disponible sur la page « tweets » : https://dev.twitter.com/docs/platform-objects/tweets.

Autres ressources à consulter :

  • Entities in Twitter Objects https://dev.twitter.com/docs/entities#tweets
  • REST API v1.1 Resources https://dev.twitter.com/docs/api/1.1.

L’article parait à l’heure de l’entrée en bourse de Twitter. Il explique comment un outil simple  en apparence est en fait un outil développé avec technologies modernes, mises à disposition pour les développeurs.

Cet article montre aussi la valeur ajoutée des métadonnées, presque plus importante que le contenu en lui-même.

https://dev.twitter.com/docs/entities#tweets

Les APIs ou la valeur ajoutée des éditeurs au livre numérique

En créant des index sémantisés s’appuyant sur des schémas standards, sur schema.org ou sur des microformats, les éditeurs peuvent imaginer et proposer, via des APIs, des services nouveaux exploitant pleinement la connaissance qu’ils ont des livres qu’ils publient et de leur contexte.
C’est ce qu’expose et illustre de quelques exemples Hugh McGuire dans l’article  A Publisher’s Job Is to Provide a Good API for Books. You can start with your index.

PressBooks y est cité comme un des outils (gratuit) permettant à tout un chacun de réaliser un livre numérique intégrant une indexation sémantique.

L’article de High McGuire est traduit en français par Virginie Clayssen : Le travail d’un éditeur, selon Hugh McGuire.

Vu sur Bibliomancienne

Zotpress : extension Zotero pour WordPress

Zotpress est une nouvelle extension pour WordPress qui utilise les API Zotero (relire ce billet de Laurent) pour extraire et organiser les éléments de votre (ou d’une autre) bibliothèque Zotero dans un site WordPress.
Il permet un certain nombre de paramétrages : ajout d’images, sélection par critère (auteur, date, type de document, tag), tri, affichage selon un style, limitation du nombre de références affichées…

ZotPress est installé sur le site de blogs ist, vous pouvez voir un exemple de rendu sur le bac à sable

Vu sur le blog Zotero

Zotpress sur WordPress.org