Showing posts with label google. Show all posts
Showing posts with label google. Show all posts

Saturday, December 30, 2017

Deezer ou Spotify ou Google play ou youTube ou Apple Music ou Amazon Musique... ?

Nous parlons d'une industrie: l'industrie musicale et sa partie diffusion.

En premier contrairement à un support physique comme un CD ou vinyle, il n'est pas possible de revendre le morceau ou l'album acheté. Donc cette industrie est encore plus juteuse puisque c'est du "one shot"mais prend le risque de l'auto-diffusion comme l'industrie du livre et des revues.


Le véritable démarrage de l'industrie musik webService-like est la décision industrielle d'Apple qui lance l'iTunes Music Store aux États-Unis, dont le catalogue inclut des répertoires des cinq majors. Chaque morceau y est vendu au tarif unique de 99 cents au format AAC, et chaque album pour 9.99 dollars US (sauf exceptions). Le succès de son baladeur numérique iPod, étroitement intégré au logiciel iTunes, a été une révolution à la Steve, paix à son âme.
https://fr.wikipedia.org/wiki/Magasin_de_musique_en_ligne
https://en.wikipedia.org/wiki/Online_music_store

https://en.wikipedia.org/wiki/Comparison_of_online_music_stores
https://en.wikipedia.org/wiki/Comparison_of_on-demand_music_streaming_services

Bref quoi que soit le mode d'achat (à la chanson, à l'abonnement), on écoute un droit d'un fichier numérique.  En audio, y a x qualités. mais la question est la banque de données fondamentale avant transcodage style bad MP3.
La taille de la banque de données fondamentale est la première grandeur à mutiplier par la croissance du nombre d'utilisateur * nbr d'utilisateur réel*croissance des services:
SoundCloud en a ~125 millions de tracks, puis Deezer avec ~40millions comme TIdal, Apple, Amazon. Spotify en a un peu moins ~30millions mais avec une excellente stratégie par exemple des appli pour objets connectés comme les montres samsung ou des aggrégations.
Microsoft a annoncé le 2 octobre 2017 que les services d'abonnement et d'achat de musiques prendront fin le 31 décembre 2017. Microsoft invite les clients de "Groove music" (et Zune Music ou Xbox Music) à migrer sur Spotify avec lequel il est en partenariat. L'exemple des échecs successifs de Microsoft dans cette industrie souligne combien cette industrie est très difficile.
Mais Spotify a >150millions d'abo ou de compte free, le BEST!
Deezer que 10millions et piétine en 2017. A part un superMegaBuzz mondial, la partie de boule de neige est jouée.

Un très bon article dans Les Echos

La toile regorge de services de streaming musical et il n'est pas toujours facile de faire un choix. François Lévêque, professeur d'économie, tente ici de vous éclairer dans votre réflexion.
Deezer, Spotify, Apple Music, Tidal, Amazon Musique... La liste Wikipedia des plates-formes d'écoute de musique en streaming contient une trentaine de noms. Quel service choisir ? La recommandation de la théorie économique tient en une phrase : choisir celui dont la victoire dans la bataille de la concurrence est anticipée.

Nous sommes en effet de plain-pied dans le monde économique des plates-formes et de ses puissantes externalités de réseau. Vous connaissez, sans doute, ces effets qui avantagent les entreprises aux plus larges clientèles.

Cela se traduit ici de la façon suivante : plus un service de streaming comptera d’abonnés, plus un abonné aura de chances de pouvoir échanger ses listes de lecture et ses avis avec d’autres ; plus appropriées seront les suggestions de titres qui lui seront faites; plus d’artistes et de labels auront intérêt à être présents dans son catalogue. Et, inversement, plus d’artistes et de labels sont présents dans un catalogue, plus il est intéressant d’y être abonné.

Parier sur le bon cheval

D’où des effets boule de neige et une course entre les plates-formes pour recruter le plus de clients des deux côtés de leur marché, et ce le plus vite possible. D’où une marginalisation et une disparition progressive de celles qui n’y parviendront pas. D’où au final un seul ou un petit nombre de vainqueurs. D’où, enfin, l’intérêt de parier sur un bon cheval dès le départ car changer de cheval en cours de route est bien ennuyeux.

Lire aussi :   Pourquoi le jazz et le classique peinent à s’imposer dans le streaming
https://www.lesechos.fr/tech-medias/medias/010160355128-pourquoi-le-jazz-et-le-classique-peinent-a-simposer-dans-le-streaming-2105163.php

Vous subirez en effet des coûts de changement de fournisseur. Non pas qu'il vous en coûtera des espèces sonnantes et trébuchantes, mais il vous faudra apprendre à naviguer sur une autre plate-forme et surtout vous perdrez vos listes de lecture et votre nouveau fournisseur - faute d'historique et des données qui vont avec - ne connaîtra pas vos goûts et ne saura pas au début vous adresser des recommandations et suggestions aussi bien ciblées.

rem perso: avoir toujours 2 fournisseurs.

Plus il y a d'abonnés, mieux c'est

Un autre avantage à la taille, plus classique, s’ajoute à ces effets de réseau : les économies d’échelles. Les données de l’équation économique de base du streaming les feront facilement comprendre. Chaque nouvel abonné contribue aux coûts fixes, c’est-à-dire qui ne varient pas en fonction des ventes, à l’instar des dépenses de développement des algorithmes, interfaces utilisateurs et autres logiciels.

Secundo, chaque nouvel abonné entraîne une augmentation de la redevance à verser aux labels. Elle est de l’ordre de 60% du montant des abonnements. Ainsi un plus grand nombre d’abonnés permet de mieux recouvrer les coûts fixes et donne un plus grand pouvoir de négociation à l’entreprise de streaming pour obtenir des redevances plus faibles.

Notez en passant que la partie de boules de neige coûte cher. A ce jour l’activité de streaming n’est pas rentable. Deezer, Tidal, Spotify et les autres entreprises spécialisées perdent de l’argent. Les Apple Music, Amazon Music et Google Music aussi mais leur déficit est masqué par l’intégration avec les autres activités de leurs opérateurs respectifs.

Procéder par élimination

Commençons à appliquer la recommandation de la théorie économique en procédant par élimination. D’ores et déjà des services de streaming ont pris un tel retard dans le recrutement d’abonnés qu’il est peu probable qu’ils survivront ou alors seulement sur des segments de marché restreints.

Ainsi : évitez SoundCloud, bien mal en point. Ne choisissez pas Anghami sauf si vous êtes fan de musique arabe car son catalogue s’adresse avant tout aux pays du Moyen-Orient et d’Afrique du Nord. Eliminez Tidal, à moins que vous ne soyez un admirateur inconditionnel du rappeur Jay Z qui l’a racheté. N’utilisez TTunes que si vous possédez une Tesla.

Inversement, on peut être presque sûr que certains ne disparaîtront pas. C’est le cas des entreprises multi-produits dont le streaming fait partie. Il attire et fidélise des clients qui consomment d’autres de leurs biens et services. Il n’est donc pas soumis isolément à une contrainte financière et de rentabilité stricte qui limiterait les investissements pour recruter de nouveaux clients et améliorer le service.

Lire aussi :  Soundtrack Business, le Spotify de la musique d’ambiance
https://www.lesechos.fr/tech-medias/medias/030564173660-soundtrack-business-le-spotify-de-la-musique-dambiance-2114813.php#mX6c7Co1IgidP2km.99

C’est bien sûr le cas d’Apple. Pionnière de la vente de musique numérique à la pièce, la firme de Cupertino a pris tardivement le tournant du streaming, sans doute pour cause de cannibalisation. Sa vitesse de rattrapage est cependant spectaculaire. Elle a conquis 20 millions d’abonnés en deux ans. Citons également Amazon qui a lancé sa propre plate-forme musicale et la propose à un tarif réduit à ses meilleurs clients.

La présence durable de ces deux entreprises dans le streaming est d’autant plus certaine qu’il est un maillon indispensable de leurs haut-parleurs Echo et HomePod – vous savez, ces petites enceintes cylindriques connectées censées trôner demain dans tous les salons (ou presque) pour répondre intelligemment (ou presque) à toutes vos questions (ou presque).

Vous pouvez leur demander «Quel temps fera-t-il demain ?» mais aussi «Joue-moi la chanson du jour» ou «Passe le dernier single de Rihanna». Si d’ailleurs vous envisagez l’acquisition d’une telle enceinte connectée, je vous conseille de vous abonner à Amazon Music ou Apple Music pour éviter des problèmes d’incompatibilité. Si vous êtes attaché à ces entreprises mastodontes ou tout simplement trop paresseux pour changer de prestataire, faites le même choix.

Google ou pas Google ?

Le cas de Google est compliqué car l’entreprise joue sur plusieurs tableaux. Elle possède sa propre plate-forme, Google Play Music, accepte Spotify sur son enceinte connectée Google Home, et possède aussi YouTube.

Que vient faire ici la plate-forme de streaming vidéo la plus regardée au monde ? Et bien avec ses 800 millions d’utilisateurs elle est aussi la plus écoutée ! Par ceux qui payent à travers la publicité surtout, et, pour une toute petite partie, à savoir quelques millions seulement, par des abonnés à YouTube Red, sa plate-forme payante qui donne accès à un catalogue de films et séquences vidéo, mais aussi à un catalogue musical. Avec tout juste 7 millions d’abonnés à ses deux services payants, Google a intérêt à les combiner dans une seule offre . Si vous penchez pour Google attendez donc un peu.

Deezer, un avenir en pointillé

Le futur de Deezer est lui aussi difficile à prédire. Cette plate-forme d’origine tricolore domine le marché français. Mais elle ne compte dans le monde entier que 8 millions d’abonnés et sa croissance piétine.

Elle est aujourd’hui majoritairement contrôlée par Len Blatvanik, un magnat anglo-américain d’origine russe dont la holding est présente dans le gaz et le pétrole (EP Energy), le capital-risque (Access Technology), l’immobilier (Grand-Hôtel du Cap Ferrat), et qui détient aussi le contrôle majoritaire de Warner Music Group.

Cette bonne compagnie financière et musicale préserve Deezer d’une sortie du marché à laquelle elle n’aurait pas échappé par manque de moyens. Toutefois son propriétaire pourrait la sacrifier avec ou sans Warner lors d’une prochaine rotation de son portefeuille d’actifs. Mon avis : bof bof, sauf si vous êtes un grand amateur d'artistes français – car Deezer offre un catalogue pointu en la matière – ou si tous vos amis et proches sont déjà abonnés à cette plate-forme.

Spotify est-il vraiment le bon choix ?

Finalement, pourquoi ne pas choisir Spotify ? Même si elle est talonnée par Apple, l’entreprise suédoise n’est-elle pas la première du marché en nombre d’abonnés ? Oui, mais justement elle est talonnée par Apple. Une comparaison financière résume le déséquilibre des forces en présence : en une journée l’entreprise californienne réalise un profit qui équivaut à la perte qu’essuie Spotify sur une année.

Malgré sa taille Spotify perd encore en effet de l’argent. Apple n’est pas en reste mais même en supposant que la perte d’Apple Music soit deux fois plus élevée que celle de Spotify, elle serait épongée en deux jours par les profits des autres activités de la firme.

La question de savoir si Spotify peut être rentable dans le futur agite le monde financier car la firme suédoise s’apprête à entrer en Bourse. Les pronostics sont contrastés. Lui faut-il atteindre 100 millions d’abonnés pour être à l’équilibre ? Obtenir un taux de redevance auprès des labels de 58 ou de 55%  de ses recettes ? Y parviendra-t-elle ?

Ces incertitudes ne doivent cependant pas vous dissuader de choisir Spotify. Elle occupe la première place en nombre d’abonnés et en croissance du nombre d’abonnés. C’est donc le choix le plus conforme au raisonnement économique. En outre, son avenir économique est conforté par l’intérêt que lui prêtent les majors de l’industrie du disque.

Sony, Universal et Warner ne souhaitent sans doute pas avoir Amazon, Apple et Google comme uniques clients. Elles sont chacune actionnaires de Spotify et, connaissant ainsi ses comptes, sont susceptibles de lâcher du lest sur leurs montants de redevance en cas de besoin.

La version originale de cet article a été publiée sur The Conversation.

François Lévêque, professeur d'économie et vient de faire paraître "Les habits neufs de la concurrence" chez Odile Jacob. Il est lui-même abonné à une plate-forme de streaming, mais il n’en a choisi aucune de celles citées. 

Ref

 https://www.lesechos.fr/idees-debats/cercle/cercle-173806-deezer-apple-musique-spotify-amazon-music-lequel-choisir-2115745.php

Saturday, June 3, 2017

Interoperability and Vcard, vcf by MMS

vCard is a file format standard for electronic business (or personal) cards.
vCards are often attached to e-mail messages, but can be exchanged in other ways, such as on the World Wide Web (instant messaging,...) or cellular phone (by MMS).

This file format standard allows an interoperable save process to your "contacts.

Process  with an Android:

  1. go to Messaging app, and then "long tap" the received MMS
  2. On the Message options prompt, select "Save attachment".
  3. On the save attachment prompt, select the checkbox and tap "save". The .vcf file should be saved on your phone storage Download folder.
  4. launch My Files app. Go to the phone Download folder (storage/sdcard0/Download) and tap the .vcf file.
    Note: If you didn’t see that particular file in the Download folder, you can make use of the search function in My Files.
  5. If this is your FIRST time opening a .vcf file on your Android, you should see the Complete action using prompt. Here, tap "Contacts" and then Always.
  6. On the Create contact under account window, select 
    • Google to save the contact to your Gmail contact
    • Phone to save the contact to your phone contact app.
---

Example with a samsung galaxy:

Friday, March 10, 2017

DataCite services, Zenodo and MANY ORCID integration services (and impactstory)



DataCite services

Locate, identify, and cite research data with DataCite, a global provider of DOIs for research data.

https://www.datacite.org/
(less services than crossRef).

http://stephane-mottin.blogspot.fr/2017/01/datacite-inist-cern-metadata-schema.html

DOI handbook
http://www.doi.org/hb.html

In order to create new DataCite DOIs and assign them to your content, it is necessary to become a DataCite member or work with one of the current members.

Through the web interface or the API of the DataCite Metadata Store you will be able to submit a name, a metadata description following the DataCite Metadata Schema and at least one URL of the object to create a DOI. Once created, information about a DOI is available through our different services search, event data, OAI-PMH and others).

The DataCite Metadata Store is a service for data publishers to mint DOIs and register associated metadata. The service requires organisations to first register for an account with a DataCite member.
https://mds.datacite.org/

http://schema.datacite.org/

status of the services
http://status.datacite.org/

https://blog.datacite.org/

Services of DataCite profiles

DataCite Profiles integrates DataCite services from a user’s perspective and provides tools for personal use. In particular, it is a key piece of integration with ORCID, where researchers can connect their profiles and automatically update their ORCID record when any of their works contain a DOI.

https://profiles.datacite.org/
example
https://profiles.datacite.org/users/0000-0002-7088-4353
0000-0002-7088-4353 is my ORCID Id.

You can get

  • your ORCID Token 
  • your API Key
    (if you want to use the ORCID API).

In your profile, you can select how to connect:

You can also follow ORCID claims.
For example: "You have 5 successful claims, 0 notification claims, 0 queued claims and 0 failed claims"

You are also linked to Impactstory
Impactstory is an open-source website that helps researchers explore and share the the online impact of their research.
https://impactstory.org/u/0000-0002-7088-4353
0000-0002-7088-4353 is my ORCID id.

You must authorize impactstory.org to link with your ORCID.
You must also connect impactstory.org with your twitter.
In impactstory, Zenodo from ORCID are "datasets".

Zenodo and DataCite METADATA

If you use ZENODO, an Open Archive with DataCite DOI, DataCite services are interesting.

Zenodo gives a DataCite DOI and an export to a clean datacite METADATA (XML DataCite 3.1).

(see also my posts on this blog with the tag "zenodo")

Zenodo DataCite and Orcid

If you use ZENODO and your ORCID Id  then you have some services:

You must allow Zenodo to "Get your ORCID iD".

You must allow DataCite to  allow ORCID "Add works"
But only 5 METADATA are automatically sent to ORCID by DataCite.

  • Title, 
  • Year, 
  • Description (the full field of Zenodo), 
  • Contributor (the field 'creator' of Zenodo = authors),
  • DOI

You can add metadata in ORCID...
Change type 'Work category' and  'Work type'.
Then Source is changed from 'zenodo' to 'Stéphane MOTTIN'

In impactstory, Zenodo links (from ORCID) are considered as "datasets" with only 4 METADATA
  • Title, 
  • Year, 
  • Contributor (the field 'creator' of Zenodo = authors),
  • DOI

ORCID

You can see the list of ORCID "trusted organization"
at https://orcid.org/account
DataCite can 'add works'.


For other ORCID Search & link wizards:
http://support.orcid.org/knowledgebase/articles/188278-link-works-to-your-orcid-record-from-another-syste

for example
  • The Crossref Metadata Search integration allows you to search and add works by title or DOI. Once you have authorized the connection and are logged into ORCID, Crossref search results will also include a button to add works to your ORCID record.
    http://search.crossref.org/
  • The DataCite integration allows you to find your research datasets, images, and other works. Recommended for locating works other than articles and works that can be found by DOI.
  • The ISNI2ORCID integration allows you to link your ORCID and ISNI records and can be used to import books associated with your ISNI. Recommended for adding books.
    http://isni2orcid.labs.orcid-eu.org/
  • Use this tool to link your ResearcherID account and works from it to your ORCID record, and to send biographical and works information between ORCID and ResearcherID.
    http://wokinfo.com/researcherid/integration/
  • Use this wizard to import works associated with your Scopus Author ID; see Manage My [Scopus] Author Profile for more information. Recommended for adding multiple published articles to your ORCID record.
    https://www.elsevier.com/solutions/scopus/support/authorprofile

Tuesday, February 14, 2017

format file 2 import into HAL (XML TEI) ZENODO (JSON) via API. Converter, serialization, Metadata from marc, marcXML; YAML...


Une introduction en français sur les formats:
http://sametmax.com/yaml-xml-json-csv-ini-quest-ce-que-cest-et-a-quoi-ca-sert/


JSON
http://stephane-mottin.blogspot.fr/2017/01/datacite-inist-cern-metadata-schema.html
Implementations below are written in different languages:
http://json-schema.org/implementations.html
https://github.com/jdorn/json-editor


XML
http://stephane-mottin.blogspot.fr/2017/01/moissonnage-oai-pm-structure-ead-puis.html

converters CSV-XML  CSV-JSON XML-JSON

web service for simple schema

http://codebeautify.org/csv-to-xml-json#

import to HAL

http://stephane-mottin.blogspot.fr/2017/01/api-v3-hal-import.html

download HAL XML-TEI schema

"all"
https://api.archives-ouvertes.fr/documents/all.xml

https://github.com/CCSDForge/HAL/tree/master/Sword

article
https://github.com/CCSDForge/HAL/blob/master/Sword/ART.xml

chapter book
https://github.com/CCSDForge/HAL/blob/master/Sword/COUV.xml
example of a chapter book
https://hal.archives-ouvertes.fr/hal-01071717v1
example of an export via the TEI button
https://hal.archives-ouvertes.fr/hal-01071717v1/tei

import to ZENODO

http://stephane-mottin.blogspot.fr/2017/01/zenodo-github-research-data-repository.html

download schema JSON ZENODO


zenodo/zenodo/modules/deposit/jsonschemas/deposits/records/record-v1.0.0.json
(863 lines)
"description": "Describe information needed for deposit module.",
  "title": "Zenodo Deposit Schema v1.0.0",
  "required": [
    "_deposit"
  ],

zenodo/zenodo/modules/deposit/jsonschemas/deposits/records/legacyrecord.json
(432 lines)
"$schema": "http://json-schema.org/draft-04/schema#",
  "additionalProperties": false,
  "description": "Describe information needed for deposit module.",
  "id": "http://zenodo.org/schemas/deposits/records/legacyjson.json",
  "properties": {
    "$schema": {
      "type": "string"
    },

example of a chapter book
example of an export via the JSON button
(not exactly the same of the initial JSON)

API Documentation for developers:


Create a new deposit and obtain a deposit ID:

curl -i -H "Content-Type: application/json" -X POST --data '{"metadata":{"access_right": "open","creators": [{"affiliation": "Brain Catalogue", "name": "Toro, Roberto"}],"description": "Brain MRI","keywords": ["MRI", "Brain"],"license": "cc-by-nc-4.0", "title": "Brain MRI", "upload_type": "dataset"}}' https://zenodo.org/api/deposit/depositions/?access_token=$token |tee zenodo.json

JSON Schema zenodo and invenio

zenodo is based on invenio.
Invenio uses JSON Schema to describe formats of managed entities such as records.

Based on JSON Schema, we can generate forms permitting users and curators to enter records.  There are two use cases: (1) deposition by end users such as physicists; (2) editing by power users such as curators and librarians.
This talk will show work-in-progress for both these scenarios.  We can discuss pros/cons of using available tools such as JSON Editor:
https://indico.cern.ch/event/407109/
Invenio uses https://github.com/jdorn/json-editor

interesting slides
  • good/bad performances of "JSON Editor"
  • BibEdit
http://slides.com/neumann/json-based-record-editing#/
Ref.
https://github.com/inveniosoftware/invenio/issues/2854

export from catalogue SUDOC (and Brise-ES)

http://stephane-mottin.blogspot.com/2017/01/importance-du-catalogage-librairie.html
http://stephane-mottin.blogspot.fr/2012/06/catalogage-sudoc-abes-unimarc-des.html
http://stephane-mottin.blogspot.fr/2011/10/sudoc-export-et-interoperabilite.html

Somes codes XML JSON

generate code.json / zenodo.json metadata files for github? (comments @2014)
Seems like it would be a straight-forward exercise to serialize some json-ld from an R DESCRIPTION file (and potentially other sources) to provide more metadata to zenodo (and potentially other sites if this becomes a more standard schema). Not sure if this package is the right home for it.
Ref. https://github.com/ropensci/zenodo/issues/3

Minimal metadata schemas for science software and code, in JSON and XML

1/
Matthew B. Jones, Carl Boettiger, Abby Cabunoc Mayes, Arfon Smith, Peter Slaughter, Kyle Niemeyer, Yolanda Gil, Martin Fenner, Krzysztof Nowak, Mark Hahnel, Luke Coy, Alice Allen, Mercè Crosas, Ashley Sands, Neil Chue Hong, Patricia Cruse, Dan Katz, Carole Goble. 2016. CodeMeta: an exchange schema for software metadata. KNB Data Repository. doi:10.5063/schema/codemeta-1.0
https://raw.githubusercontent.com/codemeta/codemeta/1.0/codemeta.jsonld
https://github.com/codemeta/codemeta/blob/master/codemeta.jsonld
(193 lines)

CodeMeta contributors are creating a minimal metadata schema for science software and code, in JSON and XML. The goal of CodeMeta is to create a concept vocabulary that can be used to standardize the exchange of software metadata across repositories and organizations. 
CodeMeta started by comparing the software metadata used across multiple repositories, which resulted in the CodeMeta Metadata Crosswalk.
https://github.com/codemeta/codemeta/blob/master/crosswalk.csv

That crosswalk was then used to generate a set of software metadata concepts, which were arranged into a JSON-LD context for serialization (see codemeta.jsonld, or an example CodeMeta document).

This is an extension of the work done by @arfon, @hubgit, @kaythaney and others on Code as a Research Object / fidgit. Code as a research object is a Mozilla Science Lab (@MozillaScience) project working with community members to explore how we can better integrate code and scientific software into the scholarly workflow. Out of this came fidgit - a proof of concept integration between Github and figshare, providing a Digital Object Identifier (DOI) for the code which allows for persistent reference linking.

With codemeta, we want to formalize the schema used to map between the different services (Github, figshare, Zenodo) to help others plug into existing systems. Having a standard software metadata interoperability schema will allow other data archivers and libraries join in. This will help keep science on the web shareable and interoperable!
https://github.com/codemeta/codemeta

json-LD
http://www.arfon.org/json-ld-for-software-discovery-reuse-and-credit
http://json-ld.org/

2/
This repository contains the software implementation for our paper A Novel Approach to Higgs Coupling Measurements (Cranmer, Kreiss, Lopez-Val, Plehn), arXiv:1401.0080 [hep-ph]. It contains tools to apply the discussed methods to new models and contains a Makefile to recreate the plots in the paper.
https://github.com/lnielsen/decouple/blob/master/.zenodo.json


Serializer Serialization

https://en.wikipedia.org/wiki/Serialization

The Serializer component is meant to be used to turn objects into a specific format (XML, JSON, YAML, ...) and the other way around.

php framework
http://symfony.com/doc/current/components/serializer.html
http://www.django-rest-framework.org/api-guide/serializers/

Serializers allow complex data such as querysets and model instances to be converted to native Python datatypes that can then be easily rendered into JSON, XML or other content types. Serializers also provide deserialization, allowing parsed data to be converted back into complex types, after first validating the incoming data.

https://en.wikipedia.org/wiki/Comparison_of_data_serialization_formats

brief history

In the late 1990s, a push to provide an alternative to the standard serialization protocols started: XML was used to produce a human readable text-based encoding. Such an encoding can be useful for persistent objects that may be read and understood by humans, or communicated to other systems regardless of programming language. It has the disadvantage of losing the more compact, byte-stream-based encoding, but by this point larger storage and transmission capacities made file size less of a concern than in the early days of computing. Binary XML had been proposed as a compromise which was not readable by plain-text editors, but was more compact than regular XML. In the 2000s, XML was often used for asynchronous transfer of structured data between client and server in Ajax web applications.

JSON is a more lightweight plain-text alternative to XML which is also commonly used for client-server communication in web applications. JSON is based on JavaScript syntax, but is supported in other programming languages as well.

Another alternative, YAML, is similar to JSON and includes features that make it more powerful for serialization, more "human friendly," and potentially more compact. These features include a notion of tagging data types, support for non-hierarchical data structures, the option to structure data with indentation, and multiple forms of scalar data quoting.


Many institutions, such as archives and libraries, attempt to future proof their backup archives—in particular, database dumps—by storing them in some relatively human-readable serialized format.

google gears

Le transfert de fichier texte avec l'apparition de l'internet a laissé place à des protocoles client/Serveur gérant le transfert de données sous forme de classes. Les anciens clients avaient des cookies dont la taille et l'origine étaient limités. Les objets sont l'évolution des cookies et peuvent ou non être sauvegardés dans l'espace de travail du navigateur web.

Google Gears est un plug in AJAX pour navigateur web. Il permet de façon transparente de sauvegarder des données localement dans une base de données SQLite durant une connexion internet. Ces données pourront être utilisées en mode non connecté. Il est fourni par défaut avec Google Chrome. Les services web en ligne Google Reader et Remember the Milk sont compatibles Google Gears
https://fr.wikipedia.org/wiki/S%C3%A9rialisation

Zenodo serializer


bibtex, marcxml, json, oai, datacite.


Hosted vs. Unhosted: decide where your content goes

Centralised, hosted platforms are convenient. For me this is the main reason why people moved to Google Services instead of running their own infrastructure.
A couple of years back, I switched to Google to host my emails. Wonderful — I no longer had to spend hours to configure spam filters myself, and gone were the worries the server could go down over-night. However, as I realised, with that smart move, I also gave up a fair bit of freedom. By outsourcing my email to Google and my file backup to Dropbox, I no longer have direct control over my data. I can only access it through the interfaces Google or Dropbox provide.

Decentralised, unhosted platforms however, let you decide where your content goes, when it becomes public and when it gets removed. This requires some manual intervention but gives you full freedom and control over your data. By the way, the internet was originally designed as a decentralised system, so anyone can host their website on a home-computer. However, there is no doubt that those unhosted platforms need to become easier to use.

It’s easier to reach your audience using a platform that has a huge community, such as Medium. It’s more likely your article gets read by new people on an established platform, than your self-hosted version that nobody knows about. However, the freedom argument kicks in here too. By hosting publications yourself, you can decide how you want to promote them. You can still use Twitter, Facebook or Medium to get the word out.

Ref:
https://medium.com/@_mql/centralised-vs-decentralised-publishing-626055376c81#.7cftm9n4y

Monday, February 13, 2017

zotero.hypotheses.org; import metadata refrence bibliographique: Zotero, sudoc persée, openEditions, google books; importer de word vers zotero


Jusqu’à récemment, enregistrer une référence sur une page web était facile : lorsque Zotero affichait une icône dans la barre d’adresse, un clic importait les données dans la base. Il fallait parfois les corriger, mais personne ne se posait davantage de questions.

Et voilà qu’avec la nouvelle version pour Firefox, on découvre un menu, avec souvent plusieurs options, aux noms étranges : Enregistrer dans Zotero en utilisant « Embedded Metadata », « DOI », « unAPI », « COinS » − pour n’en citer que quelques-uns… Et l’utilisateur de s’interroger : mais alors, quelle option choisir ?

Comment Zotero détecte-t-il les références sur une page web ?

Avant d’en venir à l’utilité du menu, une courte explication est utile. Pour détecter s’il y a une référence sur une page web, Zotero inspecte le code de cette page. Si le webmestre a pris le soin d’intégrer des métadonnées dans sa page, Zotero va afficher une icône colorée qui correspond au type de référence : un livre, un article de presse, une page web. Les noms exotiques révélés par le menu sont donc simplement différentes manières d’intégrer une référence dans une page web. L’utilisateur n’a nul besoin de comprendre ces noms.

Sur cette page de blog, par exemple, Zotero propose Enregistrer dans Zotero en utilisant « Embedded Metadata ». Cette option s’affiche parce que certaines métadonnées sont « embarquées » dans la page. Ainsi, si vous importez cette page dans votre base Zotero, vous obtiendrez un élément de type « Billet de blog », avec un titre bien formaté et l’auteur. Sans ces données, vous auriez dû vous contenter du type « Page Web », de l’URL et d’un titre de la page mal formaté. Ce n’est toutefois pas parfait : il manque par exemple la date, et le premier paragraphe est repris comme résumé, ce qui n’est pas très pertinent.

Petit rappel : en général, vous enregistrerez également une capture de la page web en cliquant sur le bouton, ce qui est très pratique pour garder une trace à l’âge des modifications continuelles.

Parfois, Zotero ne fera pas de capture de la page, par exemple lorsqu’il s’agit de la référence d’un livre. Il ne le fera pas non plus si vous avez changé l’option Faire une capture automatique de la page lors de la création de documents à partir de pages Web dans les préférences générales. Dans ce cas, vous pouvez ajouter manuellement une copie de la page : il suffit de choisir cette option dans le menu Ajouter une pièce jointe qui s’affiche par un clic droit sur la référence sélectionnée ou lorsque vous cliquez sur le trombone dans le bandeau Zotero.

Choisir un mode alternatif d’enregistrement

Il arrive que plusieurs méthodes d’enregistrement soient disponibles. En particulier, Zotero dispose pour un certain nombre de sites, par exemple Google Books, revues.org ou JSTOR, de méthodes spécifiques, qui complètent les métadonnées présentes dans la page, pour obtenir une référence d’encore meilleure qualité.

Lorsqu’il y a plusieurs modes d’enregistrements, Zotero va choisir la méthode qui donnera les meilleurs résultats. Celle-ci sera affichée en premier dans le menu déroulant et c’est elle qui sera utilisée si vous cliquez simplement sur l’icône.

Par exemple, dans le cas de Google Books, le menu possède à la fois l’option « Embedded Metadata » et « Google Books ». Cette dernière, spécifique au site, est toutefois classée en premier.

Dans Persée, il n'y a que  "Embedded Metadata" mais de qualité.

http://zotero.hypotheses.org/865 (oct 2015)

sudoc coins "qui sont légers"
Ces explications sont fort utiles et peuvent aider à résoudre des problèmes d’import. Quand on importe une référence à partir du SUDOC, l’option « enregistrer en utilisant COinS » peut permettre d’obtenir une meilleure notice que l’icône « de base » : en effet, le champ Pays du SUDOC s’importe dans la zone Lieu (c’est à dire ville d’édition) de Zotero. Selon le style choisi dans la bibliographie, on obtient cette mention du pays, par ex. « Royaume-Uni de Grande-Bretagne et d’Irlande du Nord » pour un livre édité à Londres, ce qui ne correspond pas aux normes habituelles. En utilisant l’option « enregistrer avec COins », on a les bonnes zones au bon endroit.

Sylvain Machefert
@Juliette Robain : il y a quelques années j’avais développé un connecteur spécifique pour le Sudoc. Depuis, celui-ci a été mutualisé avec ceux d’autres catalogues utilisant le même outil (Pica). 
L’avantage est qu’on a un connecteur beaucoup plus robuste que ce que j’avais développé à l’époque, l’inconvénient est que ce n’est pas toujours exactement ce que l’on pourrait souhaiter. Dans le cas présent, Zotero fonctionne sur le principe d’agréger dans le champs lieu la métadonnée contenue dans la zone lieu d’édition et celle contenue dans le champ pays d’édition (zone 102 en unimarc). Ces deux infos étant récupérées par le connecteur PICA c’est tout naturellement qu’elles rejoignent le champ lieu de la notice bibliographique.

Zotero n’a aucune idée du contenu des champs qu’il enregistre, et il existe des recommandations (je viens de trouver ça pour APA) qui disent : « en cas de confusion possible sur la localisation d’une ville d’édition, celle-ci sera suivie d’une virgule et du nom du pays »; il me semble donc assez logique que Zotero laisse ces informations par défaut.

L’alternative COins existe en effet, mais si j’avais développé le connecteur à l’époque c’est que les COins proposés par le Sudoc étaient assez pauvres et je viens de regarder rapidement, ça m’a encore l’air léger (pas de pagination, pas d’éditeur …)

Donc au final et malheureusement, je n’ai pas de réponse à apporter si ce n’est une réponse assez générique qui est qu’on a toujours besoin d’intervenir à la marge sur les données récupérées depuis les catalogues et que les connecteurs se limitent finalement à une première passe. Je suis bien conscient que cette réponse ne résout pas le problème exprimé, mais je ne vois pas d’autres solutions !

en anglais et plus complet:
https://www.zotero.org/support/getting_stuff_into_your_library


AnyStyle.io: convertir ses références bibliographiques en mode texte (Word, etc) dans un format importable dans zotero

http://zotero.hypotheses.org/663 (17 JUILLET 2015)

Il y a maintenant quatre ans, nous nous étions demandé comment importer une bibliographie écrite sous Word dans zotero (les références tapées directement dans le document, non l’utilisation du module bibliographie de word). Nous avions conclu qu’il n’y avait pas de bons outils pour le faire.

Or, depuis quelques temps, un service web (code source libre) appelé AnyStyle permet de le faire. En copiant-collant des références bibliographiques au format texte, anystyle va « parser » ces références et les transformer au format bibliographique de votre choix (dont BibTeX, importable dans zotero). AnyStyle passe par une étape où vous pourrez corriger d’éventuelles erreurs.

Fondé sur le machine learning, les corrections que vous aurez faites permettront à AnyStyle de s’améliorer.

Tuesday, January 3, 2017

les diffuseurs généralistes google books et scientifique scholar; archives ouvertes CNRS Hal, OpenEdition, BSN...

Historique et philosophie du projet Gutenberg

Hart, le fondateur du Projet Gutenberg est celui qui est reconnu comme le créateur du premier e-book lorsqu'il mit sur ordinateur, le 4 juillet 1971, la Déclaration d'indépendance des États-Unis qu'il laissa en libre accès aux utilisateurs d'Arpanet. Il était encore étudiant mais avait obtenu un accès à un ordinateur du Materials Research Lab de l'université, à une époque où le temps de calcul était extrêmement onéreux. Peu passionné par le traitement de données, il imagina ce moyen intéressant d'utiliser la machine. On raconte qu'il avait d'abord songé à l'envoyer par courriel à tous les utilisateurs d'Arpanet. Mais on lui fit remarquer qu'il risquait de saturer le système. Il le déposa alors sur un serveur d'Arpanet. L'idée de diffuseur était déjà là.

Par la suite, il continue à copier seul des textes aussi variés que la Bible ou Alice au pays des merveilles. C'est une vraie bibliothèque d'e-book qu'il fut le premier dans le monde à constituer. Aujourd'hui, c'est le projet Gutenberg:
https://www.gutenberg.org/wiki/FR_Principal
https://www.gutenberg.org/

Les gros "diffuseurs" en ligne

google books est aujourd'hui le plus grand corpus textuel au monde.

En 2010, un ingénieur de Google estime que près de 130 millions livres connus ont été publiés dans le monde (soit 4 milliards de pages numériques et 2 trillions de mots), et qu'ils pourraient être numérisés d'ici à la fin de la décennie...

google books

Lancé en décembre 2004 dans le but d’organiser l’information dans le monde et la rendre universellement disponible et utile, Google Books est aujourd’hui un outil de recherche intratexte, de consultation de livres en ligne ou sur appareil mobile, de constitution de collections personnelles, et de téléchargement d’ouvrages libres de droits. C’est aussi une librairie en ligne via la boutique Google Play, un outil permettant de trouver où emprunter un exemplaire de livre en bibliothèque ou l’acheter. Google Books permet encore aux internautes d’obtenir des informations complémentaires sur des ouvrages.

Google travaille en collaboration avec des éditeurs et une quarantaine de bibliothèques dans le monde entier qui autorisent le géant de la recherche en ligne à ajouter leurs ouvrages dans sa bibliothèque numérique. Si une partie des ouvrages de Google Books est libre de droits et disponible en téléchargement, la majorité est soumise à des droits d’auteur. Pour ces derniers, seuls quelques courts extraits sont consultables en ligne et ce sont les éditeurs eux-mêmes qui choisissent les parties que les utilisateurs peuvent consulter. Google veut également respecter les droits d’auteur et protéger les ouvrages, notamment en bloquant les fonctions « imprimer », « couper », « copier » et « enregistrer » sur les pages affichant le contenu des livres.

USA

Toutefois, depuis 2005, le projet de Google a été freiné par des recours collectifs en justice sur la violation des droits d’auteur. L’Authors Guild, une société qui rassemble plus de 8000 auteurs américains, et plusieurs éditeurs aux États-Unis considèrent Google Books comme une entreprise commerciale qui a fait baisser la vente de leurs ouvrages. Les plaignants dénoncent également une violation massive de droits d’auteur et un manquement à une rétribution juste des auteurs et éditeurs.

Google se défend en brandissant l’argument du « fair use » ou « usage acceptable », qui lui permet d’afficher des extraits des ouvrages en ligne tout en préservant les droits d’auteur. Le fair use autorise en effet certains usages d’œuvres protégées par le droit d’auteur, qui en principe seraient illégaux. Il prend en compte à la fois les intérêts des bénéficiaires des droits d’auteur et l’intérêt public.

En novembre 2013, un tribunal tranche en faveur de Google. Le projet du géant de la recherche en ligne est considéré comme étant profitable à la fois pour le public et les auteurs et éditeurs. Le juge fédéral Denny Chin qui a rendu la décision estime en effet que Google Books respecte le fair use, et ajoute par ailleurs que le détournement des ventes dénoncé par les plaignants n’est pas attesté, mais qu’au contraire « Google Books fournit aux ouvrages un moyen d'être remarqués, » en indiquant également leur présence en magasin. Ces derniers décident donc de se tourner vers une juridiction supérieure. Cette décision ayant également été confirmée par une Cour d’appel en octobre dernier, les plaignants ont finalement saisi la plus haute juridiction des États-Unis.

En avril 2016, la Cour suprême a rejeté la demande en justice du syndicat des auteurs qui voulait une reconsidération du fair use qui dans ce cas menace les droits d’auteur dans l’ère du numérique. Cela consolide donc les précédents verdicts et surtout donne carte blanche à Google pour poursuivre son projet de bibliothèque numérique qui contient déjà plus de 20 millions d’ouvrages.

France

Procès La Martinière
En juin 2006, le groupe La Martinière / Le Seuil, soutenu par le Syndicat national de l'édition (SNE) et la Société des gens de lettres (SGDL) annonce son intention d'attaquer en justice Google. Il reproche au moteur de recherche d'avoir numérisé certains de ses ouvrages pour Google Book Search sans accord préalable. Une première estimation porte à quelques centaines le nombre de titres des différentes marques du groupe présents dans la base Google Livres, mais ce chiffre est plus tard réévalué à environ 9 000. La Martinière s’estime victime de contrefaçon, et elle déclare qu'« en reproduisant intégralement et en rendant accessibles des extraits d’ouvrages » sans l’autorisation des ayants droit, « la société Google a commis des actes de contrefaçon de droits d’auteur au préjudice des éditions du Seuil, Delachaux & Niestlé et Harry N. Abrams », ainsi qu’au préjudice du SNE et de la SGDL.
Procès Flammarion, Gallimard et Éditions Albin Jeunesse 
Le 6 mai 2011, Flammarion, Gallimard et Éditions Albin Jeunesse adressent une assignation pour contrefaçon à Google et à sa filiale Google France130, pour la numérisation sauvage de titres issus de leurs catalogues : ils réclament 9,8 millions d'euros de dommages et intérêts au moteur de recherche pour la numérisation sans autorisation de 9 797 livres, soit 1 000 euros par livre, ce montant étant susceptible de changer au fil des numérisations. Google s'est dit « surpris de recevoir cette nouvelle assignation [...] alors même que nous travaillons déjà avec les éditeurs français depuis un certain temps pour trouver des moyens d'augmenter les audiences et les sources de revenus pour les éditeurs, les auteurs et les libraires ». Les œuvres concernées (4 302 pour Gallimard, 2 950 pour Flammarion et 2 545 pour Albin Michel) sont issues d'une liste fournie par le juge Denny Chin lors du procès collectif américain.
Accord Hachette Livre
Hachette Livre, premier éditeur français et classé deuxième au rang mondial, met ainsi à disposition de Google près de 70 % de son fond et de ceux des maisons d'édition intégrées dans le groupe (œuvres épuisées en langue française), soit entre 40 et 50 000 ouvrages : littérature générale (Grasset, Fayard, Calmann Lévy), ouvrages universitaires (Armand Colin, Dunod), ouvrages documentaires (Larousse). En novembre Arnaud Nourry, PDG de Hachette Livre (Groupe Lagardère), avait expliqué que les dispositions principales de l'accord avaient vocation à « être étendues à tous les éditeurs français qui le souhaitent ». L'accord en question pose plusieurs principes:

  • Le contrôle de la numérisation des œuvres par l'éditeur
  • La possibilité de commercialiser les livres numérisés sur des plateformes concurrentes
  • La création de nouvelles opportunités commerciales (impression à la demande, depuis l'atelier de Maurepas - en partenariat avec Lightning Source (en))
  • Le partage des œuvres numérisées avec des institutions publiques (comme la BNF).

La question de l’indexation n'est pas posée : la numérisation se cantonne à l’indexation et la promotion. En revanche, Google disposera d’une copie uniquement destinée « à ses propres usages non commerciaux ».


Selon le New York Times, Google Books comprendrait désormais plus de 25 millions de titres en 2016.

Ref: post de 4/2016:
http://www.developpez.com/actu/97991/Google-Books-le-projet-de-bibliotheque-numerique-de-Google-obtient-la-faveur-de-la-justice-US-dans-une-affaire-de-violation-de-droits-d-auteur/


 Concernant les ouvrages couverts par le droit d’auteur, Google touche près de 37 % de l’achat du livre numérique.
Ref: http://archinfo01.hypotheses.org/2225

Google Scholar

Google Scholar est un service de Google permettant la recherche d'articles scientifiques.

Fin 2004 est également lancé Google Scholar, qui permet d'effectuer des recherches sur des articles scientifiques, des thèses universitaires, des citations ou des livres scientifiques. Si Google Books rassemble une quantité bien plus imposante de revues, ses scans n'incluent pas les métadonnées suffisantes pour trouver les articles traitant de sujets spécifiques. Les créateurs de Scholar ont donc développé leur propre programme de numérisation des articles (en accord avec les éditeurs).
Ref: https://fr.wikipedia.org/wiki/Google_Livres

Google Scholar is similar in function to Elsevier's Scopus and Thomson Reuters' Web of Science.
https://fr.wikipedia.org/wiki/Scopus_(Elsevier)
https://fr.wikipedia.org/wiki/Web_of_Science

Plusieurs services font "concurrence" à Google Livres

Amazon est le principal concurrent de Google dans le domaine du livre électronique, avec un catalogue digital de plus d'un million d'ouvrages (dont 80 000 en français).

Internet Archive est une association à but non lucratif qui numérise plus de 1 000 livres par jour, et offre des miroirs de livres venus de Google Books et d'autres sources. En mai 2011, elle héberge plus de 2,8 millions de livre du domaine public (contre 1 million pour Google Books). Sa petite sœur Open Library a jusqu'ici fiché 80 000 livres scannés et achetés par les visiteurs de 150 bibliothèques.
Fin 2006, Microsoft a financé la numérisation de 300 000 livres pour créer Live Search Books (en). Le projet a duré jusqu'en mai 2008, puis les livres furent rendus librement accessibles via l'Internet Archive.
En janv 2017: nombre de livre:
8,286,364 English; 429,018 French; 384,821 German; 177,111 Italian; 151,370 Spanish; 121,660 Arabic.
HathiTrust gère la HathiTrust Digital Library depuis le 13 octobre 2008, qui préserve et donne accès à des documents scannés par Google, certains livres d'Internet Archive, et certaines œuvres scannées localement par des institutions partenaires. En mai 2010, elle réunit 6 millions de volumes, dont plus d'un million dans le domaine public. En mars 2013, le chiffre total est de 10,6 millions de volumes numérisés, en mars 2015 13,2 millions.
HathiTrust est une bibliothèque numérique mettant en commun le contenu de plusieurs bibliothèques numériques d'universités des États-Unis et d'Europe, ainsi que de Google Livres et d'Internet Archive.
Le concept d'HathiTrust naît au sein du Committee on Institutional Cooperation et sa mise en œuvre est menée par l'université de l'Indiana et celle du Michigan, qui financent largement le projet.
Une cinquantaine d'universités américaines participent au projet. À l'automne 2010, l'université de Madrid est la première université européenne à s'y joindre.
Europeana renvoie à plus de 10 millions de documents numériques en 2010, et inclut vidéos, photos, peintures, fichiers son, cartes, manuscrits, livres imprimés et journaux des 2 000 dernières années de l'histoire Européenne, à partir de plus de 1 000 archives de l'Union européenne.
Gallica, projet de la Bibliothèque nationale de France, renvoie à plus de 2 100 000 livres, journaux, manuscrits, cartes, etc. Créée en 1997, la bibliothèque numérique continue de s'étendre au rythme d'environ 15 000 nouveaux documents par mois. Depuis fin 2008, la plupart sont accessibles en format image et texte, souvent en français.

En France, république numérique (et espace francophone)

Définitivement adopté par le Parlement le 28 septembre 2016, la loi pour une République Numérique a été publiée au Journal officiel du samedi 8 octobre 2016. Ce texte prévoit de nombreuses mesures indispensables au fonctionnement d´une société numérique et, dans son article 30, nous intéresse plus particulièrement.
Cette mesure concerne en effet les écrits scientifiques et elle est entrée en vigueur dès le 9 octobre 2016.
Que dit-elle : Lorsqu’un écrit scientifique issu d’une activité de recherche financée au moins pour moitié par des dotations de l’Etat, des collectivités territoriales ou des établissements publics, par des subventions d’agences de financement nationales ou par des fonds de l’Union européenne est publié dans un périodique paraissant au moins une fois par an, son auteur dispose, même après avoir accordé des droits exclusifs à un éditeur, du droit de mettre à disposition gratuitement dans un format ouvert, par voie numérique, sous réserve de l’accord des éventuels coauteurs, la version finale de son manuscrit acceptée pour publication, dès lors que l’éditeur met lui-même celle-ci gratuitement à disposition par voie numérique ou, à défaut, à l’expiration d’un délai courant à compter de la date de la première publication. Ce délai est au maximum de six mois pour une publication dans le domaine des sciences, de la technique et de la médecine et de douze mois dans celui des sciences humaines et sociales.
Vous êtes concernés si  :
vos recherches sont financées pour moitié au moins sur fonds publics
vous publiez les résultats de ces recherches dans une revue
Que vous donne-t’elle le droit de faire ? 
Quel que soit votre contrat avec l’éditeur de la revue, vous pouvez déposer dans HAL ou ailleurs la version acceptée de votre manuscrit (un fichier auteur hein, pas la version publiée de l’éditeur) dès la publication sans embargo si votre article est en accès gratuit sur le site de la revue,
ou en appliquant un embargo maximum de 6 mois pour les sciences, techniques et médecine et 12 mois pour les sciences humaines.
Autrement dit, vous pouvez appliquer ces durées d’embargo même si une condition de l’éditeur sur les sites Sherpa/Romeo ou Héloïse impose une durée supérieure.
Et c’est valable pour tout article publié à partir du 9 octobre 2016 (publication date, available online, first online, etc.).
Pour appliquer une durée d’embargo sur un fichier au moment du dépôt, voir la documentation : les références de votre article sont visibles par tous mais le fichier ne le sera qu’à l’expiration de l’embargo.


Bibliothèque scientifique numérique (BSN)

La Bibliothèque scientifique numérique (BSN) est un projet initié en 2008, inscrit dans la feuille de route des infrastructures de recherche, qui vise deux objectifs principaux : répondre aux besoins des chercheurs en portant l’offre qui leur est fournie en information scientifique et technique (IST) à un niveau d’excellence et la visibilité de la recherche française. BSN vise ainsi à mettre en place un pilotage politique partagé par les grands acteurs de l’enseignement supérieur et de la recherche, offrant des services à l’ensemble des communautés quel que soit leur statut, et à créer de nouveaux modèles et équilibres économiques entre acteurs publics et privés dans l’édition scientifique.

BSN est composée de 9 segments d’activité pour lesquels des actions ont été initiées par différents opérateurs : spécialistes de la documentation, de l’IST, laboratoires de recherche, etc. L’infrastructure BSN vise à monter en qualité, à donner de la cohérence à ces actions par leur mise en réseau et à améliorer le ratio coût/efficacité.

OpenEdition participe au segment n°7 de BSN intitulé “L’édition scientifique : coordination de l’aide publique, soutien à l’innovation de nouvelles formes d’édition et de nouveaux modèles économiques, etc.” et anime, sur la plateforme de blogs de recherche Hypothèses, Le Carnet de BSN 7  : http://bsn7.hypotheses.org/

En accord avec les orientations de la Commission européenne, la BSN privilégie l’accès ouvert aux documents et données scientifiques sous toutes leurs formes. Ce développement d’un accès large et rapide passe par l’innovation, les négociations avec les éditeurs ou le soutien aux archives ouvertes, en tenant compte des différences entre les disciplines.

La coordination des acteurs de l’enseignement supérieur et de la recherche est à la base de BSN. Un comité de pilotage, composé des directeurs d’organismes de recherche, de la conférence des présidents d’université et de la conférence des grandes écoles, prend les décisions. Elles lui sont proposées par les acteurs réunis au sein des dix segments de BSN.

  • BSN 1 : Acquisitions des revues (courant) et des archives
  • BSN 2 : Dispositif d’accès et d’hébergement
  • BSN 3 : Dispositifs de signalement
  • BSN 4 : Open Access
  • BSN 5 : Numérisation
  • BSN 6 : Archivage pérenne
  • BSN 7 : Édition scientifique
  • BSN 8 : Fourniture de documents, prêt
  • BSN 9 : Formation, compétences et usages
  • BNS 10 : Données de la recherche

Liste des portails:

Archives ouvertes

Revues et livres

Carnets de recherches

Calendrier

Moteurs de recherche

Références bibliographiques

Référentiels

Formation

  • Portail Bibdoc
  • Sygefor 3 (plateforme nationale des formations du réseau des Urfist)
  • DoRANum (plateforme pour la formation et l’auto-formation sur les données de la recherche)


Diffuseurs scientifiques francophones liés au CNRS

qui reste un portail traditionnel d'une librairie.

hal

https://hal.archives-ouvertes.fr/
Hal a une interface austère et peu lisible.

Comme pubMed ou Gscholar,

  • Hal assure une visibilité internationale des papiers
      http://repositories.webometrics.info/en/top_portals
  • Hal est moissonné régulièrement par les outils de découverte les plus utilisés :
    Gscholar, Base, etc
  • Hal garantie l’archivage pérenne numérique de votre travail
  • Hal est compatible avec des outils de citations bibliographique, garantissant une citabilité optimale (URI pérenne)
  • Hal vous offre des services de valorisation de votre identité numérique basés sur vos dépôts
  • Déposer dans HAL appuie plus largement le mouvement de l’openaccess.


Hal offre certains services:

La structure CNRS CCSD qui gère Hal est une unité mixte de service (UMS3668).
https://www.ccsd.cnrs.fr/fr/ccsd-centre-pour-la-communication-scientifique-directe/

Cette UMS présente divers services comme la gestion des conférences:
https://www.sciencesconf.org/
qui est une PLATEFORME DE GESTION DE CONGRÈS SCIENTIFIQUES.
La   plateforme   Sciencesconf.org   propose   les   fonctionnalités   suivantes   pour   la
conférence:
Pour les participants

  • Inscription 
  • Soumission  

Pour les organisateurs

  • Hébergement et personnalisation du site web (gabarit, apparences, contenu, ...) 
  • Statistiques de consultation 
  • Suivi des inscriptions 
  • Outils de sélection des contributions 
  • Mise en place du programme 
  • Envoi de mail (appel à soumission, relance, ...) 
  • Edition électronique 
  • Export des communications sur l’archive ouverte HAL 
  • Configuration des listes (thématiques, types de dépôt) 
  • Paramétrage   de   la   conférence   (période   de   soumission,   de   relecture,   
  • d’inscription, ...) 

Toutes  ces  fonctionnalités  sont  personnalisables  par  conférence  et  disponibles  à
partir de l’ « espace conférence».

feuille route CCSD 2016-2020 (10 pages):
https://www.ccsd.cnrs.fr/wp-content/uploads/2016/09/Feuille_de_route_CCSD_2016-2020.pdf

Persée

Le portail Persée (www.persee.fr) est une initiative publique, conçue, développée et maintenue par l'UMS 3602 Persée. C'est un service de l'Université de Lyon, du CNRS et de l'ENS de Lyon.
Les partenaires documentaires et technologiques
L'UMS 3036 "Bibliothèque des sciences humaines Descartes" dispose d'une plateforme de production similaire à celle du site lyonnais de Persée et alimente le portail persee.fr avec des revues scientifiques principalement dans le domaine de la sociologie et de l'histoire des sciences
L'ABES développe et maintient l'application idRef qui permet d'interroger, de consulter, de créer et d'enrichir des notices d'autorité. Le partenariat établi entre Persée et l'ABES vise à aligner l'index auteurs de persee.fr avec les autorités personnes idRef. Les chercheurs peuvent ainsi connaître les différentes publications d'un auteur (articles diifusés par Persée, thèse, livre... décrits dans le Sudoc) et interargir avec d'autres applications comme Wikipedia.
Le CINES assure l'archivage à long terme - sur sa plateforme PAC-  des contenus produits par Persée.

CollEx (« Collections d’excellence »), dispositif national de coopération documentaire, est né de la nécessité de rénovation des Centres d’acquisition et de diffusion de l’information scientifique et technique (CADIST) qui structurent le réseau documentaire de l’enseignement supérieur et de la recherche (ESR) depuis 30 ans, en lien avec l’évolution forte du paysage de l’information scientifique et technique (IST). CollEx a été inscrit, associé à Persée (portail de diffusion de publications scientifiques), en tant qu’infrastructure de recherche en IST. Fédérant dans un groupement d’intérêt scientifique (GIS) les acteurs de l’information scientifique et technique  – plateforme Persée, bibliothèques de recherche de l’ESR, Bibliothèque nationale de France, opérateurs en IST -, CollEx-Persée a pour mission d’optimiser l’accès aux gisements documentaires par les chercheurs.
Interopérabilité et Persée
Une des missions de Persée est de valoriser ses fonds au-delà de leur seule diffusion sur le portail et d'élargir les lieux et les modes de leur exploitation. Dans ce contexte, la participation à des réseaux internationaux de plates-formes de diffusion de l'IST (Information Scientifique et Technique), l'amélioration du référencement des ressources par les moteurs de  recherche scientifiques ou grand-public sont quelques-unes des stratégies mises en oeuvre.

Afin de faciliter le référencement et la ré-utilisation des ressources diffusées par persée, nous avons mis en place plusieurs services permettant à notre plateforme d'être interopérable avec d'autres systèmes d'information.
Ces services reposent sur l'utilisation de protocoles de communication largement employés dans le monde de l'IST et de modèles de données répondant aux normes et standards en vigueur.

Dans cette rubrique, vous trouverez la description des difféents services mis en oeuvre :
  • l'entrepôt OAI permet de diffuser largement nos métadonnées et nos données ;
  • la passerelle Z39-50 pour l'interopérabilité avec les catalogues de bibliothèques et les outils de gestion de la bibliographie ;
  • les métadonnées au format KBART destinées à alimenter les bases de connaissances et outils de découverte  ;
Par ailleurs, Persée alimente, par des outils dédiés, des outils de découverte ou des sites spécialisés tels que RePEc en économie, ou Mir@bel.

UMS 3036 "Bibliothèque des sciences humaines Descartes" 
La Bibliothèque de sciences humaines et sociales Descartes-CNRS est une des plus importantes bibliothèques françaises dans les domaines de la sociologie, de la linguistique et des sciences de l’éducation. Elle est un pôle associé de la Bibliothèque nationale de France sur les questions de santé et de société (santé, médecine, éthique...).

Elle prend la forme d’une unité mixte de service (UMS 3036) dépendant à la fois de l’université Paris Descartes (Paris V) et du CNRS.

OpenEdition

openEdition UMS

l'UMS 3287 qui assure le service des quatre plateformes d’OpenEdition.
OpenEdition est une initiative publique à but non lucratif, soutenue par des institutions françaises de recherche et d’enseignement supérieur. Elle inscrit son action dans le cadre de la Bibliothèque Scientifique Numérique et a reçu, en 2012, le Label Equipex des Investissements d’avenir.
Les principales missions d’OpenEdition sont le développement de l’édition électronique en libre accès, la diffusion des usages et compétences liées à l’édition électronique, la recherche et l’innovation autour des méthodes de valorisation et de recherche d’information induites par le numérique.

Les quatre plateformes d’OpenEdition

http://www.openedition.org/

OpenEdition est une infrastructure complète d’édition électronique au service de la communication scientifique en sciences humaines et sociales. Elle rassemble quatre plateformes complémentaires dédiées respectivement aux livres, aux revues, aux blogs de recherche et aux annonces scientifiques. L’ensemble de ces plateformes, dont les contenus sont majoritairement en libre accès, reçoit 4 millions de visites mensuelles provenant du monde entier. Des services complémentaires sont proposés via les bibliothèques et institutions abonnées.

OpenEdition est développé par le Centre pour l’édition électronique ouverte (Cléo – UMS 3287), un centre associant le CNRS, l’université d'Aix-Marseille, l’EHESS et l’Université d’Avignon et des Pays de Vaucluse.

OpenEdition Books, plateforme de livres en ligne

Inaugurée en 2013, cette nouvelle plateforme rassemble, fin 2014, près de 1700 livres en sciences humaines et sociales provenant de 45 éditeurs. 16 000 ouvrages seront en ligne d’ici 2020. Les ouvrages sont accessibles sur un espace propre à chaque éditeur. Ils sont, pour plus de la moitié du catalogue, librement accessibles en HTML, citables, imprimables et “encapsulables” sur des sites externes.

OpenEdition Books a pour ambition de construire une bibliothèque internationale pour les humanités numériques et ce, en encourageant les éditeurs à développer le libre accès sur le long terme. La plateforme valorise le traitement dans toutes les langues et dans tous les domaines de la recherche en sciences humaines et sociales.

URL : http://books.openedition.org/

Revues.org, plateforme de revues en ligne

Revues.org est une plateforme de revues en sciences humaines et sociales. Fondée en 1999, elle accueille aujourd’hui 400 revues en ligne, soit 100 000 articles, dont 95 % sont en accessible en texte intégral. La plateforme reçoit en moyenne 2,8 millions de visites mensuelles.

Revues.org a pour mission de promouvoir l’édition électronique scientifique dans tous les domaines des sciences humaines et sociales. Elle encourage l'adoption du libre accès, dans le respect de l’équilibre économique des publications. Les revues diffusent parallemement une édition imprimée ou sont exclusivement électroniques. Toutes disposent de comité de lecture et/ou sont dotées de procédures garantissant la qualité des contributions publiées.

URL : http://www.revues.org/

Hypothèses, plateforme de carnets de recherche

Fondée en 2009, Hypothèses regroupe, fin 2014, près de 1000 carnets de recherche animés par une communauté de 10 000 carnetiers de tous pays. La plateforme reçoit plus d'un million de visites par mois. L'ensemble des contenus est en libre accès.

Hypothèses héberge différents types de carnets : carnet de chercheur, carnet de terrain, carnet de séminaire, carnet de veille, etc. La plateforme elle-même est organisée en subdivisions linguistiques qui correspondent à des communautés de carnetiers francophones, germanophones et hispanophones.

URL : http://hypotheses.org

Calenda, le calendrier des lettres et sciences humaines et sociales

Calenda est une plateforme en ligne dédiée à l'actualité de la recherche en lettres et sciences humaines et sociales. Fondé en 2000, elle regroupe, fin 2014, près de 28 000 annonces d'évènements scientifiques en libre accès. Elle a reçu, au cours de l'année 2014, 1,6 millions de visites.

Calenda publie dans toutes les langues, prioritairement les annonces de colloque, les programmes complets de journées d’études et de séminaires, les cycles de conférences, les propositions d'emploi et de bourses de recherche, les appels d’offres ainsi que les appels à contributions en vue de colloques, journées d'études ou numéros thématiques de revues.

URL : http://calenda.org

Diffuseurs scientifiques francophones liés aux universités


Éditeurs universitaires :

Académie des Inscriptions et Belles-Lettres (AIBL)
Anthropologie et Histoire des Mondes Antiques (ANHIMA – UMR 8210)
Casa de Velázquez
Centre d'Études Supérieures de Civilisation Médiévale
Centre de Recherche Juridique et Judiciaire de l'Ouest
Centre de Recherches Linguistiques sur l'Asie Orientale (CRLAO)
CNRS Éditions
Daedalus
École Française d'Athènes
École Française d'Extrême-Orient
École Française de Rome
École pratique des hautes études
Éditions de la Maison des sciences de l'homme
Éditions littéraires et linguistiques de l'Université de Grenoble
EHESS
ENS Éditions
Groupe d'anthropologie du Centre d'études portugaises
Institut d'études byzantines
Institut Français du Proche-orient
Institut National d'Études Démographiques
Presses de Science Po
Presses Universitaires de Bordeaux
Presses Universitaires de Franche-Comté
Presses Universitaires de la Méditerranée
Presses Universitaires de Rennes
Presses Universitaires de Vincennes
Presses Universitaires du Mirail
Publications de l'Université de Provence
Université de Caen
Université de Liège
Université de Poitiers
Université Lille 1

Diffuseurs scientifiques francophones privés, maisons d'édition


Cairn.info est né de la volonté de quatre maisons d'édition (Belin, De Boeck, La Découverte et Erès) ayant en charge la publication et la diffusion de revues de sciences humaines et sociales, d’unir leurs efforts pour améliorer leur présence sur l’Internet, et de proposer à d’autres acteurs souhaitant développer une version électronique de leurs publications, les outils techniques et commerciaux développés à cet effet.

Cairn.info a pour objectif de faciliter la mise en ligne des publications de sciences humaines et sociales en aidant les maisons d’édition et autres structures éditoriales, à gérer cette période complexe où doivent coexister une version électronique et une version papier des mêmes publications. Pour tenir compte de la diversité des situations, notre offre est modulaire, quasiment « à la carte » :

Le cœur de l’offre est constitué d’un service d’hébergement et de distribution des publications de sciences humaines et sociales, sous forme numérique, via le portail www.cairn.info.
Mais ce service peut être complété par d’autres prestations, en fonction des besoins spécifiques de chaque publication.
Conversion ou rétroconversion – c’est-à-dire conversion rétrospective – des fichiers prépresse de façon à produire les fichiers XML, structurés selon la DTD EruditArticle, nécessaires à la présentation des articles sur le portail www.cairn.info.

Éditeurs privés


  • Actes Sud
  • Armand Colin
  • Belin
  • De Boeck
  • Éditions Descartes & Cie
  • Éditions Médecine & Hygiène
  • Hermès Sciences – Lavoisier
  • John Libbey Eurotext
  • L'Harmattan
  • Le Seuil
  • NecPlus
  • Ophrys
  • Peeters

Sociétés savantes 

Association Archipel
Association ARSS
Association d'économie financière
Association de la Revue de Géographie de Lyon
Association des amis de la BDIC
Association Espaces Temps
Association Française pour l'Étude du Quaternaire
Association Guillaume Budé
Association internationale des études françaises
Association LHA
Association MÉTROPOLIS
Association pour l'encouragement des études grecques en France
Association pour la diffusion de la recherche alpine
Association RFECO
Association RHR
Association SAMRA
Association Vita Latina
Centre d'archéologie médiévale du Languedoc
Centre Français des Études Éthiopiennes
FERACF
Groupe Français de Géomorphologie
Société Archéologique de Picardie
Société d'Anthropologie de Paris
Société d'études anglo-américaines des XVIIe et XVIIIe siècles
Société d'études soréliennes
Société d'Histoire de la Pharmacie
Société d'Histoire et d'Épistémologie des Sciences du Langage
Société d'histoire religieuse de France
Société de l'École Nationale des Chartes
Société de Législation Comparée
Société des Africanistes
Société des Américanistes
Société des Océanistes
Société Diderot
Société Française d'Économie Rurale
Société Française d'Étude du Seizième Siècle
Société française d'histoire d'outre-mer
Société française de numismatique
Société française pour la conservation et la description des monuments historiques
Société pour le progrès des études philologiques et historiques
Société Préhistorique de France

Autre 

Caisse nationale des allocations familiales
Centre d'Études Français sur la Chine contemporaine
INSEE
Institut de Management Public
Institut Français des Relations Internationales
Maison Franco-Japonaise
Ministère de l'Économie, des Finances et de l'Emploi
Mouvement français du christianisme social
Muséum national d'histoire naturelle
Observatoire des Politiques Publiques en Europe du Sud
Observatoire franco-québécois de la santé et de la solidarité