Showing posts with label online database. Show all posts
Showing posts with label online database. Show all posts

Tuesday, September 5, 2017

La bataille de Stalingrad du 17 juillet 1942 à la victoire du 2 février 1943. Numerisation d'un grand corpus et nouveau moteur russe de recherche des morts.



À ce jour, aucun pays dans le monde a construit une telle banque de données (nommée HBS memorial). Seule la Fédération de Russie l'a réalisée.
La mise en œuvre d'un tel projet nécessite la construction d'une chaîne en plusieurs étapes pour collecter, vérifier, la numérisation des tableaux sur papier, dans les millions de feuilles, chargement des données dans un moteur de recherche puissant, offrant un accès global multi-utilisateurs aux documents.
Toutes les personnes impliquées dans l'histoire de ses personnes se sentent une responsabilité particulière du fait que le destin d'un guerrier n'est jamais l'oubli et l'ingratitude.
Etrangement, il a fallu beaucoup de temps pour réelment penser à cela.

La banque de données généralisée, le HBS « Memorial », a été créé à l'initiative du ministère de la Défense Fédération de Russie en 2007.
À l'heure actuelle (en sept 2017), le HBS « Memorial » contient près de 17 millions de copies numériques des pertes et 20 millions d'entrées enregistrées de la pertes de l'Armée rouge dans la Seconde Guerre mondiale. L'enterrement (officiel) donne la place de plus de 5 millions de soldats et aussi d'officiers. La numérisation des listes des dépôt de blessures concerne aussi les unités médicales et les hôpitaux de campagne. De plus ~million de soldats des camps nazis sont dans la banque de donnée. Mais d'après les données allemandes les captifs étaient de l'ordre de 5 millions de citoyens soviétiques. Ainsi plus de 4 millions de noms sont actuellement oubliés et effacés de l'histoire.

Dans le livre de la mémoire dans la région de Volgograd est enregistré ~200 000 noms des morts et des disparus (et lieux de sépulture et autres informations).
http://www.stalingrad-battle.ru/
http://obd-memorial.ru/html/index.html

Stalingrad

L'ensemble de ces combats (dans et hors de la ville) ont coûté la vie
  • à plus de 800 000 soviétiques (civils et combattants), 
  • à 400 000 militaires allemands, roumains, italiens, hongrois et croates.
L'intervention des avions sur la ville de Stalingrad commence le 23 août 1942, jour où les Allemands atteignent la ville au nord, par un raid de terreur visant la population civile. C'est le bombardement de ce type le plus massif sur le front de l'Est. La Luftwaffe totalise 1 600 sorties et 1 000 t de bombes larguées dans la journée en soutien des troupes au sol, jusqu'à un dernier raid, qui lui vise Stalingrad alors que « dans la ville il n'y avait presque pas de troupes ».
Fin septembre 1942, une partie de la ville est conquise (le sud et le centre). Stalingrad ne représente plus un objectif militaire pour les Allemands.
Mais la prise de la ville ayant été utilisée par la propagande et la com, elle devient un objectif symbolique.
Hitler décida de saisir "la ville de Staline" à tout prix.

le parallèle avec la campagne de Russie de 1812

Etrangement il faut souligner le parallèle avec la campagne de Russie de 1812 contre la Grande Armée "républicaine" de Napoléon connue en Russie sous le nom de « guerre patriotique » (de l'époque du tsar Alexandre 1er).

La Grande Armée est forte de 680 000 hommes, dont 450 000 franchissent le Niémen.
Face à une armée impériale russe inférieure en nombre (au début de l’invasion mais plus importante à la fin), l’avantage est aux forces napoléoniennes. Un empire contre un empire avec tant de nationalités...
Le prince russe Mikhaïl Koutouzov, général en chef, encourage à mener une contre-offensive avec la stratégie du harcèlement de la Grande Armée par la terre brûlée et par tous les moyens en évitant les grands combats et surtout lors de la retraite française.

La Grande Armée se compose de 450 000 Français avec en plus du corps d’armée autrichien détaché sous les ordres de Schwarzenberg, on compte environ 95 000 Polonais, 90 000 Allemands (24 000 Bavarois, 20 000 Saxons, 20 000 Prussiens, 17 000 Westphaliens et quelques milliers d’hommes venus de plus petits États rhénans), 25 000 Italiens, 12 000 Suisses, 4 800 Espagnols, 3 500 Croates et 2 000 Portugais...

Les neuf dixièmes de la ville sainte, Moscou, sera détruite par les russes eux-mêmes du 2 au 6 septembre 1812. Le 18 octobre 1812, la terrible retraite commence.
L’armée arriva le 25 novembre sur la Bérézina.
Contrairement aux croyances populaires, la bataille de la Bérézina fut une victoire militaire pour Napoléon.
La traversée de la rivière Bérézina amène une victoire tactique pour Napoléon quand Koutouzov, décidant que le temps est enfin venu pour une bataille rangée, attaque la partie de l’armée française restée du mauvais côté de la rivière. Les Russes ayant été repoussés, tous les Français en arme peuvent franchir les ponts. Seuls restent de l’autre côté les malades, les blessés et les déserteurs ; ceux-là même qui, par abattement et désespoir, ont refusé de passer les ponts durant la nuit précédant la bataille et qui ensuite se sont bousculés dans une cohue indescriptible au dernier moment d’où l’expression « c’est la Bérézina ».

Même si Napoléon n'a pas perdu de grandes batailles ni cette guerre en se rendant. Il a échoué dans la conquête pérenne de Moscou.
200 000 morts pour chacun des empires.

Les morts de Stalingrad

Stalingrad 1942 ressemble à Moscou de 1812 sur l'importance d'une ville presque conquise mais non réelment soumise. Mais Hitler perd la bataille. Le maréchal Paulus, commandant de cette armée allemande, capitule et 100 000 soldats allemands sont faits prisonniers le 2 février 1943 y compris le maréchal. Mais Hitler n'a pas encore perdu la guerre.

Cette bataille ressemble plus à une guerre de tranchée comme en 1914/1918 avec un front tout en longueur d'une cinquantaine de kilomètres du nord au sud et quelques km de large au sein d'une ville.

Tuesday, February 14, 2017

Use a Static Site Generator? No more databases? Utiliser un générateur de site statique. FIni la gestion via banque de données?

Introduction

  • A static site is a collection of pages contained in basic HTML files. You could hand-write these in a text editor, but managing assets and repeated elements such as navigation can become problematic.
  • A content management system (CMS) stores page content in a database and provides facilities to edit and apply themes. Management becomes easier at the expense of flexibility, performance, server requirements, security and backups.
  • A static site generator (SSG) is a compromise between using a hand-coded static site and a full CMS. You generate an HTML-only website using raw data (such as Markdown files) and templates. The resulting build is transferred to your live server.
Ref.
(post 2016)
  • Un site statique est une collection de pages contenues dans des fichiers HTML de base. Vous pouvez écrire à la main ces pages dans un éditeur de texte/Latex->HTML, mais la gestion des acteurs et des éléments répétés tels que la navigation peut devenir problématique. 
  • Un système de gestion de contenu (CMS) stocke le contenu de la page dans une base de données (et donc il faut un serveur et une infrastructure adaptés) et fournit de grandes facilités pour modifier et appliquer des thèmes. La gestion devient plus facile au détriment de la flexibilité, des performances, des exigences du serveur, de la sécurité et des sauvegardes. 
  • Un générateur de site statique (SSG) est un compromis entre l'utilisation d'un site statique codé à la main et un CMS complet. Vous générez un site Web HTML uniquement en utilisant des données brutes (comme des fichiers Markdown) et des modèles. La compilation résultante est transférée à votre serveur en direct.

Tools

Popular static site generators include Jekyll, Pelican, Hugo and Metalsmith — see StaticGen for many more options.

Jekyll

Jekyll is a simple, blog-aware, static site generator perfect for personal, project, or organization sites. Think of it like a file-based CMS, without all the complexity. Jekyll takes your content, renders Markdown and Liquid templates, and spits out a complete, static website ready to be served by Apache, Nginx or another web server. Jekyll is the engine behind GitHub Pages, which you can use to host sites right from your GitHub repositories.
Jekyll is flexible and supports front-end frameworks such as Bootstrap, Semantic UI and many others.

Jekyll sites can be published using cloud-based CMS software such as CloudCannon, enabling content editors the ability to modify site content without having to know how to code.

Philosophy

Jekyll does what you tell it to do — no more, no less. It doesn't try to outsmart users by making bold assumptions, nor does it burden them with needless complexity and configuration. Put simply, Jekyll gets out of your way and allows you to concentrate on what truly matters: your content.

Sick of dealing with hosting companies? GitHub Pages are powered by Jekyll, so you can easily deploy your site using GitHub for free—custom domain name and all.

https://github.com/jekyll/jekyll (>6200forks @ jan 2017)

Pelican

Pelican is a static site generator, written in Python.
  • Write content in reStructuredText http://docutils.sourceforge.net/rst.html or Markdown using your editor of choice
  • Includes a simple command line tool to (re)generate site files
  • Easy to interface with version control systems and web hooks
  • Completely static output is simple to host anywhere
Features

Pelican currently supports:
  • Chronological content (e.g., articles, blog posts) as well as static pages
  • Integration with external services (e.g., Google Analytics and Disqus)
  • Site themes (created using Jinja2 templates)
  • Publication of articles in multiple languages
  • Generation of Atom and RSS feeds
  • Syntax highlighting via Pygments
  • Importing existing content from WordPress, Dotclear, and other services
  • Fast rebuild times due to content caching and selective output writing
https://github.com/getpelican/pelican (>1300forks @ jan 2017)

Hugo

Hugo is designed to work the way you do. Organize your content however you want with any URL structure. Group your content using your own indexes and categories. Define your own metadata in any format: YAML, TOML or JSON. Best of all, Hugo handles all these variations with virtually no configuration. Hugo just works.

Hugo is a static HTML and CSS website generator written in Go. It is optimized for speed, easy use and configurability. Hugo takes a directory with content and templates and renders them into a full HTML website.

Hugo relies on Markdown files with front matter for meta data. And you can run Hugo from any directory. This works well for shared hosts and other systems where you don’t have a privileged account.

Hugo renders a typical website of moderate size in a fraction of a second. A good rule of thumb is that each piece of content renders in around 1 millisecond.

Hugo is designed to work well for any kind of website including blogs, tumbles and docs.

Currently, we provide pre-built Hugo binaries for Windows, Linux, FreeBSD, NetBSD and OS X (Darwin) for x64, i386 and ARM architectures.

https://github.com/spf13/hugo (>2100forks @ jan 2017)

Metalsmith

An extremely simple, pluggable static site generator.
The package exposes both a JavaScript API, and CLI in case you’re used to that type of workflow from other static site generators. To see how they’re used check out the examples (https://github.com/metalsmith/metalsmith/tree/master/examples)

The task of a static site generator is to produce static build files that can be deployed to a web server. These files are built from source files. Basically for a static site generator this means:

  1. from a source directory read the source files and extract their information
  2. manipulate the information
  3. write the manipulated information to files into a destination directory
Metalsmith is built on this reasoning. It takes the information from the source files from a source directory and it writes the manipulated information to files into a destination directory. All manipulations, however, it exclusively leaves to plugins.

Manipulations can be anything: translating templates, transpiling code, replacing variables, wrapping layouts around content, grouping files, moving files and so on. This is why we say »Everything is a Plugin«. And of course, several manipulations can be applied one after another. Obviously, in this case the sequence matters.

Why is Metalsmith extremely simple?

  1. When all manipulations are performed by plugins, the only thing Metalsmith has to do in its core is to provide for an underlying logic of actually how manipulations are dealt with and for a defined interface for the plugins. To achieve this, we only needed around 400 lines of code — have a look at the source yourself. We believe this is rather simple.
  2. For manipulations Metalsmith uses a very clever, but extremely simple idea. All source files are initially converted into JavaScript objects with the usual {property: property value} pairs. These {property: property value} pairs contain information on the original file itself (such as its birthtime or path) and on its content. The JavaScript object for each file is then supplemented with all variables either specified in the front-matter of the file or elsewhere. The manipulations performed by the plugins are now nothing else then modifications applied to the JavaScript objects either by changing the properties or the property values.
  3. Breaking down Metalsmith into a core and many plugins has several advantages. It reduces complexity. It gives the user the freedom to use exactly only those plugins he or she needs. Furthermore, it distributes the honor and the burden of maintaining the Metalsmith core and its plugins onto the Metalsmith community. With this approach we hope to keep the Metalsmith environment pretty up-to-date.
  4. Writing plugins itself is also rather simple. The plugin-interface is easy to understand and most plugins are also rather short.
  5. Every site needs JavaScript anyway. Just like the popular task runners gulp or grunt Metalsmith is programmed in JavaScript. So, you do not have to rely on a further language such as Ruby, Python or Go. This also helps to keep your workflow simple.
HOW DOES IT WORK IN MORE DETAIL?
Metalsmith works in three simple steps:

Read all the files in a source directory and transform them into a JavaScript object of JavaScript objects.
Invoke a series of plugins that manipulate these objects.
According to the information contained in the resulting objects write them as files into a destination directory
Every file in the source directory is transformed into a JavaScript Object. For instance,

my-file.md:

---
title: A Catchy Title
draft: false
---

An unfinished article...

becomes

{
  'relative_to_sourcepath/my-file.md': {
    title: 'A Catchy Title',
    draft: false,
    contents: 'An unfinished article...',
    mode: '0664',
    stats: {
      /* keys with information on the file */
    }    
  }
}
where the content of the file is always put into the property value of contents. For illustration purposes only we display the value of contents as a string. Technically, however, the property value of contents is realised as a new Buffer('...') object, in order to also handle straight binary data well. mode contains the permission the file has and stats has more technical information on the file such as size or birthtime. Furthermore, the file is also parsed for YAML-front-matter information, which will then also be put into the JS Object. Thus, we finally have an JavaScript object of JavaScript objects. This encompassing JavaScript object is usally called files since it contains all the JavaScript objects that represent the files.


middlemanapp

used by DataCite

Why Middleman?

The last few years have seen an explosion in the amount and variety of tools developers can use to build web applications. Ruby on Rails selects a handful of these tools:
  • Sass for DRY stylesheets;
    http://sass-lang.com/ (CSS with superpowers)
    https://github.com/sass (>1200forks @ jan 2017)
  • CoffeeScript for safer and less verbose javascript
  • Multiple asset management solutions, including Sprockets
    https://github.com/rails/sprockets
    Sprockets is a Ruby library for compiling and serving web assets. It features declarative dependency management for JavaScript and CSS assets, as well as a powerful preprocessor pipeline that allows you to write assets in languages like CoffeeScript, Sass and SCSS.
  • ERb & Haml for dynamic pages and simplified HTML syntax
    http://ruby-doc.org/stdlib-2.0.0/libdoc/erb/rdoc/ERB.html
    http://haml.info/
    https://github.com/haml/haml  (>500forks @ jan 2017)
    Haml (HTML abstraction markup language) is based on one primary principle: markup should be beautiful. It’s not just beauty for beauty’s sake either; Haml accelerates and simplifies template creation down to veritable haiku.
    Unspace Interactive and several other professional Rails shops use Haml exclusively for their projects, valuing its focus on cleanliness, readability, and production speed.

    Haml is a markup language that’s used to cleanly and simply describe the HTML of any web document without the use of inline code. Haml functions as a replacement for inline page templating systems such as PHP, ASP, and ERB, the templating language used in most Ruby on Rails applications. However, Haml avoids the need for explicitly coding HTML into the template, because it itself is a description of the HTML, with some code to generate dynamic content.

    Haml also embeds some code that gets executed during runtime and generates HTML code in order to provide some dynamic content. In order to run Haml code, files need to have .haml extension. These files are similar to .erb or eRuby files which also help to embed Ruby code while developing a web application. While parsing coding comments Haml uses the same rules as Ruby 1.9 or later. Haml understands only ASCII compatible encodings like UTF-8 but does not understand UTF-16 or UTF-32, since these are not compatible with ASCII. Haml can be used in command line, as a separate Ruby module or can be used in a Ruby on Rails application making Haml suitable for a wide range of applications.
    https://en.wikipedia.org/wiki/Haml
    Haml =also an add-on for Ruby on Rails
  • Ruby on Rails, or simply Rails, is a server-side web application framework written in Ruby under the MIT License. Rails is a model–view–controller (MVC) framework, providing default structures for a database, a web service, and web pages. It encourages and facilitates the use of web standards such as JSON or XML for data transfer, and HTML, CSS and JavaScript for display and user interfacing. In addition to MVC, Rails emphasizes the use of other well-known software engineering patterns and paradigms, including convention over configuration (CoC), don't repeat yourself (DRY), and the active record pattern.
    In August 2006, the framework reached a milestone when Apple announced that it would ship Ruby on Rails with Mac OS X v10.5 "Leopard", which was released in October 2007.
    https://en.wikipedia.org/wiki/Ruby_on_Rails

Middleman gives the stand-alone developer access to all these tools and many, many more. Why would you use a stand-alone framework instead of Ruby on Rails?

These days, many websites are built with an API in mind. Rather than package the frontend and the backend together, both can be built and deployed independently using the public API to pull data from the backend and display it on the frontend. Static websites are incredibly fast and require very little RAM. A front-end built to stand-alone can be deployed directly to the cloud or a CDN. Many designers and developers simply deliver static HTML/JS/CSS to their clients.

Middleman is built on Ruby and uses the RubyGems package manager for installation. These are usually pre-installed on Mac OS X and Linux. Windows users can install both using RubyInstaller. For windows RubyInstaller-Devkit is also required.

Running one command, bundle exec middleman build, exports the site in a production-ready format. Choose from open source deployment solutions to get your site live.

https://github.com/middleman/middleman (>550forks @ jan 2017)

benefits of SSG

SSGs appear to offer the benefits of both CMS and static worlds, but they will not be suitable for every project 

Saturday, January 14, 2017

mendeley data gives DOI. force 11 joint-declaration-data-citation-principles-final


Mendeley Data is a place where researchers can upload and share their research data for free. Datasets can be shared privately amongst individuals, as well as published to share with the world. Sharing research data is great for science as it enables data reuse and supports reproducibility of studies. It’s also a fantastic way to gain exposure for your research outputs, as every dataset has a DOI and can be cited.

When you publish your data with our service, you choose a licence to publish it under, from a range of Creative Commons and open software licences. This means you retain control of the data, and choose the terms under which others may consume and reuse it. You may delete your dataset at any time, by contacting us.

Your data is stored on Amazon S3 servers, in Germany, where it benefits from redundancy and multiple backups. Our service has been extensively penetration tested and received certification. In addition, we partner with DANS (Data Archiving and Network Services - an industry-leading scientific data archive service), to preserve your data over the longterm. This means your dataset will be discoverable in perpetuity, via the DOI it is issued on publication. If you have any further questions, please contact us.

Datasets must be:

  • scientific in nature
  • research data - rather than the research article, which may have resulted from the research

Datasets must not be:

  • have already been published, and therefore not already have a DOI
  • contain executable files or archives that are not accompanied by individually detailed file descriptions.
  • contain copyrighted content (audio, video, image, etc)
  • contain sensitive information (for example, but not limited to: patient details, dates of birth etc.)
All services provided by Mendeley Data - storing, posting and accessing data - are free-to-use. In future, we may introduce a freemium model - for instance charging for storing and posting data, above a certain dataset size threshold. This will not affect existing datasets, which will continue to be stored for free. We will offer paid-for versions of our service to institutions.


https://data.mendeley.com/

https://data.mendeley.com/faq

force11

https://www.force11.org/group/joint-declaration-data-citation-principles-final
(2014)

Interoperability and Flexibility

Data citation methods should be sufficiently flexible to accommodate the variant practices among communities, but should not differ so much that they compromise interoperability of data citation practices across communities

Ten search engines for researchers that go beyond general search engine (Google)


Open access search engines

CORE

What is it?
An experimental service, allowing keyword and semantic search of over 10 million open access articles.

Key feature: If you find an article you like, CORE will find similar ones by analysing the text of that article.


Aggregating the world’s open access research papers

We offer seamless access to millions of open access research papers, enrich the collected data for text-mining and provide unique services to the research community.

https://core.ac.uk/

an example:
https://core.ac.uk/display/8507685
(my PLOS-ONE)

BASE

What is it?
BASE is one of the world's most voluminous search engines especially for academic open access web resources from over 2,000 sources.

Key features: Allows you to search intellectually selected resources and their bibliographic data, including those from the so-called ‘deep web’, which are ignored by commercial search engines. There are several options for sorting the results list and you can browse by Dewey Decimal Classification and document type.


Library catalogues

Copac

What is it?
A Jisc service allowing you to look through the catalogues of over 70 major UK and Irish libraries.

Key features: Good for locating books and other material held in research collections in the UK;  especially useful for humanities.


France: sudoc


Web Scale Discovery services

What is it?
Many university libraries have one of these services working behind the scenes, they index a vast range of academic resources and provide sophisticated search tools.

Key features: The search includes journal articles, e-books, reviews, legal documents and more that are harvested from primary and secondary publishers, aggregators and open-access repositories.

Zetoc

What is it?
One of the world’s most comprehensive research databases, this Jisc service gives you access to over 28,000 journals and more than 52 million article citations and conference papers through the British Library’s electronic table of contents.

Key features: Researchers can get email alerts of the table of contents in journals, keeping them up to date with the latest literature in their field.

Europeana

What is it?
This is a meta-catalogue of cultural heritage collections from a range of Europe's leading galleries, libraries, archives and museums. The catalogue includes books and manuscripts, photos and paintings, television and film, sculpture and crafts, diaries and maps, sheet music and recordings.

Features: You can download your resource, print it, use it, save it, share it and play with it.

Social web

Twitter

What is it?
Harness the power of social discovery and particularly the #icanhazpdf hashtag for locating PDFs that you do not have access to through your institution.

Features: Tweet an article you need using this hashtag and someone will point you to a copy that you can access.


Ref.
https://www.jisc.ac.uk/blog/ten-search-engines-for-researchers-that-go-beyond-google-11-jul-2013?from=promo

Monday, January 9, 2017

système de gestion de base de données orienté documents (JSON:CouchDB ) (XML: et non en lignes et en colonnes.



JSON

Apache CouchDB est un système de gestion de base de données orienté documents, écrit en langage Erlang et distribué sous licence Apache.

Conçu pour le Web, il fait partie de la mouvance NoSQL, et a été conçu pour pouvoir être réparti sur de multiples serveurs.

Conception
Au lieu d'être ordonnée en lignes et en colonnes, la base de données CouchDB est une collection de documents JSON. 
De plus, CouchDB contient un serveur HTTP qui permet d'effectuer des requêtes, et renvoie ses données sous forme JSON. 
On peut ainsi interroger un serveur CouchDB directement avec un navigateur Web, ou on peut exécuter des requêtes avec JavaScript. 

Les principales opérations effectuées sont MAP et REDUCE (voir article MapReduce https://fr.wikipedia.org/wiki/MapReduce). Ces opérations sont utiles lorsque la base de données est répartie, elles sont soumises à des contraintes de commutativité, d'associativité et d'idempotence.

https://fr.wikipedia.org/wiki/CouchDB
https://en.wikipedia.org/wiki/CouchDB (plus complet)

http://couchdb.apache.org/

XML

Une base de données XML Native (NXD en anglais) est une base de données qui s'appuie sur le modèle de données fourni par XML. Elle utilise typiquement des langages de requête XML comme XPath ou XQuery.

L'indexation dans une base de données XML nécessite d'indexer non seulement le contenu des éléments mais aussi la structure, les relations entre éléments pour que des requêtes XPath comme /foo/bar utilisent l'index.


There are a number of reasons to directly specify data in XML or other document formats such as JSON. For XML in particular, they include:

An enterprise may have a lot of XML in an existing standard format

  • Data may need to be exposed or ingested as XML, so using another format such as relational forces double-modeling of the data
  • XML is very well suited to sparse data, deeply nested data and mixed content (such as text with embedded markup tags)
  • XML is human readable whereas relational tables require expertise to access
  • Metadata is often available as XML
  • Semantic web data is available as RDF/XML

Steve O'Connell gives one reason for the use of XML in databases: the increasingly common use of XML for data transport, which has meant that "data is extracted from databases and put into XML documents and vice-versa". It may prove more efficient (in terms of conversion costs) and easier to store the data in XML format. In content-based applications, the ability of the native XML database also minimizes the need for extraction or entry of metadata to support searching and navigation.

https://en.wikipedia.org/wiki/XML_database
https://fr.wikipedia.org/wiki/BaseX

Wednesday, December 7, 2016

Nouveau projet sur la bible numérique multi-niveaux par les créateurs de la Bible de Jérusalem


Introduction

La Bible en ses Traditions est un projet de l’École Biblique et Archéologique Française de Jérusalem, les créateurs de la Bible de Jérusalem. Le projet « Bible en ses traditions » a été lancé en 2000 par l’École biblique et archéologique de Jérusalem (Ebaf). Fondateurs de cette prestigieuse école en 1890, les dominicains se sont illustrés tout au long du XXe siècle par leur travail méthodique sur le texte biblique et sa traduction, publiant la Bible de Jérusalem, l’une des traductions les plus connues du texte biblique.
En décembre 2016, le site atteint sa première maturité.
À l’occasion des dix ans du projet Best, un colloque international sur le thème « Mise(s) en œuvre(s) des Écritures » a été organisé les 5 et 6 décembre à l’université Sorbonne Nouvelle-Paris 3, à Paris.
http://www.univ-paris3.fr/mise-s-en-oeuvre-s-des-ecritures-398566.kjsp

Le but de ce projet


Nous avons l’intention de créer un ensemble de notes le plus étendu et le plus utile possible pour la bible tout entière, avec une information qui intéressera les spécialistes bibliques comme les lecteurs occasionnels.

Les particularités

La Bible en ses Traditions présentera les différences significatives entre différentes versions du texte biblique dans le texte lui-même, plutôt que dans les notes de bas de page. En outre, le texte sera accompagné de notes étendues réparties en différents sujets, tels que le vocabulaire, le milieu social et culturel, la tradition juive et chrétienne, notamment.

le site Internet du projet atteint aujourd’hui une première maturité avec la mise en ligne d’un « rouleau numérique ». Il permet de cliquer sur le texte biblique et de découvrir nombre d’éclairages, verset après verset. L’interface est austère, mais le contenu fascinant par sa profusion et sa richesse.
« Au lieu d’un seul texte biblique, le rouleau numérique de Best donne à voir une polyphonie, se réjouit Olivier-Thomas Venard, dominicain, vice-recteur de l’École biblique de Jérusalem et directeur de Best. Au fond, Internet permet de refermer la parenthèse de la traduction imprimée, qui n’a pas fait que du bien à la Bible en la présentant comme un texte figé. Avec le rouleau numérique, on sent un texte vivant, en effervescence, produit par et pour des communautés croyantes, avec tous les commentaires savants qu’il a suscités. »

Le site

https://bibletraditions.org/

Diverses versions

Le principe d’unité de toute l’Écriture a toujours déterminé une tendance à disposer d’un texte de référence, qui puisse être considéré comme autorisé et authentique.


  • Le judaïsme rabbinique reconnaît pour seule authentique la version du texte massorétique (TM ou M). Toutes les polyglottes que l’on connaît tendent à faire référence à la bible hébraïque comme instance critique.
  • L’Église grecque a retenu la Septante (LXX ou G)
  •  L’Église latine la Vulgate (V)
  • L'Église syriaque la Peshitta (S)

revue de press

http://www.la-croix.com/Culture/Traduire-Bible-passion-renouvelee-2016-12-04-1200807936

Friday, December 2, 2016

Liste des serveurs de baseMap (tiles, tuillage et layers). Changer de baseMap (et la personnaliser) pour odyssey.js: mapbox.

Les tuiles:
puis les zooms:


La base:

En français:
http://openstreetmap.fr/blogs/cquest/visite-guidee

https://switch2osm.org/fr/les-basiques/

Servir des tuiles:
https://switch2osm.org/fr/servir-des-tuiles/utilisation-dune-solution-tout-en-un/

les serveurs:
http://wiki.openstreetmap.org/wiki/Tile_servers

Le format principal (pour X/Y/Z) est une URL de ce type:
'http://{s}.somedomain.com/blabla/{z}/{x}/{y}.png'
{s} means one of the available subdomains (used sequentially to help with browser parallel requests per domain limitation; subdomain values are specified in options; a, b or c by default, can be omitted), {z} — zoom level, {x} and {y} — tile coordinates.

tile server capable of providing map tiles in vector (pbf) or raster (png) formats, as well as static map snapshots of any size for a given location.

Une liste de serveurs
The maps project aims to build cartography technologies for all Wikimedia projects, at a scale sufficient for their widespread usage. 
https://www.mediawiki.org/wiki/Maps
https://www.mediawiki.org/wiki/Maps#/map/0
On peut comparer: Bing Maps, Google Maps, OpenStreetMap,ACME Mapper,Apple Maps,HERE, MapQuest,Waze, Wikimapia, WikiMiniAtlas, Yandex.Maps.
http://tile.openstreetmap.fr/?q=yssingeaux
http://mapper.acme.com/?ll=45.142316,4.123694&z=10&t=M&marker0=45.142316,4.123694,Maps

Serveurs

On a de nombreux serveurs de baseMap:
http://wiki.openstreetmap.org/wiki/Tiles

Il faut comprendre qq différence avec "tileset":
A "tileset" typically includes enough tiles to form a very large image, if they were shown all at once, and also several zoom levels. Generally the idea is not to show them all at once, but to display a particular area of the map on a website. Normally this is done using a JavaScript map library to provide panning and zooming functionality, and request downloading of new tiles as necessary to show the user new areas of the map (a Slippy Map). (http://wiki.openstreetmap.org/wiki/Slippy_Map)

Changer de baseMap pour odyssey.js

On a de nombreux serveurs de baseMap:
http://wiki.openstreetmap.org/wiki/Tiles

On a 3 choix dans le sandbox d'odyssey: nokia est la moins mauvaise...
c'est l'ensemble des choix par défaut dans cartoDB editor free:
  • https://cartocdn_a.global.ssl.fastly.net/base-light/{z}/{x}/{y}.png
    qui est vraiment très light!! mais "unlimited use permitted" et en lien avec OpenStreetMap.
  • une autre du provider Stamen: http://{s}.tile.stamen.com/watercolor/{z}/{x}/{y}.jpg
    essayez (chargement lent):
    http://tile.stamen.com/terrain/{z}/{x}/{y}.jpg
    http://maps.stamen.com/#terrain/12/37.7706/-122.3782
  • une autre du provider ex-nokia, maintenant HERE ("nokia day"):
    https://2.maps.nlp.nokia.com/maptile/2.1/maptile/newest/normal.day/{z}/{x}/{y}/256/png8?lg=eng&token=A7tBPacePg9Mj_zghvKt9Q&app_id=KuYppsdXZznpffJsKT24
    (vendu en 2015): https://wego.here.comhttps://fr.wikipedia.org/wiki/HERE_WeGo
    essayer le mode hybrid:
    "https://2.maps.nlp.nokia.com/maptile/2.1/maptile/newest/hybrid.day/{z}/{x}/{y}/256/png8?lg=eng&token=A7tBPacePg9Mj_zghvKt9Q&app_id=KuYppsdXZznpffJsKT24"
Rem:'http://{s}.somedomain.com/blabla/{z}/{x}/{y}.png'
{s} means one of the available subdomains (used sequentially to help with browser parallel requests per domain limitation; subdomain values are specified in options; a, b or c by default, can be omitted), {z} — zoom level, {x} and {y} — tile coordinates.
Ref: http://leafletjs.com/reference.html#popup

https://developer.here.com/rest-apis/documentation/enterprise-map-tile/
https://developer.here.com/rest-apis/documentation/enterprise-map-tile/topics/example-hybrid-map.html

vous pouvez aussi copier/coller celles-ci de cartoDB:
http://a.basemaps.cartocdn.com/light_all/{z}/{x}/{y}.png
http://a.basemaps.cartocdn.com/dark_all/{z}/{x}/{y}.png

le plus important est de bien choisir en fonction de ses besoins.
Personnellement je préfère openstreetmap car très complète:
http://{s}.tile.openstreetmap.org/{z}/{x}/{y}.png
et aussi une carte "france" :  http://{s}.tile.openstreetmap.fr/osmfr/{z}/{x}/{y}.png
http://wiki.openstreetmap.org/wiki/FR:Servers/tile.openstreetmap.fr
voir les choix:
http://leaflet-extras.github.io/leaflet-providers/preview/

Il faut comprendre qq différence avec "tileset":
A "tileset" typically includes enough tiles to form a very large image, if they were shown all at once, and also several zoom levels. Generally the idea is not to show them all at once, but to display a particular area of the map on a website. Normally this is done using a JavaScript map library to provide panning and zooming functionality, and request downloading of new tiles as necessary to show the user new areas of the map (a Slippy Map). (http://wiki.openstreetmap.org/wiki/Slippy_Map)

Faire sa basemap personnalisée avec MapBox utilisable par odyssey.js

On peut utiliser le provider mapbox (https://www.mapbox.com) mais attention au mélange:
Mapbox is a service which lets you customize the design of a basemap with custom colors and elements. Insert your Mapbox URL and access token to add the basemap
Note: CARTO only supports Mapbox classic urls. If you enter a new Mapbox Studio url, an error appears.
En premier, avec odyssey.js, on peut utiliser les baseMaps styles de base de mapBox comme la "mapbox.streets":
https://api.mapbox.com/v4/mapbox.streets/{z}/{x}/{y}.png?access_token=your_token
voir: https://carto.com/location-data-services/basemaps/
https://carto.com/docs/carto-editor/maps/#basemaps

On a deux choix:

  • soit avec les superbes outils javascript de MapBox
  • soit avec MapBox Studio.

Je vais traiter du cas avec "MapBox Studio" (et en lien avec la doc/exemple javascript).
MapBox n'est pas facile à comprendre au début.
C'est un processus linéaire :
                                            datasets->tilesets->Styles
                                            en fait (GeoJSON data->layer vectorielle->carte multicouche).

  1. Il faut se créer un compte et on obtient une clé (token).
    Il faut savoir que c'est construit "on top of Leaflet" http://leafletjs.com/
    ->plus de renseignement: GitHub: https://github.com/mapbox/mapbox.js/
  2. importer un dataset (voir point 3). Juste une explication: c'est fondée sur les fonctions import/export liées au Leaflet-Omnivore plug-in
    https://api.mapbox.com/mapbox.js/plugins/leaflet-omnivore/v0.2.0/leaflet-omnivore.min.js. qq exemples:
  3. avec MapBox Studio, il suffit de faire "new datasets", soit on le créée soit on l'upload, avec ces deux choix (tester son fichier avec geojson.io, avant):
    • GeoJSON 
    •  CSV file
  4. on click sur datasets (à gauche) puis "edit", on peut voir son fichier sur une carte et aussi en un click sur un point (ou plusieurs points) l'ensemble des données associés.
    On peut ajouter une droite, un polygone, un point... Si on revient sur dataset, on peut sauvegarder en geoJSON son oeuvre modifiée.
  5. exporter vers "tilesets"
  6. dans tilesets, on peut voir la nature de cette "carte", par exemple: "This layer contains mostly Points". On a le numero "mapId" le format "pbf" vector et sa taille. C'est en fait une vector layer (générée à partir de l'ensemble des données GeoJSON). De plus on peut suivre les stats de visualisation de sa carte.
    Avec un compte gratuit: 50 000 map views/mois ou 50 000 mobile users/mois (en décembre 2016); 600 geocode requests/minute, 5 GB tileset storage, 250 MB dataset storage, 20 Mapbox Studio styles. Cet ensemble de limite est le principal défaut de l'hébergement/usage sur mapBox. Sinon on a accès à tout le reste  (Geocoding,  Satellite & street maps, full Mapbox Studio, Directions, les librairies javascripts).
    A map view is 
    • four map tiles when using Mapbox Studio styles, or 
    • 15 smaller map tiles when using Mapbox Studio Classic or Mapbox Editor Classic. 
    • One Static API request also counts as one map view.
  7. faire "add to style". Vous avez enfin votre solution où vous pouvez tout personnaliser.vous avez le lien vers ce style de type:
    https://www.mapbox.com/studio/styles/username/mapId/
    avec votre username et votre mapid.
    Si vous avez choisi la base: "Mapbox Streets V7 + Vector Terrain V2(Composite source)"
    vous aurez un très grand choix des layers (à afficher ou non). Pour l'instant allons dans le symbol "menu" juste à droite du bouton "edit" et sélectionner "share". 
  8. Les 4 choix du sharing/partage:
    1. faire un lien (URL) .html (la carte est déplaçable, zoomable et on a la rotation du plan)
      par contre on a un gros logo en haut à droite pas beau...
    2. "Develop with this style"
      1. mapbox: pour utiliser avec leur librairie javascript; voir exemple:
        https://www.mapbox.com/mapbox-gl-js/example/setstyle/
        Cet exemple permet aussi de comparer les styles de base de mapbox.
      2. leaflet:
        https://api.mapbox.com/styles/v1/stef4250/ciw6uszpd000e2pmkuzzzqlln/tiles/256/{z}/{x}/{y}?access_token=XXmyTokenXX
        C'est cette URL de tuiles qu'il faut utiliser pour odyssey.jspour avoir une carte personnalisée (et avec un import/export interopérable)
        http://leafletjs.com/reference.html#tilelayer
        Voir les nombreuse options...
        Used to load and display tile layers on the map, implements ILayer interface:
        L.tileLayer('http://{s}.tile.osm.org/{z}/{x}/{y}.png?{foo}', {foo: 'bar'}).addTo(map);
        dans odyssey.js:
        var baseurl = this.baseurl = 'http://{s}.api.cartocdn.com/base-light/{z}/{x}/{y}.png';
        var
        basemap = this.basemap = L.tileLayer(baseurl, { attribution: 'data OSM - map CartoDB'}).addTo(map);
        Rem: C'est ici qu'est inséré    comme attribution le string  'data OSM - map CartoDB'
      3. on peut personnaliser ses "points"
        • Title                    Eglise
        • marker-color       #7e7e7e
        • marker-size         medium
        • marker-symbol  village

Add your map style as a layer in ArcGIS and QGIS with WMTS:
https://www.mapbox.com/help/mapbox-arcgis-qgis/

Outils

Faire son tuillage

On peut aussi faire son propre tiling:

outils de conversion entre le format X/Y/Z et TMS

Il existe des outils de conversion entre le format X/Y/Z et TMS:
The difference between XYZ and TMS tiles and how to convert between them

ajout de layers

Par exemple avec google fusion:

design a specific layer-basemap

Most web maps are made up of many small, square images called tiles. These tiles are typically 256×256 pixels and are placed side-by-side in order to create the illusion of a very large seamless image. There are several different tiling schemes, but among the most popular is the standard XYZ tile scheme, used by Google, OpenStreetMap, CARTO, Mapbox, and others. Tile images are are served through a REST API with a URL like http://.../Z/X/Y.png, where Z is the zoom level, and X and Y identify the tile.
Mapbox now supports directly accessing raster tile endpoints for Mapbox studio styles. This means you can design custom maps in Mapbox Studio and access them directly in Fulcrum!
From the Styles page in Mapbox Studio, click on either a Mapbox style or one of your own custom styles.
Scroll down the style page until you see the “Use style in GIS apps” section and click on the CARTO tab (Fulcrum uses the same scheme as CARTO).
Copy the Integration URL and proceed with adding the map layer to Fulcrum.


----------

Sunday, October 30, 2016

Comparison of online source code playgrounds and sandbox. Real-time on line editor and run. Samples for map.

write and run a code on a browser...

Online web client-side source code playgrounds:

https://en.wikipedia.org/wiki/Comparison_of_online_source_code_playgrounds


Samples:


http://jsdo.it/shirayuki/maps
open 4 maps Google/Yahoo!/Bing/OpenStreetMap

http://jsdo.it/mash/simple-mediarss-slideshow
http://jsdo.it/GeckoTang/194A
http://jsdo.it/9re/deferred
with api Flickr


http://cssdeck.com/labs/google-map-folded-with-css

https://www.snip2code.com/Explore/Public?q=openstreetmap

https://plnkr.co/
(Plunker is an online community for creating, collaborating on and sharing your web development ideas. and it's fully open-source on GitHub).

https://c9.io/
------

https://github.com/trending/javascript

https://v4-alpha.getbootstrap.com/examples/
Bootstrap is the most popular HTML, CSS, and JS framework in the world for building responsive, mobile-first projects on the web.

https://nodejs.org/en/
Node.js® is a JavaScript runtime built on Chrome's V8 JavaScript engine. Node.js uses an event-driven, non-blocking I/O model that makes it lightweight and efficient. Node.js' package ecosystem, npm, is the largest ecosystem of open source libraries in the world.

Tuesday, January 24, 2012

pdf ou html full texte et référence dans Zotero.

Actuellement pour sauvegarder mes pdf, et mes pages html d'articles ou de brevets et aussi mes sites utiles, j'utilise le célèbre open source zotero.

Il existe deux grands soucis avec zotero malgré sa puissance.
1)Il est assez énervant de jonglet avec les serveurs mandataires dans zotero. Une université et un organisme type CNRS paient très cher l'accès à des bouquets permettant la lecture et la sauvegarde d'un "full" texte d'un article scientifique (il faut toujours sauvegarder ses pdf car ces organismes ne paient que l'accès sur une durée de 1an). Il existe deux types d'accès :
  • soit par n° IP (faire attention au proxy) ou 
  • soit avec un mot de passe.
Zotero a tendance à passer en direct sans les serveurs mandataires...

2)Lien pdf (ou full html) avec la référence. Lorsque le pdf n'a pas de metadonnées ou si elles sont incorrectes (assez souvent!) alors il faut aussi mettre la référence et le lien entre le pdf et sa référence correcete dans la même collection dans son zotero. C'est coûteux en temps...
La solution que je propose est de bien gérer le corpus d'accès aux ref (et abstract) et de sauver la ref dans zotero (via les catalogues) puis de basculer vers le site d'accès pdf ou html complet en sachant que les éditeurs "oublient" souvent de mettre les métadonnées.
Le corpus de ce type de one-click service est : http://www.zotero.org/translators/

Web of science (WoS), la plus grande banque d'articles scientifique, ne fonctionne pas bien avec zotero (WoS est aussi l'éditeur de endnote qui contrairement à Zotero est payant).
Voir: http://ex-ample.blogspot.com/2011/12/solution-of-error-could-not-save-item.html

Ce corpus de sites "zotero compatibles" contient 7types où les références (attention à vérifier la qualité et le nombre de champs) sont accessibles en one-click import dans zotero (dans l'omnibarre):
  1. des libraires style Amazon
  2. des moteurs de recherche (google scholar, google books, scirius)
  3. des catalogues de bibliothèques comme sudoc (ou de votre université) ou comme worldcat, ou catalogue d'organisme comme medline (les références y sont souvent très bien cataloguées avec les champs complets et corrects)
  4. des logiciels de gestion biblio en ligne comme citeUlike,
  5. des archives ouvertes comme hal, arXiv, citeSeer...
  6. les ressources à abonnement où on peut récupérer le(s) pdf: WoS, Sciencedirect, springerLink, wiley, IEEExplore, spie, (en eco factiva)
  7. les ressources open access comme l'éditeur PLoS, biomed... ou des sites comme revues.org avec URL pérenne (ou equivalente à un DOI) ou encore le célèbre wikipedia (vérfier la qualité des références absoluement).
 -----

----------------
Merci à Dominique du SCD Sciences de l'Université St-Etienne

Friday, November 25, 2011

Centre Informatique National de l'Enseignement Supérieur; Persée: programme de publication électronique de revues scientifiques en sciences humaines et sociales

Persée est un programme de publication électronique de revues scientifiques en sciences humaines et sociales. L’intégralité des collections imprimées de revues est numérisée et mise en ligne sur un portail qui offre un accès à l’ensemble de ces collections et des possibilités avancées d’exploitation de ces corpus numérisés. Les revues font l’objet d’une sélection pour garantir la cohérence de l’offre éditoriale et scientifique du portail.

Un outil de diffusion scientifique et de recherche
Les revues françaises en sciences humaines et sociales constituent un riche patrimoine scientifique. Leur numérisation et leur mise en ligne procèdent d’un triple objectif :
  • valoriser les publications scientifiques en langue française ;
  • favoriser un accès libre aux résultats de la recherche et au patrimoine scientifique ;
  • mettre à disposition de la communauté scientifique un outil de recherche et de consultation.
L’une des ambitions de Persée, au-delà de la numérisation des collections imprimées de revues scientifiques et de leur diffusion en ligne, est d’offrir des services et des outils permettant une exploitation enrichie des documents sans que l’internaute ne perçoive de rupture notable avec ce qui lui est proposé pour l’édition électronique. Ainsi le portail Persée apporte-t-il des plus-values technologiques comparables aux portails d’édition courante de revues. Ces plus-values se traduisent en termes de fonctionnalités pour l’utilisateur final :
  • visualiser toutes les revues classées de manière alphabétique et/ou thématique ;
  • accéder au sommaire et à la table des matières numériques des numéros de revues ;
  • accéder au fac-similé de la revue ;
  • feuilleter un document page à page ;
  • accéder directement à une page d’un document ;
  • modifier l'orientation et la taille de l’image de la page affichée à l’écran ;
  • afficher le texte issu de la reconnaissance optique de caractères appliquée au document ;
  • rechercher dans les métadonnées et dans le texte intégral des documents ;
  • obtenir des références bibliographiques précises (titre, auteur, année, volume, numéro de la revue, pagination, type d’unité documentaire, conditions d’accès à la revue) ;
  • afficher le résumé, le plan, la liste des figures ;
  • obtenir les références croisées autour de l'article ;
  • télécharger et imprimer les documents (génération de PDF à la volée) ;
  • bénéficier de services personnalisés après authentification (historique des requêtes et des documents, gestion et partage de documents).

Un Libre accès maîtrisé
Le programme Persée a pour objectif premier de diffuser largement sur l’Internet les revues scientifiques de langue française dans le domaine des sciences de l’homme et de la société. Considérées comme un élément constitutif du patrimoine, les collections sont mises à disposition de tous gratuitement dans une logique d’accès libre et de diffusion non exclusive.
L’éditeur ou le diffuseur de la revue peut déterminer une période récente, de 2 à 5 ans, pendant laquelle les numéros ne sont pas librement diffusés sur l’Internet. Cette barrière mobile est un moyen de garantir la commercialisation de la production courante sous forme « papier » ou électronique.

Le respect du droit des auteurs
La nature même du programme Persée conduit à poser la question du droit des auteurs alors que le contenu de leurs travaux est proposé librement sur l’Internet. En l’absence de contrat faisant explicitement état d’une autorisation de diffusion par voie électronique, les revues partenaires du portail Persée recherchent les auteurs ou leurs ayants droit afin d'obtenir les cessions de droit nécessaires à la numérisation et à la diffusion des collections de revues. Un courrier individuel est ainsi adressé aux auteurs pour lesquels une adresse récente a pu être identifiée.

Une coopération avec les autres portails
Des accords de coopération sont en cours de formalisation avec les principaux portails francophones assurant la diffusion de la production courante de revues scientifiques. L’objectif est d’offrir aux lecteurs une continuité dans la consultation des fonds lorsque la partie patrimoniale de la revue est disponible sur Persée et que la partie courante est accessible sur un autre site.

Les choix documentaires et technologiques
Les choix documentaires et technologiques de Persée dérivent des usages de la communauté scientifique : nécessité d’accéder au texte intégral, intérêt pour l’article et les différents éléments qui le composent, et recherche en langage naturel par exemple.
Persée repose sur un certain nombre de normes et de standards ouverts qui garantissent une réutilisation possible des données dans le futur, une utilisation optimale du site web par tout internaute, l’interopérabilité du portail et des possibilités étendues de mutualisation avec d’autres outils du même type.
Selon la nature des documents primaires fournis par les revues (imprimé ou électronique), les collections de revues sont :
  • numérisées en mode image, garantie du strict respect de la maquette originale et de l’identité de la publication. Elles sont également transcrites en mode texte (utilisation d’un logiciel de reconnaissance optique de caractères pour traiter toutes les pages numérisées) ce qui permet d’effectuer des recherches sur le contenu même des articles.
  • converties depuis leur format électronique natif vers des formats XML aptes à alimenter le portail et à garantir la pérennité des données.
Le fonds documentaire est structuré et la logique éditoriale des revues est ainsi retranscrite dans le portail PERSEE (norme XML et schéma de données) :
  • Description de la revue (titre et changements de titre possibles, segmentation en année, volume et numéro) ;
  • Indexation des articles, des recensions et des notes critiques ;
  • Indexation des illustrations présentes au sein même d’un document.

Des développements Open Source
L’ensemble des développements réalisés dans le cadre du programme PERSEE (chaîne de production et portail de diffusion) sont « en Open Source ». Ils sont en effet dotés une double licence CeCCIL et GPL et pourront être réutilisés dans le cadre d’autres projets de numérisation et/ou de diffusion de documents. Cette logique a permis la mise à disposition des technologies PERSEE pour d’autres projets sur le site lyonnais (Fonds GallavardinCorpus de textes linguistiques fondamentaux) et sera de nouveau illustrée dans le courant de l’année 2008 par le déploiement des technologies PERSEE sur un nouveau site (Université Paris Descartes) où elles seront également utilisées dans des projets de bibliothèque numérique propres à l’établissement.

Un investissement pérenne
Au-delà de la mise à disposition des données sur son portail de diffusion, le programme PERSEE s’est doté d’un « volet archivage pérenne ». Un système assurant l’archivage, à très long terme, de l’ensemble des données produites dans le cadre de PERSEE a été mis en place fin 2008.
L'ensemble des revues présentes sur le portail Persée est en cours d'archivage. C'est le CINES (Centre Informatique National de l'Enseignement Supérieur), en collaboration avec l'équipe Persée, qui assure cette mission.

Statistiques d'archivage (au 06/09/2011)
  • 61 collections complètes
  • 11 580 fascicules
  • 2 267 573 pages
  • 10,2 Tera octets

crossRef : 50 millions de DOI ont été attribués à des documents scientifiques.

À l'occasion de sa rencontre annuelle, crossRef a annoncé que plus de 50 millions de DOI avaient été attribués à des documents scientifiques.

Le 50 millionième DOI document a été attribué à un article de la revue Langage et société éditée par les Éditions de la MSH de Paris et diffusée par Persée de 1977 à 1999 :

Darré, Jean-Pierre, “Les dialogues entre agriculteurs (Etude comparative dans deux
villages français, Bretagne et Lauragais),” Dialogs between farmer (a comparative study between two French villages, Brittany and Lauragais), Langage et société, 1985. 33, pp. 43-64, http://dx.doi.org/10.3406/lsoc.1985.2030.

CrossRef est une organisation internationale qui réunit 1 185 éditeurs scientifiques et diffuseurs dont les buts sont commerciaux ou non lucratifs. Sa mission principale est la mise en place de liens entre les références bibliographiques et le texte intégral par l'attribution d'identifiants aux documents scientifiques (DOI). Persée adhère à CrossRef depuis 2007. Actuellement, 144 785 DOI ont été attribués aux articles diffusés par Persée.

En savoir plus :

http://www.crossref.org/01company/pr/news111511.html
---------------ref:
http://www.persee.fr/web/guest/home

Tuesday, November 15, 2011

e-publisher: biomedcentral.com; example of a suite of open access journals: SpringerOpen; example of a journal: The Journal of Mathematical Neuroscience

http://www.biomedcentral.com/

List: BioMed Central's portfolio of 223 journals (DATA@nov 2011)
http://www.biomedcentral.com/browse/journals/


Starting a new, open access journal with BioMed Central
Our journal management system incorporates online tools for manuscript submission, peer review and editorial decision making. We make this technology available without charge to suitably qualified groups of researchers that wish to operate their own open access online journals

http://www.biomedcentral.com/info/publishingservices/transferorstart

Journals affiliated with learned societies or other organizations represent the fastest growing segment of BioMed Central’s portfolio. Recent examples of journal transfers to BioMed Central include "Genetics Selection Evolution", a journal of the Institut National de la Recherche Agronomique (INRA), France: http://www.gsejournal.org/about
To further increase the visibility of the journal and its older content we will also submit the back content for inclusion in PubMed Central and PubMed, as well as to other archives and repositories. An example are the 40 volumes preceding the transfer of Genetics Selection Evolution to BioMed Central in 2008.
http://www.ncbi.nlm.nih.gov/pmc/journals/847/

Transferring journals to BioMed Central and converting to open access is cost- and hassle-free. There is no interruption to the journal’s existing coverage by indexing and bibliometric services, including impact factor tracking. High visibility and the citation advantage that comes with open access can give a further boost to a journal's reputation and ranking.


Chemistry Central publishes peer-reviewed open access research in chemistry. Chemistry Central is part of the BioMed Central group.
http://www.chemistrycentral.com/
https://docs.google.com/viewer?url=http%3A%2F%2Fwww.biomedcentral.com%2Fdownload%2Fadvocacy%2Fopenaccess%2Fchemistrycentraljournal.pdf

--------------------
http://www.springeropen.com/
SpringerOpen is Springer’s new suite of open access journals which will cover all disciplines. SpringerOpen journals are fully and immediately open access and will publish articles under the Creative Commons Attribution license. This makes it easy for authors to fully comply with open access mandates and retain copyright. SpringerOpen journals combine open access and our expertise in delivering high-quality and rapid publications, from online submission systems and in-depth peer review to an efficient, author-friendly production process.

Authors publishing in a SpringerOpen journal retain the copyright to their work, licensing it under the Creative Commons Attribution License. This license allows articles to be freely downloaded from the SpringerOpen website, and also allows articles to be re-used and re-distributed without restriction, as long as the original work is correctly cited.

List:
http://www.springeropen.com/journals

Over 10 SpringerOpen journals already have Impact Factors and many more have been accepted by Thomson Reuters (ISI) for citation tracking and inclusion in Web of Science and will receive an Impact Factor in the next two years. Individual journal Impact Factors can be found in our general FAQ or by visiting the individual journal homepage.

Journals currently covered by Thomson Scientific (ISI):
Advances in Difference Equations – Impact Factor: 0.891
Boundary Value Problems – Impact Factor: 1.047
Chinese Science Bulletin – Impact Factor: 1.087
EURASIP Journal on Advances in Signal Processing – Impact Factor: 1.012
EURASIP Journal on Image and Video Processing - Impact Factor: 0.619
EURASIP Journal on Wireless Communications and Networking – Impact Factor: 0.815
Fixed Point Theory and Applications – Impact Factor: 1.936
Gold Bulletin – Impact Factor: 2.719
Journal of Inequalities and Applications – Impact Factor: 0.879
Nanoscale Research Letters – Impact Factor: 2.557
The Journal of Headache and Pain – Impact Factor: 2.015



All articles published in SpringerOpen journals are included in many bibliographic databases so that your work can be found easily and cited by researchers and clinicians around the world.

All articles in journals published by BioMed Central are included immediately in PubMed, the most widely used biomedical bibliographic database service. PubMed is the National Library of Medicine service that provides access to MEDLINE, articles not yet in MEDLINE and articles from additional life science journals. An increasing number of journals published by BioMed Central are also indexed by the Thomson Reuters (ISI) and hence searchable through Web of Science, and other Thomson Reuters (ISI) products. All BioMed Central's journals are indexed by CAS and Scopus and all the biology titles are indexed by BIOSIS.

Note that because the full text of all BioMed Central research articles is available without registration or subscription, search engines such as Google (Google scholar) also index them, greatly increasing their visibility. All BioMed Central research articles are indexed by the science focussed search engine, Scirus.

BioMed Central participates in CrossRef and the Open Citation Project, allowing direct linking from citations to an article elsewhere to the full text of that article in a BioMed Central journal.



ABSTRACTED/INDEXED IN:
Science Citation Index, Science Citation Index Expanded (SciSearch), SCOPUS, INSPEC, Zentralblatt Math, Google Scholar, EBSCO, CSA, Academic OneFile, ASFA, Biological Abstracts, BIOSIS, Business Source, Chemical Abstracts Service (CAS), Chinese Science Citation Database, Current Abstracts, Current Contents/Physical, Chemical and Earth Sciences, Current Index to Statistics, Current Mathematical Publications, Digital Mathematics Registry, EMBiology, Gale, GeoRef, Journal Citation Reports/Science Edition, Mass Spectrometry Bulletin, OCLC, SCImago, Summon by Serial Solutions, Zoological Record

--------
A new journal:
http://www.mathematical-neuroscience.com/

The Journal of Mathematical Neuroscience 2011, 1:1 (3 May 2011)