Showing posts with label 1-fundamentals-social-sciences. Show all posts
Showing posts with label 1-fundamentals-social-sciences. Show all posts

Saturday, December 30, 2017

Deezer ou Spotify ou Google play ou youTube ou Apple Music ou Amazon Musique... ?

Nous parlons d'une industrie: l'industrie musicale et sa partie diffusion.

En premier contrairement à un support physique comme un CD ou vinyle, il n'est pas possible de revendre le morceau ou l'album acheté. Donc cette industrie est encore plus juteuse puisque c'est du "one shot"mais prend le risque de l'auto-diffusion comme l'industrie du livre et des revues.


Le véritable démarrage de l'industrie musik webService-like est la décision industrielle d'Apple qui lance l'iTunes Music Store aux États-Unis, dont le catalogue inclut des répertoires des cinq majors. Chaque morceau y est vendu au tarif unique de 99 cents au format AAC, et chaque album pour 9.99 dollars US (sauf exceptions). Le succès de son baladeur numérique iPod, étroitement intégré au logiciel iTunes, a été une révolution à la Steve, paix à son âme.
https://fr.wikipedia.org/wiki/Magasin_de_musique_en_ligne
https://en.wikipedia.org/wiki/Online_music_store

https://en.wikipedia.org/wiki/Comparison_of_online_music_stores
https://en.wikipedia.org/wiki/Comparison_of_on-demand_music_streaming_services

Bref quoi que soit le mode d'achat (à la chanson, à l'abonnement), on écoute un droit d'un fichier numérique.  En audio, y a x qualités. mais la question est la banque de données fondamentale avant transcodage style bad MP3.
La taille de la banque de données fondamentale est la première grandeur à mutiplier par la croissance du nombre d'utilisateur * nbr d'utilisateur réel*croissance des services:
SoundCloud en a ~125 millions de tracks, puis Deezer avec ~40millions comme TIdal, Apple, Amazon. Spotify en a un peu moins ~30millions mais avec une excellente stratégie par exemple des appli pour objets connectés comme les montres samsung ou des aggrégations.
Microsoft a annoncé le 2 octobre 2017 que les services d'abonnement et d'achat de musiques prendront fin le 31 décembre 2017. Microsoft invite les clients de "Groove music" (et Zune Music ou Xbox Music) à migrer sur Spotify avec lequel il est en partenariat. L'exemple des échecs successifs de Microsoft dans cette industrie souligne combien cette industrie est très difficile.
Mais Spotify a >150millions d'abo ou de compte free, le BEST!
Deezer que 10millions et piétine en 2017. A part un superMegaBuzz mondial, la partie de boule de neige est jouée.

Un très bon article dans Les Echos

La toile regorge de services de streaming musical et il n'est pas toujours facile de faire un choix. François Lévêque, professeur d'économie, tente ici de vous éclairer dans votre réflexion.
Deezer, Spotify, Apple Music, Tidal, Amazon Musique... La liste Wikipedia des plates-formes d'écoute de musique en streaming contient une trentaine de noms. Quel service choisir ? La recommandation de la théorie économique tient en une phrase : choisir celui dont la victoire dans la bataille de la concurrence est anticipée.

Nous sommes en effet de plain-pied dans le monde économique des plates-formes et de ses puissantes externalités de réseau. Vous connaissez, sans doute, ces effets qui avantagent les entreprises aux plus larges clientèles.

Cela se traduit ici de la façon suivante : plus un service de streaming comptera d’abonnés, plus un abonné aura de chances de pouvoir échanger ses listes de lecture et ses avis avec d’autres ; plus appropriées seront les suggestions de titres qui lui seront faites; plus d’artistes et de labels auront intérêt à être présents dans son catalogue. Et, inversement, plus d’artistes et de labels sont présents dans un catalogue, plus il est intéressant d’y être abonné.

Parier sur le bon cheval

D’où des effets boule de neige et une course entre les plates-formes pour recruter le plus de clients des deux côtés de leur marché, et ce le plus vite possible. D’où une marginalisation et une disparition progressive de celles qui n’y parviendront pas. D’où au final un seul ou un petit nombre de vainqueurs. D’où, enfin, l’intérêt de parier sur un bon cheval dès le départ car changer de cheval en cours de route est bien ennuyeux.

Lire aussi :   Pourquoi le jazz et le classique peinent à s’imposer dans le streaming
https://www.lesechos.fr/tech-medias/medias/010160355128-pourquoi-le-jazz-et-le-classique-peinent-a-simposer-dans-le-streaming-2105163.php

Vous subirez en effet des coûts de changement de fournisseur. Non pas qu'il vous en coûtera des espèces sonnantes et trébuchantes, mais il vous faudra apprendre à naviguer sur une autre plate-forme et surtout vous perdrez vos listes de lecture et votre nouveau fournisseur - faute d'historique et des données qui vont avec - ne connaîtra pas vos goûts et ne saura pas au début vous adresser des recommandations et suggestions aussi bien ciblées.

rem perso: avoir toujours 2 fournisseurs.

Plus il y a d'abonnés, mieux c'est

Un autre avantage à la taille, plus classique, s’ajoute à ces effets de réseau : les économies d’échelles. Les données de l’équation économique de base du streaming les feront facilement comprendre. Chaque nouvel abonné contribue aux coûts fixes, c’est-à-dire qui ne varient pas en fonction des ventes, à l’instar des dépenses de développement des algorithmes, interfaces utilisateurs et autres logiciels.

Secundo, chaque nouvel abonné entraîne une augmentation de la redevance à verser aux labels. Elle est de l’ordre de 60% du montant des abonnements. Ainsi un plus grand nombre d’abonnés permet de mieux recouvrer les coûts fixes et donne un plus grand pouvoir de négociation à l’entreprise de streaming pour obtenir des redevances plus faibles.

Notez en passant que la partie de boules de neige coûte cher. A ce jour l’activité de streaming n’est pas rentable. Deezer, Tidal, Spotify et les autres entreprises spécialisées perdent de l’argent. Les Apple Music, Amazon Music et Google Music aussi mais leur déficit est masqué par l’intégration avec les autres activités de leurs opérateurs respectifs.

Procéder par élimination

Commençons à appliquer la recommandation de la théorie économique en procédant par élimination. D’ores et déjà des services de streaming ont pris un tel retard dans le recrutement d’abonnés qu’il est peu probable qu’ils survivront ou alors seulement sur des segments de marché restreints.

Ainsi : évitez SoundCloud, bien mal en point. Ne choisissez pas Anghami sauf si vous êtes fan de musique arabe car son catalogue s’adresse avant tout aux pays du Moyen-Orient et d’Afrique du Nord. Eliminez Tidal, à moins que vous ne soyez un admirateur inconditionnel du rappeur Jay Z qui l’a racheté. N’utilisez TTunes que si vous possédez une Tesla.

Inversement, on peut être presque sûr que certains ne disparaîtront pas. C’est le cas des entreprises multi-produits dont le streaming fait partie. Il attire et fidélise des clients qui consomment d’autres de leurs biens et services. Il n’est donc pas soumis isolément à une contrainte financière et de rentabilité stricte qui limiterait les investissements pour recruter de nouveaux clients et améliorer le service.

Lire aussi :  Soundtrack Business, le Spotify de la musique d’ambiance
https://www.lesechos.fr/tech-medias/medias/030564173660-soundtrack-business-le-spotify-de-la-musique-dambiance-2114813.php#mX6c7Co1IgidP2km.99

C’est bien sûr le cas d’Apple. Pionnière de la vente de musique numérique à la pièce, la firme de Cupertino a pris tardivement le tournant du streaming, sans doute pour cause de cannibalisation. Sa vitesse de rattrapage est cependant spectaculaire. Elle a conquis 20 millions d’abonnés en deux ans. Citons également Amazon qui a lancé sa propre plate-forme musicale et la propose à un tarif réduit à ses meilleurs clients.

La présence durable de ces deux entreprises dans le streaming est d’autant plus certaine qu’il est un maillon indispensable de leurs haut-parleurs Echo et HomePod – vous savez, ces petites enceintes cylindriques connectées censées trôner demain dans tous les salons (ou presque) pour répondre intelligemment (ou presque) à toutes vos questions (ou presque).

Vous pouvez leur demander «Quel temps fera-t-il demain ?» mais aussi «Joue-moi la chanson du jour» ou «Passe le dernier single de Rihanna». Si d’ailleurs vous envisagez l’acquisition d’une telle enceinte connectée, je vous conseille de vous abonner à Amazon Music ou Apple Music pour éviter des problèmes d’incompatibilité. Si vous êtes attaché à ces entreprises mastodontes ou tout simplement trop paresseux pour changer de prestataire, faites le même choix.

Google ou pas Google ?

Le cas de Google est compliqué car l’entreprise joue sur plusieurs tableaux. Elle possède sa propre plate-forme, Google Play Music, accepte Spotify sur son enceinte connectée Google Home, et possède aussi YouTube.

Que vient faire ici la plate-forme de streaming vidéo la plus regardée au monde ? Et bien avec ses 800 millions d’utilisateurs elle est aussi la plus écoutée ! Par ceux qui payent à travers la publicité surtout, et, pour une toute petite partie, à savoir quelques millions seulement, par des abonnés à YouTube Red, sa plate-forme payante qui donne accès à un catalogue de films et séquences vidéo, mais aussi à un catalogue musical. Avec tout juste 7 millions d’abonnés à ses deux services payants, Google a intérêt à les combiner dans une seule offre . Si vous penchez pour Google attendez donc un peu.

Deezer, un avenir en pointillé

Le futur de Deezer est lui aussi difficile à prédire. Cette plate-forme d’origine tricolore domine le marché français. Mais elle ne compte dans le monde entier que 8 millions d’abonnés et sa croissance piétine.

Elle est aujourd’hui majoritairement contrôlée par Len Blatvanik, un magnat anglo-américain d’origine russe dont la holding est présente dans le gaz et le pétrole (EP Energy), le capital-risque (Access Technology), l’immobilier (Grand-Hôtel du Cap Ferrat), et qui détient aussi le contrôle majoritaire de Warner Music Group.

Cette bonne compagnie financière et musicale préserve Deezer d’une sortie du marché à laquelle elle n’aurait pas échappé par manque de moyens. Toutefois son propriétaire pourrait la sacrifier avec ou sans Warner lors d’une prochaine rotation de son portefeuille d’actifs. Mon avis : bof bof, sauf si vous êtes un grand amateur d'artistes français – car Deezer offre un catalogue pointu en la matière – ou si tous vos amis et proches sont déjà abonnés à cette plate-forme.

Spotify est-il vraiment le bon choix ?

Finalement, pourquoi ne pas choisir Spotify ? Même si elle est talonnée par Apple, l’entreprise suédoise n’est-elle pas la première du marché en nombre d’abonnés ? Oui, mais justement elle est talonnée par Apple. Une comparaison financière résume le déséquilibre des forces en présence : en une journée l’entreprise californienne réalise un profit qui équivaut à la perte qu’essuie Spotify sur une année.

Malgré sa taille Spotify perd encore en effet de l’argent. Apple n’est pas en reste mais même en supposant que la perte d’Apple Music soit deux fois plus élevée que celle de Spotify, elle serait épongée en deux jours par les profits des autres activités de la firme.

La question de savoir si Spotify peut être rentable dans le futur agite le monde financier car la firme suédoise s’apprête à entrer en Bourse. Les pronostics sont contrastés. Lui faut-il atteindre 100 millions d’abonnés pour être à l’équilibre ? Obtenir un taux de redevance auprès des labels de 58 ou de 55%  de ses recettes ? Y parviendra-t-elle ?

Ces incertitudes ne doivent cependant pas vous dissuader de choisir Spotify. Elle occupe la première place en nombre d’abonnés et en croissance du nombre d’abonnés. C’est donc le choix le plus conforme au raisonnement économique. En outre, son avenir économique est conforté par l’intérêt que lui prêtent les majors de l’industrie du disque.

Sony, Universal et Warner ne souhaitent sans doute pas avoir Amazon, Apple et Google comme uniques clients. Elles sont chacune actionnaires de Spotify et, connaissant ainsi ses comptes, sont susceptibles de lâcher du lest sur leurs montants de redevance en cas de besoin.

La version originale de cet article a été publiée sur The Conversation.

François Lévêque, professeur d'économie et vient de faire paraître "Les habits neufs de la concurrence" chez Odile Jacob. Il est lui-même abonné à une plate-forme de streaming, mais il n’en a choisi aucune de celles citées. 

Ref

 https://www.lesechos.fr/idees-debats/cercle/cercle-173806-deezer-apple-musique-spotify-amazon-music-lequel-choisir-2115745.php

Wednesday, September 27, 2017

Science Translationnelle



La recherche translationnelle  vise à traduire en applications concrètes (ou dites "sciences appliquées") les théories scientifiques et les découvertes de laboratoire.
Par exemple un savoir mathématique s'applique à un domaine comme l'interaction lumière/matière en physique. Certains parlent de math appliquées mais c'est faux.
C'est juste une distinction entre deux gestions du temps.
J'ai un savoir dans les mathématiques.
Je publie un théorème ou une solution analytique point et je reste vague sur les conséquences de cette découverte. On parle de "math pures".
Si je publie une deuxième partie en même temps avec des exemples d'application avec des problèmes inverses par exemple alors on parle de "math appli".

Exemple de la médecine translationnelle

Les principes de la science translationelle et de la « recherche translationnelle » permettent de réduire le nombre des besoins médicaux et pharmaceutiques encore insatisfaits. Elle a été initiée en France dans les années 1960 par le Cancérologue Georges Mathé.
https://fr.wikipedia.org/wiki/M%C3%A9decine_translationnelle
De nombreuses publications existent dans ce domaine, et notamment grâce à des revues à comité de lecture dédiées au sujet :
  • Science Translational Medicine, créée en octobre 2009 par l'American Association for the Advancement of Science.
  • Journal of Translational Medicine
  • Translational Medicine

La science translationnelle exige 

  • une transdisciplinarité véritable qui dépasse la multi-/pluri-disciplinarité (on met ensemble un physicien et un mathématicien et un biologiste qui apprennent à dialoguer (mais certains ont tendance à consiodérer l'autre comme un prestataire de service). La transdisciplinarité consiste à "prendre la place de l'autre" sans devenir aussi expert que l'autre mais comprendre son but et de le faire sien. Par exemple pour mon article publié le 31 dec 2010, je connaissais mon pb en biophotonique et sa traduction en PDE et en théorie de l'homogénéisation. J'aurai pu aller voir le mathématicien G. Panasenko comme un prestataire de service. Mais non je me suis formé à la théorie de l'homogénéisation. J'ai découvert qu'une frontière des connaissances était la théorie de l'homogénéisation non pas à un paramètre mais à 3 paramètres, bien plus complexe. Hélas le formalisme de la théorie de l'homogénéisation même à un paramètre est ardu, je ne pouvais démontrer le théorème et le faire tout seul.
    https://doi.org/10.1371/journal.pone.0014350
    https://doi.org/10.5281/zenodo.439034
  • des systèmes d'information et d'échanges d'informations et/ou savoir et/ou de valeurs (morales), qui peuvent être favorisés et accélérés par l'Open data comme démontré dans le domaine de la génétique, qui devraient permettre le développement d'une médecine ou une approche personnalisée ;
  • des ponts constants entre les sciences dites dures et théoriques et les praticiens/expérimentateurs, voire les malades et certaines communautés de malades, afin que leurs besoins réels et ressentis soient mieux cernés et pris en compte. Les aspects sociaux deviennent cruciaux.





Wednesday, September 13, 2017

En mai 2016, dans la grotte de Bruniquel, des chercheurs ont daté à 178 000 ans des vestiges humains dans des grottes, en l’occurrence les premiers Néandertaliens.


 En mai 2016, dans la grotte de Bruniquel (Tarn-et-Garonne), des chercheurs ont daté à 178 000 ans environ des vestiges humains qui constituent la plus ancienne preuve d’occupation des grottes par l’Homme, en l’occurrence les premiers Néandertaliens. Leur découverte remet en cause l’image de Néandertal qui a prévalu jusqu’alors, comme nous l’explique cet article publié dans le numéro 2 de la revue Carnets de science.

Il y a un an à peine, la publication d’une lettre [Jaubert,2016; Early Neanderthal constructions deep in Bruniquel cave in Southwestern France », Jacques Jaubert et al., Nature, 2016, vol. 534 : 111-114; http://dx.doi.org/10.1038/nature18291] dans la revue Nature suscitait un certain émoi dans la communauté des préhistoriens. La raison ? On venait de dater à près de 178 000 ans des constructions manifestement d’origine humaine réalisées à partir de stalagmites brisées et rassemblées dans la grotte de Bruniquel, dans le sud-ouest de la France. « D’un seul coup, on a reculé d’à peu près 130 000 ans l’appropriation du monde souterrain par l’humanité », explique Jacques Jaubert, professeur de préhistoire à l’université de Bordeaux au sein du laboratoire Pacea – De la préhistoire à l’actuel : culture, environnement et anthropologie et premier auteur de la découverte. Il est vrai que jusqu’alors, les plus anciennes visites humaines de grottes avérées en Europe remontaient à 42 000 ans au maximum, la grotte Chauvet et ses fresques étant datées de 36 000 ans. « Cette découverte a complètement bouleversé nos paradigmes car auparavant, pour la plupart des spécialistes, les grottes et leur exploration étaient le monopole de nos congénères Homo sapiens, poursuit le chercheur. Or, la datation obtenue prouve que celui qui a exploré et aménagé Bruniquel ne peut être que l’homme de Néandertal. » C’est en effet le seul membre de la famille humaine à avoir occupé l’Europe entre 450 000 et 40 000 ans avant aujourd’hui. « La découverte de Bruniquel est exceptionnelle, confirme Bruno Maureille, directeur de recherche au CNRS et paléoanthropologue au Pacea. Elle ouvre des perspectives inédites sur les comportements de Néandertal. »

https://lejournal.cnrs.fr/articles/neandertal-le-cousin-rehabilite

Tuesday, September 5, 2017

La bataille de Stalingrad du 17 juillet 1942 à la victoire du 2 février 1943. Numerisation d'un grand corpus et nouveau moteur russe de recherche des morts.



À ce jour, aucun pays dans le monde a construit une telle banque de données (nommée HBS memorial). Seule la Fédération de Russie l'a réalisée.
La mise en œuvre d'un tel projet nécessite la construction d'une chaîne en plusieurs étapes pour collecter, vérifier, la numérisation des tableaux sur papier, dans les millions de feuilles, chargement des données dans un moteur de recherche puissant, offrant un accès global multi-utilisateurs aux documents.
Toutes les personnes impliquées dans l'histoire de ses personnes se sentent une responsabilité particulière du fait que le destin d'un guerrier n'est jamais l'oubli et l'ingratitude.
Etrangement, il a fallu beaucoup de temps pour réelment penser à cela.

La banque de données généralisée, le HBS « Memorial », a été créé à l'initiative du ministère de la Défense Fédération de Russie en 2007.
À l'heure actuelle (en sept 2017), le HBS « Memorial » contient près de 17 millions de copies numériques des pertes et 20 millions d'entrées enregistrées de la pertes de l'Armée rouge dans la Seconde Guerre mondiale. L'enterrement (officiel) donne la place de plus de 5 millions de soldats et aussi d'officiers. La numérisation des listes des dépôt de blessures concerne aussi les unités médicales et les hôpitaux de campagne. De plus ~million de soldats des camps nazis sont dans la banque de donnée. Mais d'après les données allemandes les captifs étaient de l'ordre de 5 millions de citoyens soviétiques. Ainsi plus de 4 millions de noms sont actuellement oubliés et effacés de l'histoire.

Dans le livre de la mémoire dans la région de Volgograd est enregistré ~200 000 noms des morts et des disparus (et lieux de sépulture et autres informations).
http://www.stalingrad-battle.ru/
http://obd-memorial.ru/html/index.html

Stalingrad

L'ensemble de ces combats (dans et hors de la ville) ont coûté la vie
  • à plus de 800 000 soviétiques (civils et combattants), 
  • à 400 000 militaires allemands, roumains, italiens, hongrois et croates.
L'intervention des avions sur la ville de Stalingrad commence le 23 août 1942, jour où les Allemands atteignent la ville au nord, par un raid de terreur visant la population civile. C'est le bombardement de ce type le plus massif sur le front de l'Est. La Luftwaffe totalise 1 600 sorties et 1 000 t de bombes larguées dans la journée en soutien des troupes au sol, jusqu'à un dernier raid, qui lui vise Stalingrad alors que « dans la ville il n'y avait presque pas de troupes ».
Fin septembre 1942, une partie de la ville est conquise (le sud et le centre). Stalingrad ne représente plus un objectif militaire pour les Allemands.
Mais la prise de la ville ayant été utilisée par la propagande et la com, elle devient un objectif symbolique.
Hitler décida de saisir "la ville de Staline" à tout prix.

le parallèle avec la campagne de Russie de 1812

Etrangement il faut souligner le parallèle avec la campagne de Russie de 1812 contre la Grande Armée "républicaine" de Napoléon connue en Russie sous le nom de « guerre patriotique » (de l'époque du tsar Alexandre 1er).

La Grande Armée est forte de 680 000 hommes, dont 450 000 franchissent le Niémen.
Face à une armée impériale russe inférieure en nombre (au début de l’invasion mais plus importante à la fin), l’avantage est aux forces napoléoniennes. Un empire contre un empire avec tant de nationalités...
Le prince russe Mikhaïl Koutouzov, général en chef, encourage à mener une contre-offensive avec la stratégie du harcèlement de la Grande Armée par la terre brûlée et par tous les moyens en évitant les grands combats et surtout lors de la retraite française.

La Grande Armée se compose de 450 000 Français avec en plus du corps d’armée autrichien détaché sous les ordres de Schwarzenberg, on compte environ 95 000 Polonais, 90 000 Allemands (24 000 Bavarois, 20 000 Saxons, 20 000 Prussiens, 17 000 Westphaliens et quelques milliers d’hommes venus de plus petits États rhénans), 25 000 Italiens, 12 000 Suisses, 4 800 Espagnols, 3 500 Croates et 2 000 Portugais...

Les neuf dixièmes de la ville sainte, Moscou, sera détruite par les russes eux-mêmes du 2 au 6 septembre 1812. Le 18 octobre 1812, la terrible retraite commence.
L’armée arriva le 25 novembre sur la Bérézina.
Contrairement aux croyances populaires, la bataille de la Bérézina fut une victoire militaire pour Napoléon.
La traversée de la rivière Bérézina amène une victoire tactique pour Napoléon quand Koutouzov, décidant que le temps est enfin venu pour une bataille rangée, attaque la partie de l’armée française restée du mauvais côté de la rivière. Les Russes ayant été repoussés, tous les Français en arme peuvent franchir les ponts. Seuls restent de l’autre côté les malades, les blessés et les déserteurs ; ceux-là même qui, par abattement et désespoir, ont refusé de passer les ponts durant la nuit précédant la bataille et qui ensuite se sont bousculés dans une cohue indescriptible au dernier moment d’où l’expression « c’est la Bérézina ».

Même si Napoléon n'a pas perdu de grandes batailles ni cette guerre en se rendant. Il a échoué dans la conquête pérenne de Moscou.
200 000 morts pour chacun des empires.

Les morts de Stalingrad

Stalingrad 1942 ressemble à Moscou de 1812 sur l'importance d'une ville presque conquise mais non réelment soumise. Mais Hitler perd la bataille. Le maréchal Paulus, commandant de cette armée allemande, capitule et 100 000 soldats allemands sont faits prisonniers le 2 février 1943 y compris le maréchal. Mais Hitler n'a pas encore perdu la guerre.

Cette bataille ressemble plus à une guerre de tranchée comme en 1914/1918 avec un front tout en longueur d'une cinquantaine de kilomètres du nord au sud et quelques km de large au sein d'une ville.

Wednesday, July 19, 2017

ajlsm et maîtrise technologique de la plate forme Cyberdocs, orientée vers la production, l'archivage et la diffusion électroniques des documents scientifiques


cyberthèse/cyberdocs  lyon2

Hélas cela date de plus de 10ans pour cyberthèse/cyberdocs avec abandon.
https://sourcesup.renater.fr/cybertheses/ --> 404
https://sourcesup.renater.fr/projects/cyberdocs/
date de 2009 sans MAJ.
https://sourcesup.renater.fr/scm/?group_id=28
https://sourcesup.renater.fr/scm/viewvc.php/trunk/?root=cyberdocs
https://github.com/fabdsp

mais:
http://www.univ-lyon2.fr/bibliotheques/theses-en-ligne-452917.kjsp?RH=WWW309PUB
est opérationnel.
L'université Lyon 2 archive et diffuse en format numérique les thèses soutenues. Cette politique qui est mise en œuvre de manière systématique depuis 2000, permet l'archivage et la diffusion sur internet de plus de 1600 thèses.

De plus Pleade est toujours actif.

De Latex vers un archivage pérenne et une diffusion électronique ouverte

LaTeX est un logiciel de composition de documents ou plus exactement une collection de macro commandes destinées à faciliter l'utilisation du processeur de TeX. Il est particulièrement utilisé dans les domaines techniques et scientifiques pour la production de documents de taille moyenne ou importante. Les qualités de mise en forme des documents, notamment mathématiques, et leur impression ne sont plus à démontrer.
Mais à l'heure où la publication scientifique électronique est en voie de banalisation, il est extrêmement difficile de convertir un document natif LaTeX vers le format XML qui est devenu le standard de fait des documents électroniques. XML permet, entre autres, de garantir un archivage pérenne et grâce à son environnement une accessibilité la plus large possible en intégrant et en supportant des normes annexes en matière de codage des caractères (Unicode) ou de transcription des formules mathématiques avec MathMl.
La conversion des documents LaTeX vers XML est un sujet délicat à plus d'un titre. Une tradition ancienne chez les utilisateurs de LaTeX veut qu'en dehors de leur outil préféré, point de salut. Une réaction nouvelle de la part des éditeurs scientifiques universitaires ou commerciaux met en avant l'obligation de l'accessibilité et de l'ouverture dans le respect des normes et des standards qui facilitent la communication scientifique ouverte.
Dans le secteur de la publication électronique des thèses, cette discussion n'a pas débouché sur des solutions satisfaisantes. Cyberdocs diffuse les thèses « LaTeX » au format « pdf » ce qui est insatisfaisant. Mais le groupe qui animait le programme Cyberthèses représentait plutôt les sciences humaines et sociales : nous n'avions donc pas de légitimité disciplinaire. Mais au hasard de rencontres et de débats, nous avons croisé la route d'un éditeur scientifique qui était confronté au même problème : comment convertir au format XML, nécessaire pour un archivage pérenne et une diffusion électronique ouverte, des documents scientifiques composés avec LaTeX pour être imprimés ?
Ce programme a réuni autour de la conversion des documents scientifiques écrits en LaTeX vers XML, l'équipe EDP Sciences (éditeur scientifique) qui a fait de l'édition scientifique électronique ouverte un de ses objectifs prioritaires, le groupe Cyberthèses, avec la société AJLSM qui porte la maîtrise technologique de la plate forme Cyberdocs, orientée vers la production, l'archivage et la diffusion électroniques des documents scientifiques et des membres de la communauté scientifique utilisateurs de LaTeX. Ce sont les résultats obtenus que nous vous présentons.
La réalisation d'un objet logiciel, un convertisseur, repose sur l'étude et l'analyse des modèles de documents scientifiques et des pratiques qui en découlent. L'objet « thèse » a été considéré comme un exemple particulier d'un problème plus général concernant tous les types de documents et notamment les articles de revues. L'intégration dans la plate forme Cyberdocs sera possible grâce à un convertisseur qui amènera les documents vers le format TEILite utilisé par Cyberdocs.
Mais ce convertisseur sera également adapté aux autres types de documents : articles, revues, ouvrages, rapports scientifiques ou techniques en étant compatible avec les principales DTD existantes : Journal Publishing, TEI Lite, Docbook. L'évolution de cet outil est ouverte aux contributions de l'ensemble de la communauté, c'est pour cela qu'il sera distribué sous une licence libre.
Ce programme a reçu le soutien financier de la DIST du CNRS et de la D.G.R.I. du ministère de l'enseignement supérieur et de la recherche.

Ref

http://theses.univ-lyon2.fr/files/presentation-28.pdf

plate-forme Cyberdocs

La plate-forme Cyberdocs permet de structurer des documents issus de traitements de texte et de les publier sur Internet, à l'aide de la norme XML et la DTD TEI Lite.
Elle est aujourd'hui principalement utilisée comme nouvelle plate-forme de traitement et de diffusion des thèses dans le cadre du projet Cyberthèses, un programme francophone d'archivage et de diffusion électronique des thèses, qui regroupe de nombreuses institutions francophones ou non à travers le monde.
Cette plate forme de conversion, placée sous licence GPL, a été réalisée avec l’aide de la société AJLSM (http://www.ajlsm.com/produits/cyberdocs), et est diffusée en Afrique, dans l’Amérique du Sud, en Suisse et en France.
Voir le site officiel de Cyberdocs : http://www.cyberdocs.org/fr/home (non actif).
http://www.univ-lyon2.fr/bibliotheques/theses-en-ligne-452917.kjsp?RH=WWW309PUB

AJLSM

Depuis 1999, AJLSM propose des solutions ouvertes, pérennes et efficaces pour créer, convertir, gérer, diffuser ou archiver votre information numérique.
Trois concepts sont la plupart du temps à la base des solutions que nous proposons : la normalisation, XML et les logiciels libres. Associées de manière optimale, ces approches permettent d'obtenir des systèmes d'information documentaire où les technologies sont au service de l'information, et non l'inverse.
AJLSM est aujourd'hui un acteur reconnu dans les domaines du patrimoine culturel et de la documentation scientifique. Nous avons participé à de nombreux projets dans ces domaines, avec des partenaires prestigieux, en France, en Europe et au Canada.
AJLSM propose des produits libres, développés dans le cadre de nos différents projets et qui bénéficient aujourd'hui à une communauté beaucoup plus large.

Les produits Logiciels libres

AJLSM est impliqué dans plusieurs projets de logiciels libres.
Pleade, outil de publication de corpus documentaires hétérogènes, incluant un moteur de recherche, un harvester, un visualiseur, pour instruments de recherche archivistique en format EAD Encoded Archival Description (http://www.loc.gov/ead/) , pour la presse avec reconnaissance optique de caractères (format xml METS, xml ALTO), etc.
http://pleade.com/
Notix, application bibliographique libre et paramétrable.

Les produits Logiciels non libres

ThesX est un logiciel qui permet de gérer des thésaurus, c'est-à-dire :
  • Créer, supprimer, modifier et exporter le contenu et la structure d'un thésaurus.
  • Rechercher du contenu dans un ou plusieurs thésaurus.
ThesX peut s'intégrer, entre autre, à Pleade dans des formulaires de recherche.
Pleade Plus est un ensemble de fonctionnalités et de modules complémentaires à Pleade.

Pleade

est aussi/surtout un moteur de recherche.
Créé par AJLSM et la Direction de Archives de France en 2001, Pleade est un outil de publication et de diffusion intégrant un puissant moteur de recherche ainsi qu'un moissonneur OAI-PMH (harvester) dans des corpus de documents XML (EAD et EAC-CPF, METS et ALTO, UNIMARC, Nomina, TEI, Dublin Core et Dublin Core Qualifié, BiblioML, MODS, ...).
Pleade suit les normes du responsive design depuis la version 3.59.

Pleade est une solution logicielle libre et open source à destination des archives, bibliothèques et musées. Depuis plus de 15 ans, Pleade permet la valorisation des données patrimoniales suivant un workflow très simple: publier, diffuser et disséminer.

PLEADE is a free software for searching and viewing archival finding aids in XML/EAD // PLEADE est un logiciel libre pour consulter et chercher des instruments de recherche archivistiques en format XML/EAD.

Code

https://sourceforge.net/projects/pleade/

C'est du java.

Dernière version de fin 2016: version 3.59.
PLEADE 3.59 works with Java 8.

PLEADE read-me anglais français

 About pleade-exe-3.59.zip for MAC/Linux or pleade-exe-3.59-windows.zip for Windows

 I - What is this ?
 ------------------

 This folder contains resources for running and testing an application Pleade-3.59.

 II - Installation Linux/Mac
 ---------------------------

 Step 1: Open and place a console in the root of pleade-exe-3.59 directory
 Step 2: If it is not, make executable pleade.sh.
$ Chmod + x pleade.sh

 Step 3: Run pleade.sh with the command
$ ./pleade.sh

 If all OK, after the application server start, Pleade-3.59 will be
 accessible with a web browser at http://localhost:8090/pleade

 To shutdown Pleade-Pleade 3.59 close the console that has served to launch the pleade.sh

 II - Installation Windows
 -------------------------

 Step 1: Create the folder C:\pleade-exe-3.59
 Step 2: Place the entire contents of this directory in C:\pleade-exe-3.59.
At the end of the operation, this path C:\pleade-exe-3.59\webserver
must exist.
 Step 3: Run (double click) the script C:\pleade-3.59\pleade.bat
/!\ If windows's firewall is triggered (alert message)
allow the script to run with the privileges required /!\


 If all ok, after the application server start, Pleade-3.59 will be
 accessible with a web browser at http://localhost:8090/pleade

 To shutdown Pleade-3.59 close the console that has served to launch the pleade.sh.

 III - Terms of Use
 ------------------

 This portable version of Pleade-3.59 is only for testing.
 It is pre-configured with minimum requirements

 For other usage details, read the PLEADE-3.59 license.


///////////////////////////////////////////////////////////////////////////////

 À propos de pleade-exe-3.59.zip pour MAC/Linux ou de pleade-exe-3.59-windows.zip pour Windows

 I - Qu'est-ce-que c'est ?
 -------------------------

 Ce dossier contient les ressources necessaires pour exécuter et tester une application
 pleade-Pleade 3.59.

 II - Installation Linux/Mac
 ---------------------------

 Étape 1: Ouvrir une console et se placer à la racine du répertoire pleade-exe-Pleade 3.59
 Étape 2: Si ce n'est pas le cas, rendre éxécutable le fichier pleade.sh.
$ chmod +x pleade.sh

 Étape 3: Exécuter le fichier pleade.sh avec la commande
$ ./pleade.sh

 Si tout est OK, après le démarrage du serveur d'application, Pleade-3.59 sera
 accessible avec un navigateur internet à l'adresse http://localhost:8090/pleade

 Pour éteindre l'application fermer la console qui a servie à lancer le script pleade.sh.

 III - Installation Windows
 --------------------------

 Étape 1: Créer le répertoire C:\pleade-exe-3.59
 Étape 2: Placer l'ensemble du contenu de ce répertoire dans C:\pleade-exe-3.59,
de sorte que le chemin C:\pleade-exe-3.59\webserver existe
 Étape 3: Exécuter (double clic), le script C:\pleade-3.59\pleade.bat
/!\ Si le par-feu windows se déclanche (message d'alerte),
autoriser le script à se lancer avec les priviléges demandés /!\

 Si tout est OK, après le démarrage du serveur d'application, Pleade-3.59 sera
 accessible avec un navigateur internet à l'adresse http://localhost:8090/pleade

 Pour éteindre l'application fermer la console qui a servie à lancer le script pleade.sh.

 III - Conditions d'utilisation
 ------------------------------

 Cette version portable de Pleade-3.59 est forunit uniquement dans un but de tests.
 Elle est pré-configurée de façons minimale.

 Pour les autres détails d'utilisation, lire la licence de Pleade-3.59.

Ref

https://sourceforge.net/projects/pleade/files/pleade/3.59/

Pierre Radane, les problématiques du climat planétaire multi-échelle et Terra Nova.



Il a été directeur adjoint du cabinet ministériel de l'Aménagement du Territoire et de l'Environnement, alors occupé par Dominique Voynet.
Il participe au think tank Terra Nova très controversé et très polarisé.
https://fr.wikipedia.org/wiki/Terra_Nova_(think_tank)

https://fr.wikipedia.org/wiki/Pierre_Radanne

Voir son intervention dans C dans l'air Émission du mardi 18 juillet 2017 soir sur TV5.

livre Energies de ton siècle de 2005

Title         Energies de ton siècle !: des crises à la mutation
Author Pierre Radanne
Publisher Lignes de repères, 2005
ISBN 9782915752083
Length 255 pages
https://books.google.fr/books?id=JpZMAgAACAAJ

Le service principal que cet ouvrage rend au lecteur est de proposer une approche globale de la question énergétique ; pour l’auteur, la crise énergétique nécessite surtout des choix de société, ce que beaucoup de citoyens reconnaissent confusément mais que le politique ne prend pas assez en compte.

Le plan général du livre est le suivant :

  • Retour sur le dernier siècle : évolution des besoins, épuisement des ressources, effet de serre.
  • Histoire récente : chocs pétroliers, puis effondrement des prix et dérégulation des marchés énergétiques.
  • Evolutions des demandes : la croissance exige en proportion moins d’énergie, sauf dans quelques secteurs (transports). Le développement des communications laisse espérer une société moins gourmande en énergies.
  • Evolution des offres : un point sur les énergies fossiles, le nucléaire et le renouvelable.
  • Les instruments de maîtrise du secteur de l’énergie : les privatisations massives dans ce secteur privent les pouvoirs publics d’outils d’intervention. Une nouvelle gouvernance est à inventer.
  • La nécessité de choix politiques : on ne peut sortir de cette impasse par des solutions miracles. Les options tout technologique (nucléaire, notamment) et tout écolo ne sont pas réalistes.

http://www.lignes-de-reperes.com/catalogue/radanne3.htm


Friday, January 27, 2017

CNRS et réseaux IST


Renatis

Renatis est le réseau national de l’information scientifique et technique (IST) du CNRS (ex-MRTC, depuis 2013 Mission Interdisciplinarité du CNRS).

Ce réseau a émergé en 2006, sa création s’inscrit dans le contexte du paysage national complexe de l’IST. Renatis répond au besoin d’une structuration nationale des professionnels de l’information scientifique et technique afin de mener des actions à une échelle supérieure à celle des régions et de rassembler beaucoup plus de personnes. Si beaucoup d’entre elles étaient déjà organisées dans des réseaux régionaux, d’autres sont restées isolées dans des régions sans structures équivalentes.

Renatis est un outil qui les représente tous, rompt leur isolement, leur apporte les mêmes accès à la formation et l’information, leur permet de participer aux activités et projets du réseau avec l’appui des réseaux régionaux de l’IST.

FRéDoc 2015

https://fredoc2015.sciencesconf.org/

les pdf:
https://fredoc2015.sciencesconf.org/resource/page/id/7

action nationale de formation Renatis  du 29 septembre au 2 octobre 2015 au Domaine Saint Joseph à Sainte Foy Lès Lyon près de Lyon

Thématique :

« Mieux accompagner la recherche : réalités d’aujourd’hui et perspectives pour les fonctions d’IST »

Le réseau Isidora, en charge de l’organisation de ces rencontres, accueillera pour cette 9ème édition différents acteurs du monde scientifique (professionnels de l’IST, chercheurs, communicants, informaticiens ...) pour se former, s’informer et échanger sur de nouvelles pratiques professionnelles. Cette année les journées seront consacrées à la présentation de fonctions émergentes et à l’exploration des perspectives nouvelles qui s’offrent aux gestionnaires de l’information. Elles s’accompagneront d’une mise en pratique de nouvelles activités autour d’ateliers qui feront écho aux présentations.
Le programme s’oriente autour de deux axes principaux :

Axe 1 : Nouvelles perspectives pour les missions en IST :

Quelles nouvelles missions et activités pour les professionnels de demain ? Comment capitaliser les connaissances et actualiser les compétences ? Quelles nouvelles opportunités d’action ? Quels périmètres d’actions ?

Axe 2 : Formation aux nouveaux outils et services pour accompagner la recherche :

Ateliers pratiques de présentation et de prise en main Partage de savoir-faire et de pratiques liées à l’IST et à ses métiers connexes

en tentant de répondre aux objectifs pédagogiques suivants :

Mieux appréhender les problématiques liés aux enjeux de l’IST Se repositionner au sein des métiers de l’IST, s’investir dans de nouveaux projets Maîtriser les nouveaux outils de l’IST Acquérir les clés et compétences pour mieux accompagner les chercheurs

Frédoc 2015 s’adresse à tous les professionels de l’IST, personnels du CNRS et des autres établissements de recherche ou d’enseignement supérieur.


Lien vers le site
http://renatis.cnrs.fr/spip.php?rubrique32

MEDICI

Réseau des Métiers de l’Édition Scientifique publique

Réseau interdisciplinaire et inter-organismes, des métiers de l’édition scientifique publique a pour ambition de créer un lien entre des acteurs de terrain en leur offrant un accès à des ressources utiles à l’exercice de leurs professions.
http://medici.in2p3.fr/?lang=fr

Journée "Outils de gestion de workfow éditorial"
Journées Medcamp 2016 et "Outils de workflow editorial"
Deux journées à Paris les 29 et 30 juin 2016.
https://medici-thema16.sciencesconf.org/

La première journée (mercredi 29 juin 2016) s'articule autour des questions relatives à l’Édition scientifique publique et accès ouvert : évolution des besoins et des pratiques. Il s'agit d'une journée d’information, d’échanges et de retours d’expérience sur les métiers de l’édition et de leur évolution. Plusieurs thématiques (cf. programme) sont retenues afin d'aborder les notions liées à la gestion et à l’édition des données associées aux publications, à la façon dont les équipes éditoriales s'emparent des différentes formes éditoriales existantes ou en devenir pour optimiser la diffusion des savoirs et enfin, aux "autres" écritures et leur évaluation, l'ensemble sous l’angle de l’accès ouvert.

La seconde journée (jeudi 30 juin 2016) est l’occasion de proposer une action spécifique sur les "Outils de gestion de workflow éditorial". Sa finalité est de permettre la présentation et le retour d’expériences sur l’utilisation, par les membres de la communauté, des outils liés à la gestion des workflows éditoriaux (OJS, Spip, Lodel, Trello…), de la soumission des articles jusqu’à la mise en ligne et la publication. Cette journée, plus orientée atelier pratique, permettra d’approcher concrètement le fonctionnement de plusieurs de ces outils. Plusieurs plates-formes qui offrent ces services seront également détaillées pour aborder plus globalement la gestion des activités éditoriales et la mise en place de services associés.

RBDD - Réseau des bases de données

Les thématiques du réseau RBDD couvrent tout le domaine des bases de données : de la conception de la base de données à la diffusion des données, en passant par la modélisation

Voir le site du réseau : http://rbdd.cnrs.fr/


Autres

ISORE

ISORE est un réseau de professionnels en IST des unités CNRS en sciences humaine et sociales
Objectifs

- Accompagner les chercheurs dans les nouvelles pratiques de mise à disposition des résultats de leurs travaux (dépôt en archives ouvertes)

- S’approprier et transmettre les mutations technologiques dans nos domaines de compétences et suivre leurs évolutions (IST, sciences humaines et sociales)

- Étudier les pratiques professionnelles et favoriser par le réseau le développement d’activités collaboratives

- Participer activement au développement et à l’évolution des portails thématiques et documentaires, plus particulièrement BiblioSHS avec qui nous avons des contacts réguliers.

Pour sa visibilité Isore a mis en place plusieurs outils  dont un site web sous spip : http://www.isore.cnrs.fr/
sur lequel sont affichées toutes les activités du réseau (réunions, groupes de travail).

http://www.isore.cnrs.fr/spip.php?rubrique1

Huma-Num

Huma-Num est une très grande infrastructure de recherche (TGIR) visant à faciliter le tournant numérique de la recherche en sciences humaines et sociales.

Une plateforme d'archivage et d'exposition de données : NAKALA
Une plateforme et un moteur de recherche en SHS : Plateforme Isidore

Pour remplir cette mission, la TGIR Huma-Num est bâtie sur une organisation originale consistant à mettre en œuvre un dispositif humain (concertation collective) et technologique (services numériques pérennes) à l’échelle nationale et européenne en s’appuyant sur un important réseau de partenaires et d’opérateurs.

La TGIR Huma-Num favorise ainsi, par l’intermédiaire de consortiums regroupant des acteurs des communautés scientifiques, la coordination de la production raisonnée et collective de corpus de sources (recommandations scientifiques, bonnes pratiques technologiques). Elle développe également un dispositif technologique unique permettant le traitement, la conservation, l'accès et l'interopérabilité des données de la recherche. Ce dispositif est composé d'une grille de services dédiés, d'une plateforme d'accès unifié (ISIDORE) et d'une procédure d'archivage à long terme.

La TGIR Huma-Num propose en outre des guides de bonnes pratiques technologiques généralistes à destination des chercheurs. Elle peut mener ponctuellement des actions d'expertise et de formation. Elle porte la participation de la France dans le projet DARIAH en coordonnant les contributions nationales.

La TGIR Huma-Num est portée par l'Unité Mixte de Services 3598 associant le CNRS, l'Université d'Aix-Marseille et le Campus Condorcet.

Huma-Num propose un ensemble de services pour les données numériques produites en SHS. A chaque étape du cycle de vie des données correspond un service dédié.

par exemple "diffuser":
Le service de diffusion des données regroupe un ensemble d'outils permettant de diffuser des données en ligne, sur le web. Ce service favorise le libre accès aux données (et aux bases de données) et a minima le libre accès aux metadonnées (condition obligatoire pour accéder à ce service). Il s'inscrit dans un cadre favorisant la réutilisation maitrisée des données et des métadonnées en sensibilisant en particulier les communautés aux licences de diffusion (creatives commons, Etalab, etc.). Les site web qui éditorialisent des bases de données ou des corpus en SHS sont invités à rendre interopérable leurs données via des métadonnées normalisées en utilisant des protocoles tel que OAI-PMH, RSS, Atom, sitemap XML + métadonnées RDFa et cela afin d'être signalé dans ISIDORE.

Pour les demandes concernant l’hébergement de projets de corpus de données ou de bases de données scientifiques (prosopographiques, documentaires, etc.), l’interopérabilité et le signalement des données dans Isidore sera un critère déterminant pour l’acceptation du projet. Un guide précisant les principes ainsi que les conditions éditoriales et techniques nécessaires au moissonnage, par la plateforme ISIDORE est à votre disposition.

http://www.huma-num.fr/la-tgir-en-bref

Sunday, January 8, 2017

Editer, Publier, Archiver et Diffuser la Recherche Scientifique. être éditeur à l’ère numérique.


Fruit d’une collaboration entre l’école doctorale d’histoire de l’université Paris 1 Panthéon-Sorbonne (Christine Ducourtieux), les Publications de la Sorbonne (Céline Barthonnat et Audrey Orillard) et l’URFIST de Paris (Aline Bouchard), cette séance s’est tenue à la Bibliothèque de recherche du Collège de France.

Consacrée aux enjeux et aux pratiques de l’édition scientifique publique, son objectif était d’éclairer les trois facettes de la diffusion de la recherche – éditer, publier, archiver –, sous des angles aussi complémentaires que l’édition électronique des revues, la réédition, l’archivage institutionnel ou encore l’édition scientifique publique.

Intervenants

* Julie Verlaine (maître de conférences en histoire contemporaine, université Paris 1 Panthéon-Sorbonne) ;
* Élise Gruselle (secrétaire de rédaction, Institut national d’histoire de l’art) ;
* Sophie Guérard de Latour (maître de conférences en philosophie, université Paris 1 Panthéon-Sorbonne, directrice adjointe des Publications de la Sorbonne);
* Emmanuelle Fleury et Céline Vautrin (secrétaires de rédaction, Publications du Collège de France) ;
* Noémie Musnik (coordinatrice de l’archive ouverte Spire, Sciences Po)
* Anne Chatellier et Christophe Labaune (conservateur et archiviste, Bibliothèque du Collège de France)

programme
http://giry.enc.sorbonne.fr/sites/default/files/ab/boudoirs/Boudoirs_20151208_Edition.pdf

Résumé

Comme le rappelle Audrey Orillard en introduction, les publications scientifiques sont désormais foisonnantes. Si le contexte institutionnel amène à publier vite, sous quelque forme que ce soit (colloque, blog, compte rendu…) – le fameux publish or perish – le développement même des outils numériques participe de cette accélération.
Mais ce foisonnement des publications amène deux paradoxes :

  • le premier est que l’on se pose de moins en moins la question « Pourquoi publie-t-on ? » ; 
  • le deuxième est que l’on ignore trop souvent les questions inhérentes à la publication : questions juridiques (droits d’auteur et contrat), questions techniques (pérennité des serveurs), questions scientifiques enfin (multiplication des versions d’un même texte), toutes questions qui, survolées ou ignorées, peuvent conduire à un véritable « naufrage scientifique ». 

Il est donc important de mieux mettre en valeur les médiateurs souvent cachés derrière l’auteur que sont l’archiviste, le bibliothécaire ou encore l’éditeur, afin de mieux comprendre leur métier, et ceci d’autant que l’on assiste aussi de plus en plus à une simultanéité des pratiques.

La demi-journée s’est organisée en trois grandes parties :

  • éditer ses travaux quand on est chercheur (docteurs qui souhaitent publier leur thèse en SHS);
  • être éditeur à l’ère numérique ;
  • donner accès à la recherche scientifique.

être éditeur à l’ère numérique

La situation est contrastée pour l’édition publique au sein de l’édition française (6 % des titres publiés, mais 1,6 % des ventes et 1,4 % du chiffre d’affaire en 2012) et surtout, elle pâtit de la dégradation générale de l’édition scientifique marquée par une diminution de 15% des ventes en sciences humaines et sociales, malgré une augmentation du nombre de titres quand bien même, contrairement à d’autres secteurs, une place importante reste laissée aux ventes de la longue traîne, c’est-à-dire le fonds hors nouveautés. Enfin, particularité des maisons d’édition universitaire, l’auteur ne perçoit pas de droits d’auteur.

Le passage en ligne s’est accompagné d’une réflexion sur le format numérique lui-même. Il est ainsi possible de combiner une version papier et une version numérique, au format XML-TEI permettant ainsi un archivage et des réutilisations ultérieures. 
Le modèle économique a également été adapté.


Assurer un très bon référencement sur les moteurs de recherche et permettant d’élargir l’audience du lectorat.

Mais que l’ouvrage soit papier ou numérique, le processus de publication et le travail éditorial n’ont pas fondamentalement changé, associant à l’auteur, des directeurs de publications/collections (des rapporteurs, un comité éditorial et une équipe éditoriale, chargés d’apporter conseils, critiques et expertise rédactionnelle et formelle). La diversité des tâches (acceptation du manuscrit, fabrication de la maquette, relecture, gestion de l’iconographique) explique à la fois le délai de publication (compter entre 1 et 1,5 ans entre la soumission au comité et la publication effective) et les coûts (compter 1 300 € HT pour la relecture de 300 p.), et explique pourquoi de plus en plus de maisons d’édition limitent les étapes de relecture par exemple. Afin de faciliter ce processus, on ne saurait trop recommander aux auteurs de se renseigner sur les recommandations de la maison d’édition, voire à contacter les directeurs de publications et l’équipe éditoriale.

Mais la numérisation et la mise en ligne de documents initialement imprimés ont fait émerger de nouvelles questions : faut-il, selon la division proposée par Robert Chartier, 
  • proposer une version homothétique du papier au format numérique (simple PDF) 
  • ou faut-il profiter des potentialités du web (ajout de liens, de multimédia), sortant ainsi du principe du livre traditionnel comme espace clos ? 
C’est finalement un principe de réalité qui l’a emporté, tout simplement parce que le processus de réédition électronique est extrêmement long, voire parfois plus long que le processus d’édition électronique. 

Car à côté du travail d’édition (vérification de la numérisation, modernisation de l’édition…), il y a besoin d’une vraie réflexion sur les décisions à prendre ou encore le niveau d’intervention : 
dans quelle mesure enrichir le contenu (quatrième de couverture, mots-clés, compléments bibliographiques…) ?
faut-il donner simplement un texte historique ou favoriser sa réactualisation ? ; 
comment associer les pratiques de la publication papier et les nécessités de la navigation numérique 
(ex. : métadonnées au niveau même de l’article et non du volume ; 
métadonnées contrôlées quelles que soient les publications et diachronie autour d’un auteur ou d’une thématique ; 
renvoi vers d’autres éléments du site) ? 

Dans ces conditions, la décision a été prise de combiner 
  • une réédition scientifique, article par article, sur OpenEdition, et 
  • un archivage du PDF du volume initial historique dans son entier sur le portail Salamandre du Collège de France. 
Deux types d’édition différents ne répondant pas aux mêmes objectifs : dans le premier cas, un format facilitant la diffusion et la navigation ; et, dans le second, un format à des fins critiques. Et au final, ce travail est en fait moins une simple réédition qu’une édition de sources, rapprochant ainsi le travail des services de publication du travail de l’historien.

Donner accès à la recherche scientifique

Donner accès à la recherche scientifique, c’est donner accès à l’ensemble des documents de la science, qu’ils soient documents secondaires (publications, travaux universitaires) ou documents primaires (données, archives). Dans les deux cas, les professionnels de l’information comme les bibliothécaires ou les archivistes sont des personnes clés. Mais si l’on n’a pas attendu le développement du numérique pour faciliter l’accès aux documents, grâce aux catalogues par exemple, il est vrai que l’arrivée d’internet ouvre des perspectives plus larges à la visibilité de la science.

Premier exemple de cet accès renouvelé, le développement de plateformes de dépôt de publications, autrement appelées archives ouvertes. La présentation par Noémie Musnik de Spire, l’archive institutionnelle de Sciences Po, commence par re-situer cette archive dans le contexte plus large de l’open access, mouvement international visant à construire un réseau ouvert de diffusion et de partage de la connaissance scientifique en abaissant les barrières économiques (absence d’abonnement), technologiques (présence de métadonnées et interopérabilité) et juridiques (accès au contenu immédiat) et en ouvrant les données scientifiques à toutes les communautés scientifiques et à tous les publics (grand public, journalistes, décideurs). 
Comme pour les autres dépôts d’archives ouvertes – il y en aurait plus de 3 000 dans le monde et une centaine en France –, Spire (Sciences Po Institutional Repository) repose sur le principe de l’auto-archivage de ses documents par le chercheur. 
Ouvert à différents types de documents (littérature grise, articles à venir/publiés…), il a pour objectif de référencer l’ensemble des publications des chercheurs de Sciences Po, et en accroître ainsi la visibilité. De fait, le contenu de Spire est visible sur les moteurs de recherche, y compris scientifiques comme Google Scholar ou Isidore, les principaux portails… 
Néanmoins, si le dépôt du texte intégral est vivement recommandé, il n’est pas automatique (seulement 32 % des références disposeraient ainsi du texte intégral). Or, au-delà du simple signalement, Spire a vocation à diffuser les documents déposés en texte intégral, mais aussi à leur assurer une conservation pérenne et établir leur antériorité scientifique. Par ailleurs, et c’est une particularité de cette archive, la publication déposée n’est pas systématiquement visible sur internet et peut n’être qu’une copie privée à des fins d’archivage. Reposant sur une solide organisation interne (coordinateurs dans chaque laboratoire au plus près des chercheurs, services supports, manuel d’utilisation…), l’archive ouverte de Sciences Po amène une véritable réflexion politique en faveur d’une forte incitation au dépôt, d’autant que d’autres services concurrents comme les réseaux sociaux (Academia, ResearchGate) n’apportent, de leur côté, aucune garantie en terme d’open access et de pérennité des données déposées.

Exemple spire:
Ready for the Future? A Survey on Open Access with Scientists from the French National Research Center (CNRS)
qui est une ref biblio qui va vers:


Ref: http://urfist.enc-sorbonne.fr/veille-et-recherche/ateliers/les-boudoirs-de-lhistorienne/seance-du-8-decembre-2015-editer-publier-a

Saturday, January 7, 2017

L'accompagnement à l'édition numérique multi-support de revue/livre scientifique en accès libre sans frais. Licences creative commons.


Le domaine est la recherche :

  • du "meilleur" logiciel de gestion de revues gratuites multisupport (papier, écrans) et open access sans frais pour les auteurs et les directeurs de collection avec le plus de metadonnées interoperables et "pérennes",
  • du "meilleur" service de hosting pérenne, rapide sans frais,
  • du "meilleur" service qui permette les collectes des metadonnées pour les autres acteurs (par exemple webOfScience, les moteurs de recherche généraux et spécialisés...).

La vision d'aide à la collecte des metadonnées doit être considérée dès le passage du document de l'auteur au process d'édition.
The Open Archives Initiative Protocol for Metadata Harvesting (OAI-PMH)
http://www.openarchives.org/OAI/openarchivesprotocol.html
Guiding Principles for Findable, Accessible, Interoperable and Re-usable Data Publishing
https://www.force11.org/fairprinciples

There are two classes of participants in the OAI-PMH framework:

  • Data Providers administer systems that support the OAI-PMH as a means of exposing metadata; and
  • Service Providers use metadata harvested via the OAI-PMH as a basis for building value-added services.


Intro

Le libre accès (en anglais : open access) est la mise à disposition en ligne de contenus numériques interactifs ou non, qui peuvent eux-mêmes être
  • soit libres (Creative commons, etc.), s
  • soit sous un des régimes de propriété intellectuelle.

    L’open access est principalement utilisé pour les articles de revues de recherche universitaires, sélectionnés par des pairs. On devrait, en réalité, distinguer 
    • le libre accès (libre open access en anglais) et 
    • l'accès ouvert (gratis open access1),

      afin de distinguer plus nettement ce qui est « simplement » en accès gratuit pour l'internaute (accès ouvert) et ce qui est en accès gratuit et libre, parce que soumis à une licence d'utilisation dite libre (Creative commons, par exemple). 

Dans la publication en libre accès, 
on distingue 
-la voie en or  du libre accès (Gold Open Access, Gold OA)
 les revues rendent leurs articles directement et immédiatement accessibles au public. Ces publications s'appellent des « revues en accès ouvert» (« Open access journals »). Actuellement (dec 2016) de l'ordre de 20%. Un exemple de publications en libre accès est le célèbre portail "Public Library of Science" https://www.plos.org/
Le plus souvent, il faut payer : principe du "auteur-payeur".

-la voie verte ("green OA")
l'auteur publie une pré-version (prépublication de documents de travail) en auto-archivage sur une archive ouverte gratuite (antériorité) et soumets dans une revue qui fait appel à des referees (qui traitent le manuscript gratuitement), qui l'accepte et qui lui confisque ses droits. Mais le plus souvent on peut le distribuer qu' 1an après.
Avec la nouvelle loi d'octobre 2016, en France c'est un délai de quarantaine de 6mois sauf pour les sciences sociales/humaines dont le délai est de 12 mois.
Le plus souvent il n'y aucune rémunération pour l'auteur.
Les grands éditeurs font payer très cher l'accès aux articles aux bibliothèques universitaires et des organismes de recherche comme le CNRS.
Pour vérifier si un éditeur a donné son accord à un auteur pour l'auto-archivage, l'auteur peut vérifier quelle est la politique de l'éditeur vis-à-vis de l'auto-archivage sur le site web SHERPA/RoMEO mis en place par le JISC. En France, le projet Héloïse [archive] remplit la même fonction.

Les universités et grands organismes commencent à adapter leurs politiques, en exigeant que leurs chercheurs rendent disponibles leurs publications en libre accès, et développent les archives ouvertes institutionnelles sur lesquelles ces publications peuvent être déposées. Comme par exemple, le CNRS via son projet HAL (Hyper articles en ligne), porté par l'UMS CNRS Centre pour la communication scientifique directe.


Il y a divers acteurs dans ce monde:
  • les auteurs, les directeurs de publication, les directeurs de collection
  • les bibliothécaires
  • les éditeurs
  • les acteurs de la bibliométrie (exemple JCI).
Les bibliothécaires sont souvent de fervents défenseurs de l'Open Access, parce que l'accès à l'information se situe au cœur même des préoccupations de cette profession. Beaucoup d'associations de bibliothèques ont signé des déclarations en faveur de l'Open Access : par exemple, en juin 2004, « l'association canadienne des bibliothèques » a approuvé une résolution sur l'Open Access ; l'association des bibliothèques de recherches américaine est l'une des principales fondatrices de la coalition pour la publication de recherche : Scholarly Publishing and Academic Ressources Coalition (SPARC).

En Amérique du Nord, dans beaucoup d'universités, la bibliothèque est le centre des archives institutionnelles, où les auteurs déposent leurs articles ou ouvrages. Quelques bibliothèques sont à l'origine de revues telles que le Journal of Insect Science de la bibliothèque de l'université de l'Arizona, ou fournissent un support technique afin de créer des revues. 
Les bibliothèques de l'Université des Antilles assurent par exemple l'accompagnement à l'édition numérique de la revue en accès libre Études caribéennes, elles administrent l'archive institutionnelle HAL-UAG et pilotent la bibliothèque numérique Manioc.org, portail de valorisation du patrimoine et de la recherche de la zone Caraïbe- Amazonie-Plateau des Guyanes.

Il existe beaucoup d'éditeurs différents et de types d'éditeurs au sein de la communauté scientifique. Les réactions des éditeurs de revues vis-à-vis du libre accès sont "contrastées". Certains y voient de nouvelles opportunités économiques et mettent en place des programmes d'accès « hybride » à leurs publications : la revue est alors diffusée de façon traditionnelle sur abonnement, mais l'auteur d'un article peut également payer pour que celui-ci soit disponible en accès libre. L'éditeur est donc payé deux fois pour les articles diffusés selon ce modèle. D'autres font du lobbying très actif contre les propositions du mouvement open access ou des acteurs du scan agressif style google books (et scholar).

Bref il existe deux types de revue avec des articles en open access:

  • Fee-based open access journals
    Fee-based open access journals require payment on behalf of the author.
    The money might come from the author but more often comes from the author's research grant or employer. In cases of economic hardship, many journals will waive all or part of the fee. (This includes instances where the authors come from a less developed economy).
    Journals charging publication fees normally take various steps to ensure that editors conducting peer review do not know whether authors have requested, or been granted, fee waivers, or to ensure that every paper is approved by an independent editor with no financial stake in the journal. While the payments are often incurred per article published (e.g. BMC journals or PLOS ONE), there are some journals that apply them per manuscript submitted (e.g. Atmospheric Chemistry and Physics) or per author (PeerJ).
    A 2013 study found that only 28% of journals in the Directory of Open Access Journals (DOAJ) required payment by the authors, however, this figure was higher in journals with a scientific or medical focus (43% and 47% respectively), and lowest in journals publishing in the arts and humanities (0% and 4% respectively).
    http://onlinelibrary.wiley.com/doi/10.1002/asi.22972/abstract;jsessionid=C1276B15030DB2B07AA79EBC1DD89C63.f02t03
  • No-fee open access journals
    No-fee open access journals use a variety of business models. As summarized by Peter Suber: "Some no-fee OA journals have direct or indirect subsidies from institutions like universities, laboratories, research centers, libraries, hospitals, museums, learned societies, foundations, or government agencies. Some have revenue from a separate line of non-OA publications. Some have revenue from advertising, auxiliary services, membership dues, endowments, reprints, or a print or premium edition. Some rely, more than other journals, on volunteerism. Some undoubtedly use a combination of these means".
Ref: https://en.wikipedia.org/wiki/Open_access_journal
https://en.wikipedia.org/wiki/Open_Journal_Systems

Les licences

Les plus connues sont les licences Creative Commons qui constituent un ensemble de licences régissant les conditions de réutilisation et de distribution d'œuvres.

Licences Creative Commons, leur code et leur symbole
Désignation complète du contratTerme abrégéSymbolesType de licence
ZéroCC-ZeroCreative Commons Zero iconLicence libre non copyleft
AttributionCC-BYCreative Commons Attribution iconLicence libre non copyleft
Attribution
Partage des conditions initiales à l'identique
CC-BY-SACreative Commons Attribution iconCreative Commons Share Alike iconLicence libre copyleft
Attribution
Pas de modification
CC-BY-NDCreative Commons Attribution iconCreative Commons No Derivative Works iconLicence de libre diffusion
Attribution
Pas d'utilisation commerciale
CC-BY-NCCreative Commons Attribution iconCreative Commons Noncommercial iconLicence de libre diffusion
Attribution
Pas d'utilisation commerciale
Partage des conditions initiales à l'identique
CC-BY-NC-SACreative Commons Attribution iconCreative Commons Noncommercial iconCreative Commons Share Alike iconLicence de libre diffusion
Attribution
Pas d'utilisation commerciale
Pas de modification
CC-BY-NC-NDCreative Commons Attribution iconCreative Commons Noncommercial iconCreative Commons No Derivative Works iconLicence de libre diffusion
Attribution [BY] (Attribution) : l'œuvre peut être librement utilisée, à la condition de l'attribuer à l'auteur en citant son nom.
CC Plus est un protocole annexe aux licences ouvertes Creative Commons, formalisant l'acte de vente de droits supplémentaires à la licence de base, souvent des droits d'exploitation commerciale. Lancé en 2007, il a depuis été adopté par des acteurs comme Flickr.

Version actuelle (2017) : 4.0

Les systèmes libres de publication scientifique (digital publishing platform)

Ces systèmes  permettent de publier en ligne et de gérer les flux de production des articles ou des livres issus d'un traitement de texte ou d'autres logiciels de mise en page ou de taper son texte directement avec un SaaS.
Des systèmes libres de publication sont disponibles et en "open source" pour ceux qui souhaitent diffuser leur revue scientifique en libre accès.

The Open Access Directory (OAD) is a compendium of simple factual lists about open access (OA) to science and scholarship, maintained by the OA community at large.
This alphatical list is part of the Open Access Directory
http://oad.simmons.edu/oadwiki/Free_and_open-source_journal_management_software



Open Journal Systems (OJS) de « Public Knowledge Project »

C'est le leader.
https://pkp.sfu.ca/ojs/
développé grâce au « Public Knowledge Project »
voir un de mes post:
http://stephane-mottin.blogspot.fr/2017/01/open-journal-systems-de-public.html

ArsDigita Community System and openACS

The ArsDigita Community System (ACS) was an open source toolkit for developing community web applications developed primarily by developers associated with ArsDigita Corporation. It was licensed under the terms of the GNU GPL, and is one of the most famous products to be based completely on AOLserver. Although there were several forks of the project, the only one that is still actively maintained is OpenACS.
The Open Architecture Community System (ACS).

http://openacs.org/
OpenACS is a toolkit for building scalable, community-oriented web applications. OpenACS is the foundation for many products and websites, including the .LRN (pronounced "dot learn") e-learning platform.
Projects that were or are based on OpenACS include dotLrn, dotFolio, dotCommunity, dotConsult, and Project-Open.
OpenACS runs on AOLserver and NaviServer with either Oracle or PostgreSQL as its database.

  • Ubuntu packages 
  • Debian packages 
  • Windows Distribution

Sponsors: AOE media GmbH
https://www.aoe.com/en/solutions/web-content-management/open-source-vs-commercial.htmlOpen Source CMS vs. proprietary CMS
TYPO3
YPO3 vs. Drupal
TYPO3 vs. Joomla!
TYPO3 vs. Wordpress
There are numerous commercially available, proprietary Content Management Systems (CMS) that are primarily suited for business-critical applications. Several are extensive Enterprise-class solutions – but the majority are small solutions, usually implemented locally or in specific market segments.

Substance,  Texture and eLife Texture Lens

Texture will be packaged with Open Journal Systems (OJS) and be a critical part in Érudit's new production workflow.

voir un de mes posts:
http://stephane-mottin.blogspot.fr/2017/01/substance-texturejs-interchange-of.html

Together with eLife, Substance is developing Lens, an open source toolkit around scientific content. In June 2013 eLife launched the original Lens Reader, which provides a novel way of looking at content on the web.
Self-host a scientific journal with eLife Lens
https://medium.com/@_mql/self-host-a-scientific-journal-with-elife-lens-f420afb678aa#.c9lw7spqh

eLife Lens, a minimalist open source publishing software that allows self-hosting of a scientific journal.
https://github.com/elifesciences/lens


Lodel 

Logiciel d'édition électronique créé par le portail public Revues.org, openEdition, est également disponible (en français). 
C’est un CMS (en anglais Content management system) développé par le Cléo, une UMS CNRS de Marseille
depuis 2000 et distribué sous licence GPL 2.
  • Modèle de document Word/libreOffice pour le modèle éditorial de revues
  • Serveur en Linux uniquement.

Persée

Une des particularités de Persée a été, dès son origine, la volonté d'abolir le fossé qui existe traditionnellement entre la manipulation et l'exploitation de documents issus d'un processus de numérisation et de documents nativement électroniques avec un accent sur l'interopérabilité:
http://www.persee.fr/interoperabilite
http://www.persee.fr/web/guest/modeles-documentaires
Hélas c'est un système avec une bureaucratie et sans logiciel open.

Erudit

La production éditoriale réalisée chez Érudit repose sur l’usage du XML. Les articles sont balisés sémantiquement à l’aide du schéma Érudit Article, développé par l’équipe Érudit du Centre d’édition de l’Université de Montréal.
Le schéma Érudit Article:
http://www.erudit.org/xsd/article/3.0.0/doc/
https://apropos.erudit.org/fr/

Érudit, a publishing platform, has received $1.4 million from the Canada Foundation for Innovation in order to strengthen the services it provides to Canadian universities, accelerate its technological development, and support the development of digital research in social sciences and the arts (2015).
http://nouvelles.umontreal.ca/en/article/2015/01/23/canada-foundation-for-innovation-invests-1.4-million-in-erudit-publishing-platform/

https://apropos.erudit.org/fr/succes-grandissant-pour-le-corpus-derudit-aux-etats-unis/

https://fr.wikipedia.org/wiki/%C3%89rudit_(%C3%A9dition)

Basé sur des standards internationaux, la chaîne d’édition numérique d’Érudit assure la création de documents numériques finement balisés, favorisant leur accessibilité et l’exploitation de leurs données de recherche.


Les fichiers produits sont optimisés pour la diffusion web (repérage et temps de téléchargement) et sont offerts en formats PDF, XML ou XHTML.
https://apropos.erudit.org/fr/editeurs/services-offerts/
La production de numéros courants diffusés sur Érudit est facturée annuellement aux revues.


SCOAP3

Working with leading publishers, SCOAP3 has converted key journals in the field of High-Energy Physics to Open Access at no cost for authors. SCOAP3 centrally pays publishers for costs involved in providing Open Access, publishers in turn reduce subscription fees to all their customers, who can re-direct these funds to contribute to SCOAP3. Each country contributes in a way commensurate to its scientific output in the field. In addition, existing Open Access journals are also centrally supported, removing any existing financial barrier for authors.

Effective Costs per Article
The SCOAP3 tendering process conducted by CERN for the benefit of SCOAP3, resulted in agreed-upon Article Processing Charges (APCs) for journals participating in the first phase of SCOAP3 (2014-2016) and defined the corresponding maximum annual payment amounts.
Within the SCOAP3 model, these APCs are not paid by authors, but centrally by SCOAP3, from a common fund to which libraries, library consortia, research institutions and funding agencies jointly contribute. SCOAP3 articles are defined as either all articles appearing in journals mostly carrying High-Energy Physics content, or articles appearing in “broad band” journals which have been submitted by researchers to arXiv under one of the High-Energy Physics categories.
The maximum yearly payment by SCOAP3 for each journal for the first year of operation (2014) was based on the journal APC and the number of SCOAP3 articles published in 2011 (the latest year for which complete data were available at the time of tendering). The APCs themselves and the SCOAP3 budget envelope are fixed for the duration of the three-year contract period (2014 – 2016). In 2015 and 2016, the maximum yearly payment amounts consider a growth component of  between 8% for “large” journals and 50% for “small” journals, to account for the increasing number number of articles and the dynamics introduced by SCOAP3.

Taking into account these caps and the actual growth of the journals, the average effective cost per article for SCOAP3 is ca. 1,150 EUR. More details are given in a recent working paper (http://cds.cern.ch/record/1735210).
https://scoap3.org/scoap3journals/#costperarticle

About the repository 

All articles funded by SCOAP3 appear in the SCOAP3 repository upon publication, alongside the publishers’ own platforms. Several formats are available, including PDF, PDF/A and XML. Articles are published under a CC-BY license and can be freely downloaded and further disseminated. The repository metadata is also available under a CC0 license. These metadata include article DOIs and the ORCIDs of authors, when available.
The scope of the SCOAP3 repository is neither to duplicate arXiv nor the publisher platforms, nor offer value-added services such as those of INSPIRE. It is rather a staging platform, for further distribution of information. The repository has been launched in early February 2014 and is continuously being upgraded. It is freely accessible here.
The repository is built on top of the CERN Invenio digital library open source platform, and the source code is available on GitHub,
https://github.com/SCOAP3
together with some example applications written by partners in the SCOAP3 community to build additional services.
http://invenio-software.org/


---

Offres payantes des "5 big editors" pour les organisateurs, directeur de collection

« L’ère numérique a eu un effet majeur. À partir de 1995, 5 grands éditeurs savants (Elsevier, Springer, Wiley, Tailor and Francis, Sage) ont augmenté leur contrôle; tant dans les sciences sociales et humaines que dans les sciences naturelles et le génie, ces grands éditeurs contrôlent plus de la moitié du marché. »
post d'oct 2016:

un article dans PLOS one de 2015:

En SNM, la chimie est, sans surprise, le domaine le plus concentré (71 %), puisque l'un de ses éditeurs disciplinaires, l'American Chemical Society, fait partie du top 5. La physique, par contre, suit un modèle différent : après avoir augmenté de 20% en 1973 à 35% en 2000, la tendance s’est depuis stabilisée et elle demeure aujourd’hui la discipline où les cinq premiers éditeurs représentent la plus faible proportion d'articles publiés. L'importance des sociétés savantes en physique (APS, AIP, IOP), du serveur de prépublication arXiv, ainsi que les accords de libre accès tels que SCOAP3 , rendrait ce domaine moins rentable et donc moins intéressant pour les éditeurs commerciaux.

Exemple d'offres payantes pour les organisateurs de conference

EDP Web of Conferences 
On a certains services comme http://www.webofconferences.org/
d'Edp sciences.
Ces prestations s’appuient sur l’expérience éditoriale et le savoir-faire reconnu d’EDP Sciences dans le domaine du traitement et de la diffusion de l'information scientifique.
Il faut faire faire un devis:
http://www.webofconferences.org/index.php?option=com_content&view=article&id=124&Itemid=82&lang=fr
et attendre 1 à 3 mois de publication.
Tous les contenus sont placés sous licence Creative Commons Attribution qui autorise la libre utilisation, distribution et reproduction du travail, à la condition que le document original soit correctement cité.
Exemple:
http://www.shs-conferences.org/articles/shsconf/abs/2016/05/shsconf_cmlf2016_01002/shsconf_cmlf2016_01002.html
que du téléchargement de pdf...


Rem:
Les éditeurs des pays en voie de développement peuvent entrer en contact avec Bioline International afin de recevoir une aide gratuite pour créer une publication électronique. La mission de Bioline International est de réduire le fossé de connaissance entre le Sud et le Nord, en aidant les éditeurs des pays en voie de développement à rendre leurs travaux plus accessibles grâce à l'électronique.


https://fr.wikipedia.org/wiki/Licence_Creative_Commons