Showing posts with label flickr. Show all posts
Showing posts with label flickr. Show all posts

Sunday, January 8, 2017

liste des alternatives aux services google; Partage de PDF/ODP ODF sans google drive. CMS à l'Xml sans aucune base de données car les données sont stockées dans des fichiers xml.


Une initiative du réseau Framasoft en faveur d’un internet libre, décentralisé, éthique et solidaire
https://degooglisons-internet.org/alternatives

À moins de s’auto-héberger, le cloud ou les web services sont toujours dans la structure dépendance de l’ordinateur/serveurs de quelqu’un d’autre. Il est donc important de savoir à qui nous faisons confiance et ce que font les logiciels de nos données et de nos comportements.

Les services de base

Navigateur:
Firefox
Tor Browser

Réduction d’URL Lstu

Moteur recherche
https://github.com/asciimoo/searx
 Searx,
DuckDuckGo

Rédaction collaborative
http://etherpad.org/

Tableur collaboratif
https://ethercalc.org/

Slide
http://strut.io/
Store your presentations on Strut.io or use Strut in offline mode.
bof

Dessin vectoriel
https://github.com/SVG-Edit/svgedit
https://svg-edit.github.io/svgedit/releases/svg-edit-2.8.1/svg-editor.html

Stockage de documents
https://nextcloud.com/
https://github.com/nextcloud
Through Nextcloud you also access, sync and share your existing data on that FTP drive at the office, dropbox or a NAS you have at home.

free providers:
https://nextcloud.com/providers/
zaclis: 1Go free
unixcorn:
http://linuxfr.org/news/unixcorn-trois-mois-plus-tard-evolutions-remises-en-questions-et-stabilisation

partage photo/video
Wikimedia Commons
https://commons.wikimedia.org/wiki/Accueil?uselang=fr

Forge (no GitHub)
https://about.gitlab.com/
https://about.gitlab.com/features/

Partage de code
autre que Codepen ou jsFiddle
http://jsbin.com/?html,output
http://dabblet.com/

alternatives google BOOKS/amazon

wikisource
https://fr.wikisource.org/wiki/Wikisource:Accueil
et autre wiki

BicBucStriim
surtout pour du "in-house":
BicBucStriim streams books, digital books. It fills a gap in the functionality of current NAS devices that provide access to music, videos and photos -- but not books. BicBucStriim fills this gap and provides web-based access to your e-book collection.
BicBucStriim is a simple PHP application that runs in the Apache/PHP environment provided by the NAS. It assumes that you manage your e-book collection with Calibre. The application reads the Calibre data and publishes it in HTML form. To access the e-book catalog you simply point your ebook reader to your NAS, select one of your e-books and download it.

http://calibre-ebook.com/
https://github.com/rvolz/BicBucStriim

Calibre OPDS (and HTML) PHP Server : web-based light alternative to Calibre content server / Calibre2OPDS to serve ebooks (epub, mobi, pdf, ...)
In my opinion Calibre is a marvelous tool but is too big and has too much dependencies to be used for its content server.
PHP server
https://github.com/seblucas/cops

https://calibre2opds.com/

Partage de PDF/ODP ODF

à part scribd
https://www.scribd.com/
à éviter (pas licence CCC)...

http://webodf.org/
WebODF.js is a JavaScript library that makes it easy to add Open Document Format (ODF) support to your website and to your mobil.
https://github.com/kogmbh/WebODF


used by
http://webodf.org/apps/
ownCloud Documents
Tiki Docs

Add-on for Firefox
WebODF was also used to create a Viewer for OpenDocument Format office files for Mozilla Firefox. It can be downloaded and installed from Mozilla's Add-on website.

ViewerJS
ViewerJS is an Open Source document viewer that enables embedding ODF or PDF files directly in webpages, without any external server dependencies. It uses PDF.js for files in PDF and WebODF for files in the OpenDocument format. Get ViewerJS from the ViewerJS website.
http://viewerjs.org/getit/

The heavy lifting in ViewerJS is done by these awesome projects:
PDF.js (by Mozilla)
PDF.js is a library created by Andreas Gal and others at Mozilla Labs. It is an HTML5 technology experiment that explores building a faithful and efficient Portable Document Format (PDF) renderer without native code assistance. PDF.js is community-driven and supported by Mozilla Labs. Its goal is to create a general-purpose, web standards-based platform for parsing and rendering PDFs, and eventually release a PDF reader extension powered by PDF.js.
http://mozilla.github.io/pdf.js/
https://github.com/mozilla/pdf.js  (4000forks janv 2017)

WebODF gallery/directory
Using the web toolkit Ext.JS, a demo site was built. Here one can browser a set of documents and look at them in the browser.
http://webodf.org/demo/demobrowser/




CMS blog (style blogger) sans base de données

pluxml

Blog ou CMS à l'Xml
  • Simple et léger
  • Sans base de données
  • Collaboratif
  • Thèmes
  • Plugins
http://www.pluxml.org/
https://github.com/PluXml

  • Serveur Apache, Nginx ou Lighttpd
  • PHP 5 ou supérieur
  • Librairie GD pour la gestion des images
  • Fonction php d'envoi d'email autorisée (non obligatoire)

Aucune base de données
Toutes les données sont stockées dans des fichiers xml.
Une simple copie de fichiers permet de déplacer votre site sur une clé usb, ce qui le rend complètement portable.
Outil collaboratif; 5 profils avec des niveaux d'autorisations différents.
Pour la famille, les amis, une entreprise, PluXml trouvera sa place.

Thèmes
PluXml s'habille suivant vos envies pour que votre site soit à votre image.

Plugins
Etendez votre PluXml sans aucune ligne de programmation en ajoutant facilement des nouvelles fonctionnalités.

Saturday, January 7, 2017

L'accompagnement à l'édition numérique multi-support de revue/livre scientifique en accès libre sans frais. Licences creative commons.


Le domaine est la recherche :

  • du "meilleur" logiciel de gestion de revues gratuites multisupport (papier, écrans) et open access sans frais pour les auteurs et les directeurs de collection avec le plus de metadonnées interoperables et "pérennes",
  • du "meilleur" service de hosting pérenne, rapide sans frais,
  • du "meilleur" service qui permette les collectes des metadonnées pour les autres acteurs (par exemple webOfScience, les moteurs de recherche généraux et spécialisés...).

La vision d'aide à la collecte des metadonnées doit être considérée dès le passage du document de l'auteur au process d'édition.
The Open Archives Initiative Protocol for Metadata Harvesting (OAI-PMH)
http://www.openarchives.org/OAI/openarchivesprotocol.html
Guiding Principles for Findable, Accessible, Interoperable and Re-usable Data Publishing
https://www.force11.org/fairprinciples

There are two classes of participants in the OAI-PMH framework:

  • Data Providers administer systems that support the OAI-PMH as a means of exposing metadata; and
  • Service Providers use metadata harvested via the OAI-PMH as a basis for building value-added services.


Intro

Le libre accès (en anglais : open access) est la mise à disposition en ligne de contenus numériques interactifs ou non, qui peuvent eux-mêmes être
  • soit libres (Creative commons, etc.), s
  • soit sous un des régimes de propriété intellectuelle.

    L’open access est principalement utilisé pour les articles de revues de recherche universitaires, sélectionnés par des pairs. On devrait, en réalité, distinguer 
    • le libre accès (libre open access en anglais) et 
    • l'accès ouvert (gratis open access1),

      afin de distinguer plus nettement ce qui est « simplement » en accès gratuit pour l'internaute (accès ouvert) et ce qui est en accès gratuit et libre, parce que soumis à une licence d'utilisation dite libre (Creative commons, par exemple). 

Dans la publication en libre accès, 
on distingue 
-la voie en or  du libre accès (Gold Open Access, Gold OA)
 les revues rendent leurs articles directement et immédiatement accessibles au public. Ces publications s'appellent des « revues en accès ouvert» (« Open access journals »). Actuellement (dec 2016) de l'ordre de 20%. Un exemple de publications en libre accès est le célèbre portail "Public Library of Science" https://www.plos.org/
Le plus souvent, il faut payer : principe du "auteur-payeur".

-la voie verte ("green OA")
l'auteur publie une pré-version (prépublication de documents de travail) en auto-archivage sur une archive ouverte gratuite (antériorité) et soumets dans une revue qui fait appel à des referees (qui traitent le manuscript gratuitement), qui l'accepte et qui lui confisque ses droits. Mais le plus souvent on peut le distribuer qu' 1an après.
Avec la nouvelle loi d'octobre 2016, en France c'est un délai de quarantaine de 6mois sauf pour les sciences sociales/humaines dont le délai est de 12 mois.
Le plus souvent il n'y aucune rémunération pour l'auteur.
Les grands éditeurs font payer très cher l'accès aux articles aux bibliothèques universitaires et des organismes de recherche comme le CNRS.
Pour vérifier si un éditeur a donné son accord à un auteur pour l'auto-archivage, l'auteur peut vérifier quelle est la politique de l'éditeur vis-à-vis de l'auto-archivage sur le site web SHERPA/RoMEO mis en place par le JISC. En France, le projet Héloïse [archive] remplit la même fonction.

Les universités et grands organismes commencent à adapter leurs politiques, en exigeant que leurs chercheurs rendent disponibles leurs publications en libre accès, et développent les archives ouvertes institutionnelles sur lesquelles ces publications peuvent être déposées. Comme par exemple, le CNRS via son projet HAL (Hyper articles en ligne), porté par l'UMS CNRS Centre pour la communication scientifique directe.


Il y a divers acteurs dans ce monde:
  • les auteurs, les directeurs de publication, les directeurs de collection
  • les bibliothécaires
  • les éditeurs
  • les acteurs de la bibliométrie (exemple JCI).
Les bibliothécaires sont souvent de fervents défenseurs de l'Open Access, parce que l'accès à l'information se situe au cœur même des préoccupations de cette profession. Beaucoup d'associations de bibliothèques ont signé des déclarations en faveur de l'Open Access : par exemple, en juin 2004, « l'association canadienne des bibliothèques » a approuvé une résolution sur l'Open Access ; l'association des bibliothèques de recherches américaine est l'une des principales fondatrices de la coalition pour la publication de recherche : Scholarly Publishing and Academic Ressources Coalition (SPARC).

En Amérique du Nord, dans beaucoup d'universités, la bibliothèque est le centre des archives institutionnelles, où les auteurs déposent leurs articles ou ouvrages. Quelques bibliothèques sont à l'origine de revues telles que le Journal of Insect Science de la bibliothèque de l'université de l'Arizona, ou fournissent un support technique afin de créer des revues. 
Les bibliothèques de l'Université des Antilles assurent par exemple l'accompagnement à l'édition numérique de la revue en accès libre Études caribéennes, elles administrent l'archive institutionnelle HAL-UAG et pilotent la bibliothèque numérique Manioc.org, portail de valorisation du patrimoine et de la recherche de la zone Caraïbe- Amazonie-Plateau des Guyanes.

Il existe beaucoup d'éditeurs différents et de types d'éditeurs au sein de la communauté scientifique. Les réactions des éditeurs de revues vis-à-vis du libre accès sont "contrastées". Certains y voient de nouvelles opportunités économiques et mettent en place des programmes d'accès « hybride » à leurs publications : la revue est alors diffusée de façon traditionnelle sur abonnement, mais l'auteur d'un article peut également payer pour que celui-ci soit disponible en accès libre. L'éditeur est donc payé deux fois pour les articles diffusés selon ce modèle. D'autres font du lobbying très actif contre les propositions du mouvement open access ou des acteurs du scan agressif style google books (et scholar).

Bref il existe deux types de revue avec des articles en open access:

  • Fee-based open access journals
    Fee-based open access journals require payment on behalf of the author.
    The money might come from the author but more often comes from the author's research grant or employer. In cases of economic hardship, many journals will waive all or part of the fee. (This includes instances where the authors come from a less developed economy).
    Journals charging publication fees normally take various steps to ensure that editors conducting peer review do not know whether authors have requested, or been granted, fee waivers, or to ensure that every paper is approved by an independent editor with no financial stake in the journal. While the payments are often incurred per article published (e.g. BMC journals or PLOS ONE), there are some journals that apply them per manuscript submitted (e.g. Atmospheric Chemistry and Physics) or per author (PeerJ).
    A 2013 study found that only 28% of journals in the Directory of Open Access Journals (DOAJ) required payment by the authors, however, this figure was higher in journals with a scientific or medical focus (43% and 47% respectively), and lowest in journals publishing in the arts and humanities (0% and 4% respectively).
    http://onlinelibrary.wiley.com/doi/10.1002/asi.22972/abstract;jsessionid=C1276B15030DB2B07AA79EBC1DD89C63.f02t03
  • No-fee open access journals
    No-fee open access journals use a variety of business models. As summarized by Peter Suber: "Some no-fee OA journals have direct or indirect subsidies from institutions like universities, laboratories, research centers, libraries, hospitals, museums, learned societies, foundations, or government agencies. Some have revenue from a separate line of non-OA publications. Some have revenue from advertising, auxiliary services, membership dues, endowments, reprints, or a print or premium edition. Some rely, more than other journals, on volunteerism. Some undoubtedly use a combination of these means".
Ref: https://en.wikipedia.org/wiki/Open_access_journal
https://en.wikipedia.org/wiki/Open_Journal_Systems

Les licences

Les plus connues sont les licences Creative Commons qui constituent un ensemble de licences régissant les conditions de réutilisation et de distribution d'œuvres.

Licences Creative Commons, leur code et leur symbole
Désignation complète du contratTerme abrégéSymbolesType de licence
ZéroCC-ZeroCreative Commons Zero iconLicence libre non copyleft
AttributionCC-BYCreative Commons Attribution iconLicence libre non copyleft
Attribution
Partage des conditions initiales à l'identique
CC-BY-SACreative Commons Attribution iconCreative Commons Share Alike iconLicence libre copyleft
Attribution
Pas de modification
CC-BY-NDCreative Commons Attribution iconCreative Commons No Derivative Works iconLicence de libre diffusion
Attribution
Pas d'utilisation commerciale
CC-BY-NCCreative Commons Attribution iconCreative Commons Noncommercial iconLicence de libre diffusion
Attribution
Pas d'utilisation commerciale
Partage des conditions initiales à l'identique
CC-BY-NC-SACreative Commons Attribution iconCreative Commons Noncommercial iconCreative Commons Share Alike iconLicence de libre diffusion
Attribution
Pas d'utilisation commerciale
Pas de modification
CC-BY-NC-NDCreative Commons Attribution iconCreative Commons Noncommercial iconCreative Commons No Derivative Works iconLicence de libre diffusion
Attribution [BY] (Attribution) : l'œuvre peut être librement utilisée, à la condition de l'attribuer à l'auteur en citant son nom.
CC Plus est un protocole annexe aux licences ouvertes Creative Commons, formalisant l'acte de vente de droits supplémentaires à la licence de base, souvent des droits d'exploitation commerciale. Lancé en 2007, il a depuis été adopté par des acteurs comme Flickr.

Version actuelle (2017) : 4.0

Les systèmes libres de publication scientifique (digital publishing platform)

Ces systèmes  permettent de publier en ligne et de gérer les flux de production des articles ou des livres issus d'un traitement de texte ou d'autres logiciels de mise en page ou de taper son texte directement avec un SaaS.
Des systèmes libres de publication sont disponibles et en "open source" pour ceux qui souhaitent diffuser leur revue scientifique en libre accès.

The Open Access Directory (OAD) is a compendium of simple factual lists about open access (OA) to science and scholarship, maintained by the OA community at large.
This alphatical list is part of the Open Access Directory
http://oad.simmons.edu/oadwiki/Free_and_open-source_journal_management_software



Open Journal Systems (OJS) de « Public Knowledge Project »

C'est le leader.
https://pkp.sfu.ca/ojs/
développé grâce au « Public Knowledge Project »
voir un de mes post:
http://stephane-mottin.blogspot.fr/2017/01/open-journal-systems-de-public.html

ArsDigita Community System and openACS

The ArsDigita Community System (ACS) was an open source toolkit for developing community web applications developed primarily by developers associated with ArsDigita Corporation. It was licensed under the terms of the GNU GPL, and is one of the most famous products to be based completely on AOLserver. Although there were several forks of the project, the only one that is still actively maintained is OpenACS.
The Open Architecture Community System (ACS).

http://openacs.org/
OpenACS is a toolkit for building scalable, community-oriented web applications. OpenACS is the foundation for many products and websites, including the .LRN (pronounced "dot learn") e-learning platform.
Projects that were or are based on OpenACS include dotLrn, dotFolio, dotCommunity, dotConsult, and Project-Open.
OpenACS runs on AOLserver and NaviServer with either Oracle or PostgreSQL as its database.

  • Ubuntu packages 
  • Debian packages 
  • Windows Distribution

Sponsors: AOE media GmbH
https://www.aoe.com/en/solutions/web-content-management/open-source-vs-commercial.htmlOpen Source CMS vs. proprietary CMS
TYPO3
YPO3 vs. Drupal
TYPO3 vs. Joomla!
TYPO3 vs. Wordpress
There are numerous commercially available, proprietary Content Management Systems (CMS) that are primarily suited for business-critical applications. Several are extensive Enterprise-class solutions – but the majority are small solutions, usually implemented locally or in specific market segments.

Substance,  Texture and eLife Texture Lens

Texture will be packaged with Open Journal Systems (OJS) and be a critical part in Érudit's new production workflow.

voir un de mes posts:
http://stephane-mottin.blogspot.fr/2017/01/substance-texturejs-interchange-of.html

Together with eLife, Substance is developing Lens, an open source toolkit around scientific content. In June 2013 eLife launched the original Lens Reader, which provides a novel way of looking at content on the web.
Self-host a scientific journal with eLife Lens
https://medium.com/@_mql/self-host-a-scientific-journal-with-elife-lens-f420afb678aa#.c9lw7spqh

eLife Lens, a minimalist open source publishing software that allows self-hosting of a scientific journal.
https://github.com/elifesciences/lens


Lodel 

Logiciel d'édition électronique créé par le portail public Revues.org, openEdition, est également disponible (en français). 
C’est un CMS (en anglais Content management system) développé par le Cléo, une UMS CNRS de Marseille
depuis 2000 et distribué sous licence GPL 2.
  • Modèle de document Word/libreOffice pour le modèle éditorial de revues
  • Serveur en Linux uniquement.

Persée

Une des particularités de Persée a été, dès son origine, la volonté d'abolir le fossé qui existe traditionnellement entre la manipulation et l'exploitation de documents issus d'un processus de numérisation et de documents nativement électroniques avec un accent sur l'interopérabilité:
http://www.persee.fr/interoperabilite
http://www.persee.fr/web/guest/modeles-documentaires
Hélas c'est un système avec une bureaucratie et sans logiciel open.

Erudit

La production éditoriale réalisée chez Érudit repose sur l’usage du XML. Les articles sont balisés sémantiquement à l’aide du schéma Érudit Article, développé par l’équipe Érudit du Centre d’édition de l’Université de Montréal.
Le schéma Érudit Article:
http://www.erudit.org/xsd/article/3.0.0/doc/
https://apropos.erudit.org/fr/

Érudit, a publishing platform, has received $1.4 million from the Canada Foundation for Innovation in order to strengthen the services it provides to Canadian universities, accelerate its technological development, and support the development of digital research in social sciences and the arts (2015).
http://nouvelles.umontreal.ca/en/article/2015/01/23/canada-foundation-for-innovation-invests-1.4-million-in-erudit-publishing-platform/

https://apropos.erudit.org/fr/succes-grandissant-pour-le-corpus-derudit-aux-etats-unis/

https://fr.wikipedia.org/wiki/%C3%89rudit_(%C3%A9dition)

Basé sur des standards internationaux, la chaîne d’édition numérique d’Érudit assure la création de documents numériques finement balisés, favorisant leur accessibilité et l’exploitation de leurs données de recherche.


Les fichiers produits sont optimisés pour la diffusion web (repérage et temps de téléchargement) et sont offerts en formats PDF, XML ou XHTML.
https://apropos.erudit.org/fr/editeurs/services-offerts/
La production de numéros courants diffusés sur Érudit est facturée annuellement aux revues.


SCOAP3

Working with leading publishers, SCOAP3 has converted key journals in the field of High-Energy Physics to Open Access at no cost for authors. SCOAP3 centrally pays publishers for costs involved in providing Open Access, publishers in turn reduce subscription fees to all their customers, who can re-direct these funds to contribute to SCOAP3. Each country contributes in a way commensurate to its scientific output in the field. In addition, existing Open Access journals are also centrally supported, removing any existing financial barrier for authors.

Effective Costs per Article
The SCOAP3 tendering process conducted by CERN for the benefit of SCOAP3, resulted in agreed-upon Article Processing Charges (APCs) for journals participating in the first phase of SCOAP3 (2014-2016) and defined the corresponding maximum annual payment amounts.
Within the SCOAP3 model, these APCs are not paid by authors, but centrally by SCOAP3, from a common fund to which libraries, library consortia, research institutions and funding agencies jointly contribute. SCOAP3 articles are defined as either all articles appearing in journals mostly carrying High-Energy Physics content, or articles appearing in “broad band” journals which have been submitted by researchers to arXiv under one of the High-Energy Physics categories.
The maximum yearly payment by SCOAP3 for each journal for the first year of operation (2014) was based on the journal APC and the number of SCOAP3 articles published in 2011 (the latest year for which complete data were available at the time of tendering). The APCs themselves and the SCOAP3 budget envelope are fixed for the duration of the three-year contract period (2014 – 2016). In 2015 and 2016, the maximum yearly payment amounts consider a growth component of  between 8% for “large” journals and 50% for “small” journals, to account for the increasing number number of articles and the dynamics introduced by SCOAP3.

Taking into account these caps and the actual growth of the journals, the average effective cost per article for SCOAP3 is ca. 1,150 EUR. More details are given in a recent working paper (http://cds.cern.ch/record/1735210).
https://scoap3.org/scoap3journals/#costperarticle

About the repository 

All articles funded by SCOAP3 appear in the SCOAP3 repository upon publication, alongside the publishers’ own platforms. Several formats are available, including PDF, PDF/A and XML. Articles are published under a CC-BY license and can be freely downloaded and further disseminated. The repository metadata is also available under a CC0 license. These metadata include article DOIs and the ORCIDs of authors, when available.
The scope of the SCOAP3 repository is neither to duplicate arXiv nor the publisher platforms, nor offer value-added services such as those of INSPIRE. It is rather a staging platform, for further distribution of information. The repository has been launched in early February 2014 and is continuously being upgraded. It is freely accessible here.
The repository is built on top of the CERN Invenio digital library open source platform, and the source code is available on GitHub,
https://github.com/SCOAP3
together with some example applications written by partners in the SCOAP3 community to build additional services.
http://invenio-software.org/


---

Offres payantes des "5 big editors" pour les organisateurs, directeur de collection

« L’ère numérique a eu un effet majeur. À partir de 1995, 5 grands éditeurs savants (Elsevier, Springer, Wiley, Tailor and Francis, Sage) ont augmenté leur contrôle; tant dans les sciences sociales et humaines que dans les sciences naturelles et le génie, ces grands éditeurs contrôlent plus de la moitié du marché. »
post d'oct 2016:

un article dans PLOS one de 2015:

En SNM, la chimie est, sans surprise, le domaine le plus concentré (71 %), puisque l'un de ses éditeurs disciplinaires, l'American Chemical Society, fait partie du top 5. La physique, par contre, suit un modèle différent : après avoir augmenté de 20% en 1973 à 35% en 2000, la tendance s’est depuis stabilisée et elle demeure aujourd’hui la discipline où les cinq premiers éditeurs représentent la plus faible proportion d'articles publiés. L'importance des sociétés savantes en physique (APS, AIP, IOP), du serveur de prépublication arXiv, ainsi que les accords de libre accès tels que SCOAP3 , rendrait ce domaine moins rentable et donc moins intéressant pour les éditeurs commerciaux.

Exemple d'offres payantes pour les organisateurs de conference

EDP Web of Conferences 
On a certains services comme http://www.webofconferences.org/
d'Edp sciences.
Ces prestations s’appuient sur l’expérience éditoriale et le savoir-faire reconnu d’EDP Sciences dans le domaine du traitement et de la diffusion de l'information scientifique.
Il faut faire faire un devis:
http://www.webofconferences.org/index.php?option=com_content&view=article&id=124&Itemid=82&lang=fr
et attendre 1 à 3 mois de publication.
Tous les contenus sont placés sous licence Creative Commons Attribution qui autorise la libre utilisation, distribution et reproduction du travail, à la condition que le document original soit correctement cité.
Exemple:
http://www.shs-conferences.org/articles/shsconf/abs/2016/05/shsconf_cmlf2016_01002/shsconf_cmlf2016_01002.html
que du téléchargement de pdf...


Rem:
Les éditeurs des pays en voie de développement peuvent entrer en contact avec Bioline International afin de recevoir une aide gratuite pour créer une publication électronique. La mission de Bioline International est de réduire le fossé de connaissance entre le Sud et le Nord, en aidant les éditeurs des pays en voie de développement à rendre leurs travaux plus accessibles grâce à l'électronique.


https://fr.wikipedia.org/wiki/Licence_Creative_Commons

Thursday, December 8, 2016

GeoJSON, ce que vous ne pouvez faire GeoJSON et le problème de l'ordre latitude longitude des coordonnées sphériques


Le problème de l'ordre Longitude, Latitude ou Latitude, Longitude dans les données et les formats, est important.

Commençons par regarder le format GeoJSON. Comprendre ces concepts de format informatique/physique/mathématique/géomatique vous aidera à comprendre les données géospatiales en général: les concepts de base derrière GeoJSON ont été une partie de "geo" depuis le tout début.

La spécification GeoJSON elle-même est une spécification formelle d'un format assez lisible pour le javascript:
http://geojson.org/geojson-spec.html
GeoJSON (2008) is a geospatial data interchange format based on JavaScript Object Notation (JSON).
http://www.macwright.org/2015/03/23/geojson-second-bite.html

Ce que vous ne pouvez faire GeoJSON 

La popularité de GeoJSON dérive de sa simplicité, ce qui le rend facile à mettre en œuvre, à lire et à partager. Mais comme tous les autres formats, il a ses limites:
  • GeoJSON n’a aucune construction de topologie, que ce soit pour la compression, tels que TopoJSON ou sémantique, comme OSM XML et certains formats propriétaires. Une couche topologique sur GeoJSON est possible mais elle est restées lettre morte. 
  • "GeoJSON caractéristiques" ont des propriétés (features) qui sont de JSON. Ces features peuvent utiliser tous les types de données JSON : nombres, chaînes, tableaux null, booléens, et des objets. JSON ne supporte tous les types de données : par exemple, les valeurs de date sont prises en charge par Shapefiles, mais pas dans JSON. 
  • GeoJSON n’est pas une construction de style caractéristiques ou en spécifiant le contenu popup. Il y a des conventions folkloriques pour le faire, mais ceux-ci ne sont pas et ne sera pas dans la spécification. La plupart des formats de geo n’ont pas style. 
  • GeoJSON n’est pas un type de géométrie du cercle, ou n’importe quel type de courbe. Seuls quelques formats, comme WKT prend en charge les courbes et des cercles plutôt que des géométries linéaire. Cercles et courbes sont relativement difficiles à mettre en œuvre, car un cercle sur une planète de géoïde sphéroïde est beaucoup plus complex qu’un cercle sur une feuille de papier ;)
  • Positions n’ont pas des attributs. Si vous avez une représentation de LineString d'une course/ballade, et votre GPS montre connecté avec 1 000 points différents le long du parcours avec des données comme votre fréquence cardiaque et de la durée, hélas il n’y a aucune réponse claire pour la représentation de ces données. Vous pouvez stocker des données supplémentaires dans des positions coordonnées de quatrième et cinquième, ou dans les propriétés sous forme de tableau avec la même longueur que le tableau de coordonnées, mais aucune de ces options est supporté par l’écosystème des outils. La spécification de fonctionnalités simples, qui a directement inspiré GeoJSON et la plupart des formats SIG, ne supporte pas cette notion d’attributs-à-poste (voir les deux formats - GPX et OSM XML).

Latitude et Longitude

Une incohérence frustrante dans les logiciels géospatiaux (notamment de type mappage) est l'ordre des coordonnées.
Les coordonnées sont souvent représentées sous forme de tableaux, comme [45.1, 4.1.], au lieu d'objets, comme {lng: 4.1, lat: 45.1}. Cela laisse au développeur de déterminer si 45.1 est la longitude ou la latitude. Un choix place un point sur Lyon, et l'autre un emplacement profond dans la Somalie.
La latitude de la ville de Lyon est proche de 45. Le pole nord c'est Lat=90 et l'équateur c'est une Lat= 0.
La longitude "0.00" est lié à Greenwich (Lat 51.48; Lng 0.00) un quartier de Londres :
https://fr.wikipedia.org/wiki/Greenwich_(Londres)

Le système de référence de coordonnées (CRS) 

Le système de référence de coordonnées (CRS) d'un objet GeoJSON est déterminé par son membre 'crs'. Si un objet n'a pas de membre crs, son membre crs de l'objet parent ou grand-parent peut être acquis. Si aucun membre crs ne peut être ainsi acquis, le CRS par défaut s'appliquera à l'objet GeoJSON.
Le CRS par défaut est un système de référence de coordonnées géographiques, utilisant le datum WGS84, et avec des unités de longitude et de latitude de degrés décimaux.
https://fr.wikipedia.org/wiki/WGS_84

GeoJSON (ici minimaliste) pour un point situé sur Fourvière à Lyon:
{
  "type": "FeatureCollection",
  "features": [
    {
      "type": "Feature",
      "properties": {},
      "geometry": {
        "type": "Point",
        "coordinates": [
          4.8264312744140625,
          45.76581655469703
        ]
      }
    }
  ]
}
GeoJSON a un ordre = Longitude,Latitude

L'ordre latitude longitude ou l'inverse

Il ya un certain consensus croissant autour de l'ordre (longitude, latitude) pour les formats géospatiaux, mais hélas c'est toujours le chaos pour les bibliothèques et les logiciels. Il appartient au développeur d'être conscient de ce problème et de lire la documentation requise, surtout de déplacer les coordonnées si nécessaire pour traduire entre différents systèmes:


La tradition géographique favorise lat, lon mais les mathématiques et souvent les logiciels préfèrent l'ordre lon, lat...
L'utilisation des coordonnées sphériques différent suivant les domaines.
En physique c'est "(r, θ, φ)" avec la distance radiale, l'angle dans le plan équateur, puis l'angle azimuthal.
En mathématiques "(r, θ, φ)" avec la distance radiale, l'angle azimuthal puis l'angle dans le plan équateur.
En fait il existe un ISO standard 80000-2 :2009 pour l'ordre des angles (item 2-16.3 coordinate systems: spherical coordinates). La latitude est en premier.
Hélas cet angle "latitude" mathématique est égal à 0 au "pôle nord" (par rapport à l'axe zenith ou z axis en coordonnées euclidiennes). Il est noté :


L'angle entre l'axe et le plan équateur est dans la borne: [0,π].
L'angle dans le plan équateur (perpendiculaire à l'axe zenith) est dans la borne:  [0,2π[.

Qu'en est-il de GPX ou OSM XML? 

Les formats qui représentent lat et lon avec des attributs XML distincts et n'imposent aucun ordre de coordonnées, car les attributs XML ne sont pas ordonnés...

Ref: en anglais  http://www.macwright.org/lonlat/

Tuesday, November 29, 2016

Google maps and user events and import functions.


UI Events

Some objects within the Google Maps JavaScript API are designed to respond to user events such as mouse or keyboard events. For example, these are some of the user events that a google.maps.Marker object can listen to:
  • 'click'
  • 'dblclick'
  • 'mouseup'
  • 'mousedown'
  • 'mouseover'
  • 'mouseout'
https://developers.google.com/maps/documentation/javascript/events

Import functions

GeoJSON

https://developers.google.com/maps/documentation/javascript/examples/layer-data-dragndrop
Data Layer: Drag and Drop GeoJSON
To use this example, drag and drop a GeoJSON file or files from your computer on to the map above. You can also drag text or HTML GeoJSON content from another website or from the sample below.

Une autre avec une URL qui fournit du GeoJSON:
https://developers.google.com/maps/documentation/javascript/importing_data
http://earthquake.usgs.gov/earthquakes/feed/v1.0/summary/2.5_week.geojsonp
site avec un Cross-origin resource sharing (CORS) d'authorisation.

https://developers.google.com/maps/documentation/javascript/examples/layer-data-dynamic
On peut aussi écrire des lettres avec GeoJson (en fait des polygones)
et jouer avec les événements over et pop-up avec ces polygones-lettres-symboles.

GeoRSS (or KML)

GeoRSS via API flickr
with just one line:
var georssLayer = new google.maps.KmlLayer({
          url: 'http://api.flickr.com/services/feeds/geo/
?g=322338@N20&lang=en-us&format=feed-georss'});
pop-up  with data from flickr (title, URL of the photographer, photo (click-> go to flickr), description) 
In fact it's a KmlLayer. KmlLayer adds geographic markup to the map from a KML, KMZ or GeoRSS file that is hosted on a publicly accessible web server. A KmlFeatureData object is provided for each feature when clicked.

fusion table (to pop-pup)

https://developers.google.com/maps/documentation/javascript/examples/layer-fusiontables-simple

mapping collaboratif

https://developers.google.com/maps/documentation/javascript/firebase
outils firebase de Google

Friday, November 18, 2016

flickr API, geo-tag, javascript and Github.


Some examples:

y compris mon petit code javascript de manipulation des URL flickr et affichage d'un album en défilement:
http://jsdo.it/ex-ample.blogspot/Giep


voir aussi:
http://stephane-mottin.blogspot.fr/2016/11/interoperabilite-des-story-maps-et.html
et les post avec tag 'flickr" "javascript"...

Lunch

  • Get Flickr-photosets
  • Make Photo list
  • Draw Google maps
  • Set Marker on Photo's geo-tag
  • Set Info-window with Photo's description

https://github.com/sigwyg/Lunch
http://lunch.archiva.jp/
Rem: gestion clic marqueur avec affichage photo sur google map (2011)

Generates a gallery from a photoset on Flickr with links referring to the originals.

https://github.com/jetsettingpair/photoset_gallery

voir aussi
https://blueimp.github.io/Gallery/
https://github.com/blueimp/Gallery/blob/master/README.md
blueimp Gallery is a touch-enabled, responsive and customizable image & video gallery, carousel and lightbox, optimized for both mobile and desktop web browsers.
It features swipe, mouse and keyboard navigation, transition effects, slideshow functionality, fullscreen support and on-demand content loading and can be extended to display additional content types.

A flickr photoset with a gallery module (2013). 

https://github.com/donotknow/miniature-octo-tribble
https://donotknow.github.io/miniature-octo-tribble/
The gallery has dot indicators on the bottom to show where which image in the photoset is in the view currently. The dots are clickable to jump to the requested image. There are right and left arrows on the sides of the gallery. There is keyboard navigation (right and left arrow keys). The arrows and keyboard will change the current image to the next and previous images, respectively.

There are no external JavaScript libraries, like JQuery or Angular. I did, however, include the standard node event-emitter module, save time in this exercise. Furthermore, there are no CSS frameworks, like Foundation or Bootstrap. I am including normalize.css to limit differences between browser user-agent stylesheets.

This is intended for use in a modern browser with ECMAScript 5 compatibility. It was tested in the newest versions of Chrome and Safari on Mac OS X Yosemite, iOS 8 on iPhone 6, and iOS 8 on iPad mini.

I wanted to explore simple build system with this experiment.

Keeping the build process fast was the most important consideration I had. Since gulp uses streams and is concurrent by default it seemed like a good fit for fast build times. Sass is the natural choice for a CSS preprocessor since it’s popularity, feature set, and with libsass it’s speed. I didn’t use Compass, because the features didn’t seem necessary and I didn’t want to slow down the build with ruby. At this point, I don’t want to write anything other than a CommonJS module, so browserify is my compiler of choice. I added in watchify for adding speed to subsequent builds while watching. BrowserSync is in the mix to reload the browser whenever a watched build is complete. Fresh builds take less than 2s to start up gulp and complete, subsequent watch builds take less than 200ms (on the long side for JS).

Feel free to test it out! Clone this repo, npm install, and (if you don’t have gulp installed via NPM globally) ./node_modules/gulp/bin/gulp.js.

This was my first time using Travis for continuous integration, and it was simple to setup and configure npm test to lint the JavaScript and to create a small bash script to auto deploy the build to the gh-pages branch.

Federated Dashboard flickr-widget

https://github.com/alexcodreanu86/federated-dashboard-flickr-widget
https://searchcode.com/codesearch/view/94932442/

some codes

https://github.com/DataUSA/datausa-api/blob/master/scripts/flickr/flickr.py
https://docs.omniref.com/js/npm/kingtides-api/0.0.3/files/data/flickr/methods/flickr.photos.geo.getLocation.json

tutorial

a good introduction for  flickr.photosets.getPhotos
http://kylerush.net/blog/tutorial-flickr-api-javascript-jquery-ajax-json-build-detailed-photo-wall/

Direct and simple approach small "javascript": jsdo.it

API flickr.photosets.getPhotos :

https://www.flickr.com/services/api/explore/flickr.photosets.getPhotos
un javascript sous jsdo.it
http://jsdo.it/ex-ample.blogspot/uLfn/edit
(j'ai corrigé des erreurs de http://jsdo.it/andrew.cudzilo/zFW5).
Ca permet de lire les URL d'origine des photos d'un album et voir défiler les photos d'un album au format 500 pixels.

L'API photosets.getPhotos a besoin de deux entrées, ici en rouge:
var flickr_photoset_url="http://api.flickr.com/services/rest/method= flickr.photosets.getPhotos&api_key=7e0f11256b494a54caf961dbea2efaec&photoset_id=72157676574548795&format=json&nojsoncallback=1";

cette api donne:
{ "photoset": { "id": "72157676525638806", "primary": "25373090639", "owner": "144398584@N07", "ownername": "stef42530", 
    "photo": [
      { "id": "25373090639", "secret": "4a33c061fe", "server": "5344", "farm": 6, "title": "yssingeaux", 
"isprimary": 1, "ispublic": 1, "isfriend": 0, "isfamily": 0 },
      { "id": "22808772578", "secret": "cd9e90f585", "server": "5815", "farm": 6, "title": "fontaine", 
"isprimary": 0, "ispublic": 1, "isfriend": 0, "isfamily": 0 },
      { "id": "30973507366", "secret": "df5c1fb408", "server": "5347", "farm": 6, "title": "statue Marie", 
"isprimary": 0, "ispublic": 1, "isfriend": 0, "isfamily": 0 },
      { "id": "30707294970", "secret": "2637e7a812", "server": "5653", "farm": 6, "title": "la croix de mission", 
"isprimary": 0, "ispublic": 1, "isfriend": 0, "isfamily": 0 },
      { "id": "30870710272", "secret": "4e119e1fd8", "server": "5498", "farm": 6, "title": "communauté pays des
 sucs", "isprimary": 0, "ispublic": 1, "isfriend": 0, "isfamily": 0 },
      { "id": "30973523796", "secret": "16bb7388a5", "server": "5483", "farm": 6, "title": "eglise de champclause-
nonReduit", "isprimary": 0, "ispublic": 1, "isfriend": 0, "isfamily": 0 }
    ], "page": 1, "per_page": "500", "perpage": "500", "pages": 1, "total": 6, "title": "velay-test1" }, "stat": "ok" }

Si on veut la liste des photos pour une données Lat,Long avec une précision modulable:
World level is 1, Country is ~3, Region ~6, City ~11, Street ~16. 

Pour les données EXIF complètes hélas d’une seule photo, on peut utiliser:


Pour les URL de Flickr:
Flickr provides a URL shortening service for uploaded photos (and videos). Short URLs can be useful in a variety of contexts including: email, on business cards, IM, text messages, or short status updates.
Chaque photo sur Flickr possède une URL courte, calculée mathématiquement, sous la forme:
https://flic.kr/p/{base58-photo-id}

var flickr_photoset_url="http://api.flickr.com/services/rest/method= flickr.photosets.getPhotos&api_key=7e0f11256b494a54caf961dbea2efaec&photoset_id=72157676574548795&format=json&nojsoncallback=1";

cette api donne:
{ "photoset": { "id": "72157676525638806", "primary": "25373090639", "owner": "144398584@N07", "ownername": "stef42530", 
    "photo": [
      { "id": "25373090639", "secret": "4a33c061fe", "server": "5344", "farm": 6, "title": "yssingeaux", 
"isprimary": 1, "ispublic": 1, "isfriend": 0, "isfamily": 0 },
      { "id": "22808772578", "secret": "cd9e90f585", "server": "5815", "farm": 6, "title": "fontaine", 
"isprimary": 0, "ispublic": 1, "isfriend": 0, "isfamily": 0 },
      { "id": "30973507366", "secret": "df5c1fb408", "server": "5347", "farm": 6, "title": "statue Marie", 
"isprimary": 0, "ispublic": 1, "isfriend": 0, "isfamily": 0 },
      { "id": "30707294970", "secret": "2637e7a812", "server": "5653", "farm": 6, "title": "la croix de mission", 
"isprimary": 0, "ispublic": 1, "isfriend": 0, "isfamily": 0 },
      { "id": "30870710272", "secret": "4e119e1fd8", "server": "5498", "farm": 6, "title": "communauté pays des
 sucs", "isprimary": 0, "ispublic": 1, "isfriend": 0, "isfamily": 0 },
      { "id": "30973523796", "secret": "16bb7388a5", "server": "5483", "farm": 6, "title": "eglise de champclause-
nonReduit", "isprimary": 0, "ispublic": 1, "isfriend": 0, "isfamily": 0 }
    ], "page": 1, "per_page": "500", "perpage": "500", "pages": 1, "total": 6, "title": "velay-test1" }, "stat": "ok" }


url: 'http://farm' + p.farm + '.staticflickr.com/' + p.server + '/' + p.id + '_' + p.secret + '_m.jpg'

http://farm6.staticflickr.com/5653/30707294970_2637e7a812.jpg
donne bien l'affichage de la bonne photo mais en 375 × 500 pixels (si on ne précise rien après le p.secret c'est la taille par défaut cette longueur) et sans EXIF.
http://farm6.staticflickr.com/5653/30707294970_2637e7a812_m.jpg
donne en affichage 180 × 240 pixels et sans EXIF.
et avec _h en 1200x1600pixels.


URL source des photos et URL web
Pour établir l'url source d'une photo, vous devez connaître son ID, l'ID du serveur, l'ID farm et le secret, tels que renvoyés par la plupart des méthodes API.

L'URL source (et thumbails) a le format suivant :
https://farm{farm-id}.staticflickr.com/{server-id}/{id}_{secret}.jpg
 or
https://farm{farm-id}.staticflickr.com/{server-id}/{id}_{secret}_[mstzb].jpg
 or
https://farm{farm-id}.staticflickr.com/{server-id}/{id}_{o-secret}_o.(jpg|gif|png)
Ref: https://www.flickr.com/services/api/misc.urls.html

mstzb:
m "petit", côté le plus long de 240pix
h      le plus grand avec côté le plus long de=1600pix

https://www.flickr.com/services/api/explore/flickr.photos.getSizes
avec photo_id= 30707294970

donne les liens entre image et les URL web:

<size label="Large 1600" width="1200" height="1600" 
source="https://farm6.staticflickr.com/5653/30707294970_15285412af_h.jpg" 
url="https://www.flickr.com/photos/144398584@N07/30707294970/sizes/h/" media="photo" />

<size label="Large 2048" width="1536" height="2048" 
source="https://farm6.staticflickr.com/5653/30707294970_642c134228_k.jpg" 
url="https://www.flickr.com/photos/144398584@N07/30707294970/sizes/k/" media="photo" />
<size label="Original" width="1920" height="2560" 
source="https://farm6.staticflickr.com/5653/30707294970_94025dfdff_o.jpg" 
url="https://www.flickr.com/photos/144398584@N07/30707294970/sizes/o/" media="photo" />

l'img https://farm6.staticflickr.com/5653/30707294970_94025dfdff_o.jpg
contient les données EXIF.


Pour l'API Flickr, toutes les données doivent être codées en UTF-8.
https://api.flickr.com/services/rest/?method=flickr.photosets.getPhotos&api_key=7e0f11256b494a54caf961dbea2efaec&photoset_id=72157676574548795&format=json&nojsoncallback=1

donne dans la fenêtre du navigateur (ici pour un album avec 2 photos):
{"photoset":{"id":"72157676574548795","primary":"22808772578","owner":"144398584@N07",
"ownername":"stef42530","photo":[{"id":"22808772578","secret":"cd9e90f585","server":"5815","farm":6,"title":"fontaine","isprimary":"1","ispublic":1,"isfriend":0,"isfamily":0},{"id":"30870710272","secret":"4e119e1fd8","server":"5498","farm":6,"title":"communaute\u0301 pays des sucs","isprimary":"0","ispublic":1,"isfriend":0,"isfamily":0}],
"page":1,"per_page":500,"perpage":500,"pages":1,"total":"2","title":"velay-reduit"},"stat":"ok"}


Sinon pour une manipulation des URL flickr et affichage d'un album en défilement, voir mon petit code javascript:
http://jsdo.it/ex-ample.blogspot/uLfn/edit


On peut aussi voir cet exemple d'affichage en mosaique :
http://api.jquery.com/jquery.getjson/

pour les (Longitude-Latitude)



------------------

un lien vers quelqu'un qui a eu aussi du développé du code pour gérer ses photos et cartoDB:

http://clhenrick.github.io/data/web-scraping/node/js/web-mapping/flickr-api/cartodb/2015/05/29/scraping-photo-metadata/

While each photo was taken with geo location tracking enabled, there was some poor management of the photographs collected by various teams. Granted the photos were logically grouped by census tract in folders on Google Drive, yet no unified naming convention was used to name the photographs.





INTEROPERABILITE des STORY MAPS et odyssey.js (et Flickr)

INTEROPERABILITE des STORY MAPS

Lorsque l’on réalise une « narrative story map » une histoire/ballade cartographie narrative, le plus long consiste à écrire du texte de qualité et référencé. 
Il faut pouvoir sauvegarder ce texte (avec ou sans mise en forme) et sa story map narrative d’un bloc . 

J'ai réalisé plusieurs post sur les story maps (voir le tag "GPS" ou "map" de ce blog) y compris une synthèse des divers stratégies. Ici c'est mon choix actuel dans la perspective de l'interopérabilité de ce long travail d'écriture et de collecte des médias.

odyssey.js,

Avec odyssey.js, (https://cartodb.github.io/odyssey.js/) nous pouvons mettre en forme le fichier markdown avec un éditeur de texte comme notepad++ , textedit  BBEedit avec extension markdown (ou d’autres logiciels markdown, voir tag de ce blog « markdown »voir MS word ou google doc… On peut utiliser du HTML pour mettre en forme du texte de manière plus poussée. Voir aussi mes autres posts plus détaillés sur ce javascript et les web services associés (tag "GPS" ou "map" ou "markdown" de ce blog).
Je rappelle ici que markdown est un langage simple pour écrire du texte alors que HTM est un langage à balise plus compliqué (et plus lourd)  fait pour la visualisation.
Pour insérer les données Latitude,Longitude et les URL des images, il faut mettre en forme avant l’écriture du fichier markdown.
Plutôt que du copier/coller pour chaque URL image/video (son seul est un cas particulier) et chaque marqueur Lat,Long, il faut au préalable télécharger par batch des lots d’images qui gère le géo-taggage.
Pour cela plusieurs possibilités:

batch des lots d’images qui gère le géo-taggage

1/Créer un blogspot privé où vous incorporez/télécharger vos images. Puis dans l’HTML, récupérer la liste des URL et filtrez le fichier avec MS word excel ou google doc ou sheet par exemple (sauvegarder aussi en .CSV). 

Je pense que l’on peut aussi le faire avec Flickr qui permet de vérifier la géo-localisation via l’affichage d’une carte de ces photos…
Mais il ne peut le faire directement.
Il faut passer par la fonction API flickr.photosets.getPhotos de l’API Flickr:
on peut récupérer les "id" de toutes les photos d'un album (set en anglais)  (500 photos max dans un album) dans un fichier simple qui est de 4 types possibles:
  •  XML (XML-RPC; http://xmlrpc.scripting.com/  )
  •  JSONP  (JavaScript Object Notation, est un format simple d'échange de données assimilable par l'ordinateur, qui facilite l'élaboration d'applications en JavaScript avec l'API  json.org )
  •  JSON
  •  PHP Serial (fichier .mdlp)

un clic en bas sur Explorateur API : flickr.photosets.getPhotos
donne ceci:

Que la liste de toutes les Id des photos, de leur titre, ici en XML (à partir du propriétaire_id 144398584@N07: et du photoset_id 72157676525638806: 
<rsp stat="ok">
  <photoset id="72157676525638806" primary="25373090639" owner="144398584@N07" ownername="stef42530" page="1" per_page="500" perpage="500" pages="1" total="6" title="velay-test1">
    <photo id="25373090639" secret="xxxxx" server="5344" farm="6" title="yssingeaux" isprimary="1" ispublic="1" isfriend="0" isfamily="0" />
    <photo id="22808772578" secret="xxxx" server="5815" farm="6" title="fontaine" isprimary="0" ispublic="1" isfriend="0" isfamily="0" />
    <photo id="30973507366" secret="xxxx" server="5347" farm="6" title="statue Marie" isprimary="0" ispublic="1" isfriend="0" isfamily="0" />
    <photo id="30707294970" secret="xxx" server="5653" farm="6" title="la croix de mission" isprimary="0" ispublic="1" isfriend="0" isfamily="0" />
    <photo id="30870710272" secret="xx" server="5498" farm="6" title="communauté pays des sucs" isprimary="0" ispublic="1" isfriend="0" isfamily="0" />
    <photo id="30973523796" secret="xx" server="5483" farm="6" title="eglise de champclause-nonReduit" isprimary="0" ispublic="1" isfriend="0" isfamily="0" />
  </photoset>
</rsp>
On a bien les 6 photos.

Et les URL et les Lat,Long des photos d'un album?

A partir de cette liste des photo_id, avoir les URL c'est simple (voir ci-dessous  flickr.photos.getInfo).
www.flickr.com/photos/144398584@N07/25373090639/

Pour les données de Lat,Long et avec  flickr.photos.geo.getLocation ce n’est que par une seule photo:
photo par photo. Donne aussi les Place_id et woeid (nom ville, région, pays; voir ci-dessous):

idem photo par photo via une Id de photo.
On a dans un même fichier les données géo et l'URL. 
On peut donc le traiter facilement pour le mettre dans un fichier excel.
Ce fichier text retourne Lat, Long et aussi URL complète avec aussi 
le nom de l' Id propriétaire (ici 144398584@N07) et Id photo (25373090639):

<url type="photopage">https://www.flickr.com/photos/144398584@N07/25373090639/</url>

pour les données géo:
<location latitude="45.142316" longitude="4.123694" accuracy="16" context="0" place_id="2357Wa9XUbm_ZCg" woeid="633062">
      <locality place_id="2357Wa9XUbm_ZCg" woeid="633062">Yssingeaux</locality>
      <county place_id=".z9.tGJQUL8BHZ7KeQ" woeid="12597130">Haute-Loire</county>
      <region place_id="6VHmZr5WU7.XrIHq" woeid="7153310">Auvergne</region>
      <country place_id="lbWye9tTUb6GOcp80w" woeid="23424819">France</country>
    </location>

Pour les données EXIF complètes hélas d’une seule photo, on peut utiliser:
https://www.flickr.com/services/api/explore/flickr.photos.getExif

Sinon pour une manipulation des URL flickr et affichage d'un album en défilement, voir mon petit code javascript:
http://jsdo.it/ex-ample.blogspot/uLfn/edit
Pour les données Lat,Long de nombreuses photos: on peut aussi utiliser des outils de conversion des données EXIF par lots: voir d’autres post de ce blog (tag EXIF ou GPS).

Les édtiteurs web

2/On peut utiliser ArcGis story journal (ou cascade) qui incorpore les images géo-taggées par lot via flickr  (ou google picasa (fonctionne pas bien en cette fin 2016) ou via un t-fichier tableur .CSV. Générez la story map sans mettre du texte un par un. Cette méthode permet de ne pas gérer directement les URL et les (Lat,Long), le builder s’en occupe.


Conclusion

Bref, avec cette solution odyssey.js, le plus important est que l’on peut sauvegarder directement son travail sous deux formes:
a/ le fichier markdown (.md et bien sur son transcodage .HTML avec par exemple un « Rich Text Editeur »)
b/ le site web (et son javascript) hébergé.

c) une troisième  si on utilise les builders d’ARcGIS online de story map.
Rem: votre fichier markdown peut aussi être traité pour extraire le texte de chaque image pour le mettre dans ce .CSV. Puis on peut refaire une nouvelle story map avec ces ArcGIS builders avec le texte via ce .CSV.
On a alors un troisième format «  site web » de votre story map sous cette forme de site intégré ArcGIS hébergé.
d) de plus vous aurez aussi un quatrième format de fichier de sauvegarde de votre story map en .CSV complet…