Showing posts with label geo. Show all posts
Showing posts with label geo. Show all posts

Monday, June 12, 2017

future of the Sony (Minolta) A-mount? dead or not? And Adaptators A-Mount to E-mount. GPS built-in?


The A-mount is no longer seen as a viable platform by Sony executives, because it now represents  a small % of all interchangeable camera lens sales.
2016:
http://www.mirrorlessrumors.com/2016-companies-market-shares-japan/
2015:
http://www.diyphotography.net/japan-has-spoken-canon-dominates-sony-dethrones-olympus-and-nikon-stutters/

http://www.sonyalpharumors.com/sony-a68-and-a-mount-in-general-will-no-more-be-sold-in-taiwan/
So after Australia and New Zealand also Taiwan will likely no more sell any A-mount stuff.
I guess Soy’s startegy now is to sell their new A-mount cameras only in “DSLR-friendly” markets.

2017 may
https://www.dpreview.com/news/6936602216/sony-still-third-globally-but-bullish-about-2017
Sony is the world's leading mirrorless camera brand but remains third for ILCs overall, it said in a presentation to investors (imaging product  https://www.sony.net/SonyInfo/IR/calendar/presen/irday/irday2017/IPS_E.pdf).



But
https://photorumors.com/2016/03/03/sony-still-comitted-to-the-a-mount/

Lists of all products


https://en.wikipedia.org/wiki/List_of_Sony_%CE%B1_cameras
https://en.wikipedia.org/wiki/Minolta_A-mount_system
https://en.wikipedia.org/wiki/List_of_Sony_A-mount_lenses
The last A-mount zooms (2015-04)
Sony α Zeiss Vario-Sonnar T* 24-70mm f/2.8 ZA SSM II
Sony α 70-300mm f/4.5-5.6 G SSM II

Example of oldies : https://en.wikipedia.org/wiki/Minolta_AF_Macro_100mm_f/2.8

In french https://fr.wikipedia.org/wiki/Sony_Alpha
for a sheet of all alpha A-mount:
https://en.wikipedia.org/wiki/Sony_%CE%B1330

https://en.wikipedia.org/wiki/List_of_Sony_E-mount_cameras
https://en.wikipedia.org/wiki/List_of_Sony_E-mount_lenses
https://en.wikipedia.org/wiki/Sony_E-mount



Now (june 2017), only 3 Sony A-Mount cameras:

Comparison Alpha68 and 58:
http://cameradecision.com/compare/Sony-SLT-A58-vs-Sony-SLT-A68

Reasons to choose Sony SLT-A57 (2012-04) over Sony SLT-A58 (2013-04)

Reasons to choose Sony SLT-A58 over Sony SLT-A57
4 advantages
 Max Sensor Resolution 20 MP vs 16 MP --> 25% more pixels
 Battery Life 690 shotsvs 550 shots  --> 140 more frames with a single charge
 Weight 492 g vs 618 g -->126 g lighter

Reasons to choose Sony SLT-A57 over Sony SLT-A58
6 advantages
 LCD Screen Size 3″vs 2.7″ --> 0.3 inches larger display
 LCD Screen Resolution 921k dots vs 460k dots --> 100% higher resolution screen
 Continuous Shooting 12.0fps vs 8.0fps --> 4 fps faster
 Color Depth 23.4 vs 23.3 --> higher color depth
 Dynamic Range 13.0 vs 12.5 --> higher dynamic range
 Low Light ISO 785 vs 753 -->  better High ISO performance?

A57 is better than A58 
In french: http://www.lesnumeriques.com/appareil-photo-numerique/sony-alpha-58-p15629/test.html

More

https://en.wikipedia.org/wiki/Sony_Alpha_57
http://cameradecision.com/compare/Sony-SLT-A58-vs-Sony-SLT-A57

Alpha 55


 200€ https://www.rebuy.fr/i,7673396/photos-et-cameras/sony-alpha-55-noir
(GPS built-in).
  • Slow (50 seconds) buffer clear time (RAW-mode)
  • Little control over high ISO noise reduction in JPEG mode ('auto' or 'weak')
  • Visible loss of detail at anything over ISO 400 in JPEG mode (noise reduction too strong --> blur)

Reasons to choose Sony SLT-A68 (2016-03) over Sony SLT-A65 (2011-03)

6 advantages
Flash Coverage 12.0mvs 10.0m--> 2m longer range
 Color Depth 24.1vs 23.4--> higher color depth
 Dynamic Range 13.5vs 12.6--> higher dynamic range
 Top LCD Yes vs No--> Help viewing and changing settings easily
 Smartphone_remote control Yes vs No--> Remote control your camera with a smartphone
 AF Micro Adjustment (Fine Tune) Yes vs No--> Adjust each lens for more accurate focusing
http://www.the-digital-picture.com/Photography-Tips/af-microadjustment-tips.aspx

Reasons to choose Sony SLT-A65 over Sony SLT-A68

5 advantages
 GPS BuiltIn vs None track your location
 LCD Screen Size 3″vs 2.7″ 0.3 inches larger display
 LCD Screen Resolution 921k dots vs 461k dots 99% higher resolution screen
 Continuous Shooting 10.0fps vs 8.0fps 2 fps faster
 Viewfinder Resolution 2359k dot vs 1440k dot 63% higher resolution
A68 plastic mount!!!

http://cameradecision.com/compare/Sony-SLT-A68-vs-Sony-SLT-A65

Moreover the alpha 65 is very near of the alpha 77 (I):
  • Comparatively strong noise reduction at medium and high ISO settings
  • Very noisy raw files at high ISO settings
  • Little control over high ISO noise reduction in JPEG mode ('auto' or 'weak')
  • Limited control in 10 fps continuous shooting and movie modes
  • No live view in 8 or 10 fps continuous shooting modes makes accurate panning very difficult
  • Slightly 'laggy' menu system and UI

Converting the A65 images in Adobe Camera RAW 6.6 Beta confirms the suspicion that we had when examining the camera's JPEG output. The A65's 24MP sensor is producing significantly higher noise levels than the competition, especially towards the top of its ISO sensitivity range. At ISO 1600/3200 and above the disparity is obvious, and becomes more so as the ISO sensitivity increases.
https://www.dpreview.com/reviews/sonyslta65/20
Then bad for low light shooters!
Idem for A77
https://www.dpreview.com/reviews/sonyslta77/

Alpha 77

Jpeg are bad after 3200 ISO.
review in french:

Alpha 99 (2013-04)

https://en.wikipedia.org/wiki/Sony_Alpha_99
https://fr.wikipedia.org/wiki/Sony_Alpha_99

SLT-A99V with GPS.
SLT-A99 without GPS (depending on country).

Absence de sortie USB 3, Absence de Wi-Fi ; pas de flash intégré...
c'était le nouveau reflex à capteur 24x36 mm (full frame) de Sony 24 Mpx (loin du 36 Mpx du D800). Corollaire : la densité de pixels reste sous les 3 Mpx/cm², ce qui laisse présager une excellente gestion de la sensibilité.

The adapter is good quality, fits tightly to the body and the lens, and when attached you don't notice it at all. The only issue is the auto focus speed.
It's not slow, it's ridiculously slow. 

Avec un objectif sur lequel on ne peut pas régler le diaphragme mécaniquement, cet adaptateur est inutilisable car il n'y a pas de communication avec le boitier qui affiche F-- de ce fait le diaphragme reste fermé au maximum (F22) et on ne peut pas faire de photo en manuel. 

E-Mount

Shortening the flange focal distance to 18 mm compared with earlier offerings from Sony which used 44.5 mm.
the flange focal distance (FFD):



https://en.wikipedia.org/wiki/Sony_E-mount


GPS built-in

Why GPS in cameras is going away?
https://www.dpreview.com/forums/thread/3866556

Thursday, December 8, 2016

GeoJSON, ce que vous ne pouvez faire GeoJSON et le problème de l'ordre latitude longitude des coordonnées sphériques


Le problème de l'ordre Longitude, Latitude ou Latitude, Longitude dans les données et les formats, est important.

Commençons par regarder le format GeoJSON. Comprendre ces concepts de format informatique/physique/mathématique/géomatique vous aidera à comprendre les données géospatiales en général: les concepts de base derrière GeoJSON ont été une partie de "geo" depuis le tout début.

La spécification GeoJSON elle-même est une spécification formelle d'un format assez lisible pour le javascript:
http://geojson.org/geojson-spec.html
GeoJSON (2008) is a geospatial data interchange format based on JavaScript Object Notation (JSON).
http://www.macwright.org/2015/03/23/geojson-second-bite.html

Ce que vous ne pouvez faire GeoJSON 

La popularité de GeoJSON dérive de sa simplicité, ce qui le rend facile à mettre en œuvre, à lire et à partager. Mais comme tous les autres formats, il a ses limites:
  • GeoJSON n’a aucune construction de topologie, que ce soit pour la compression, tels que TopoJSON ou sémantique, comme OSM XML et certains formats propriétaires. Une couche topologique sur GeoJSON est possible mais elle est restées lettre morte. 
  • "GeoJSON caractéristiques" ont des propriétés (features) qui sont de JSON. Ces features peuvent utiliser tous les types de données JSON : nombres, chaînes, tableaux null, booléens, et des objets. JSON ne supporte tous les types de données : par exemple, les valeurs de date sont prises en charge par Shapefiles, mais pas dans JSON. 
  • GeoJSON n’est pas une construction de style caractéristiques ou en spécifiant le contenu popup. Il y a des conventions folkloriques pour le faire, mais ceux-ci ne sont pas et ne sera pas dans la spécification. La plupart des formats de geo n’ont pas style. 
  • GeoJSON n’est pas un type de géométrie du cercle, ou n’importe quel type de courbe. Seuls quelques formats, comme WKT prend en charge les courbes et des cercles plutôt que des géométries linéaire. Cercles et courbes sont relativement difficiles à mettre en œuvre, car un cercle sur une planète de géoïde sphéroïde est beaucoup plus complex qu’un cercle sur une feuille de papier ;)
  • Positions n’ont pas des attributs. Si vous avez une représentation de LineString d'une course/ballade, et votre GPS montre connecté avec 1 000 points différents le long du parcours avec des données comme votre fréquence cardiaque et de la durée, hélas il n’y a aucune réponse claire pour la représentation de ces données. Vous pouvez stocker des données supplémentaires dans des positions coordonnées de quatrième et cinquième, ou dans les propriétés sous forme de tableau avec la même longueur que le tableau de coordonnées, mais aucune de ces options est supporté par l’écosystème des outils. La spécification de fonctionnalités simples, qui a directement inspiré GeoJSON et la plupart des formats SIG, ne supporte pas cette notion d’attributs-à-poste (voir les deux formats - GPX et OSM XML).

Latitude et Longitude

Une incohérence frustrante dans les logiciels géospatiaux (notamment de type mappage) est l'ordre des coordonnées.
Les coordonnées sont souvent représentées sous forme de tableaux, comme [45.1, 4.1.], au lieu d'objets, comme {lng: 4.1, lat: 45.1}. Cela laisse au développeur de déterminer si 45.1 est la longitude ou la latitude. Un choix place un point sur Lyon, et l'autre un emplacement profond dans la Somalie.
La latitude de la ville de Lyon est proche de 45. Le pole nord c'est Lat=90 et l'équateur c'est une Lat= 0.
La longitude "0.00" est lié à Greenwich (Lat 51.48; Lng 0.00) un quartier de Londres :
https://fr.wikipedia.org/wiki/Greenwich_(Londres)

Le système de référence de coordonnées (CRS) 

Le système de référence de coordonnées (CRS) d'un objet GeoJSON est déterminé par son membre 'crs'. Si un objet n'a pas de membre crs, son membre crs de l'objet parent ou grand-parent peut être acquis. Si aucun membre crs ne peut être ainsi acquis, le CRS par défaut s'appliquera à l'objet GeoJSON.
Le CRS par défaut est un système de référence de coordonnées géographiques, utilisant le datum WGS84, et avec des unités de longitude et de latitude de degrés décimaux.
https://fr.wikipedia.org/wiki/WGS_84

GeoJSON (ici minimaliste) pour un point situé sur Fourvière à Lyon:
{
  "type": "FeatureCollection",
  "features": [
    {
      "type": "Feature",
      "properties": {},
      "geometry": {
        "type": "Point",
        "coordinates": [
          4.8264312744140625,
          45.76581655469703
        ]
      }
    }
  ]
}
GeoJSON a un ordre = Longitude,Latitude

L'ordre latitude longitude ou l'inverse

Il ya un certain consensus croissant autour de l'ordre (longitude, latitude) pour les formats géospatiaux, mais hélas c'est toujours le chaos pour les bibliothèques et les logiciels. Il appartient au développeur d'être conscient de ce problème et de lire la documentation requise, surtout de déplacer les coordonnées si nécessaire pour traduire entre différents systèmes:


La tradition géographique favorise lat, lon mais les mathématiques et souvent les logiciels préfèrent l'ordre lon, lat...
L'utilisation des coordonnées sphériques différent suivant les domaines.
En physique c'est "(r, θ, φ)" avec la distance radiale, l'angle dans le plan équateur, puis l'angle azimuthal.
En mathématiques "(r, θ, φ)" avec la distance radiale, l'angle azimuthal puis l'angle dans le plan équateur.
En fait il existe un ISO standard 80000-2 :2009 pour l'ordre des angles (item 2-16.3 coordinate systems: spherical coordinates). La latitude est en premier.
Hélas cet angle "latitude" mathématique est égal à 0 au "pôle nord" (par rapport à l'axe zenith ou z axis en coordonnées euclidiennes). Il est noté :


L'angle entre l'axe et le plan équateur est dans la borne: [0,π].
L'angle dans le plan équateur (perpendiculaire à l'axe zenith) est dans la borne:  [0,2π[.

Qu'en est-il de GPX ou OSM XML? 

Les formats qui représentent lat et lon avec des attributs XML distincts et n'imposent aucun ordre de coordonnées, car les attributs XML ne sont pas ordonnés...

Ref: en anglais  http://www.macwright.org/lonlat/

Friday, December 2, 2016

son et text : enregistrer le son et en même temps requête Siri ou dictée vocal (Apple)





La transcription, c’est le fait de reproduire fidèlement un enregistrement audio ou un texte écrit sur toute autre support. Ici nous nous intéressons au son->text.
La reconnaissance vocale est autre chose: voir Siri.

Tu as sur Mac (et sur iPhone) des fonctions de dictée vocale assez puissantes et totalement gratuites. Apple a bossé dessus avec Nuance, l’expert mondial en reconnaissance vocale.

La solution Apple

Dictée vocale Apple

Activation : deux fois sur la touche fonction (fn)
https://support.apple.com/fr-fr/HT203085

Dans accessibilité puis dictée, il faut créer une commande "nouvel enregistrement audio":


Aller dans une application comme textEdit par exemple.
Appuyer deux fois sur "fn" puis dite cette phrase "nouvel audio" (j'ai changé car nouvel enregistrement audio était trop long.
Vous pouvez aussi cliquez sur cette commande à côté de l'icone du microphone ou dans le menu "afficher les commandes de dictée" (choisir avant afficher menu accessibilité et alors il apparait dans le menu en haut).
Cette commande lance quicktime player comme montré sur l'image dessus:
puis sauvegarde


On peut associer la commande vocale à un autre logiciel comme audacity
http://www.audacityteam.org/
voir listes des bons logiciels "audio" sous mac:
http://www.makeuseof.com/tag/best-mac-os-x-apps/
Il existe plein d'outils pour convertir du AAC en divers formats.
En online: http://audio.online-convert.com/fr/convertir-en-mp3

puis on commence à dicter sous textEdit.

puis on arrête avec un click sur le microphone et sur arrêt dans quicktime et on sauvegarde les deux.

Le problème est que "dictée Apple" n'est pas si précise notamment pour les noms géographiques et scientifiques... Siri est meilleur.
On peut utiliser la même méthode quicktime avec Siri.

En outre pour la fonction inverse le text-to-speech d'apple a une interface limité comme "service". click sur un texte puis clic droit puis service et choisir "lecture".
choisir:
https://nosrac.github.io/Dictater/

Siri

http://www.apple.com/fr/macos/sierra/
Toutes les fonctionnalités pratiques de Siri sur iOS font leur apparition sur Mac. Avec une panoplie de nouvelles fonctionnalités pour vous aider au quotidien dans l’utilisation de votre ordinateur.

 Activation : la combinaison CMD + Espace maintenue une seconde ou par la voix (ci-dessous).

http://www.makeuseof.com/tag/use-siri-mac-quick-start-guide/
You can also create documents with Siri on Mac. To do so, start with a command such as “Send John a text” or “Send John an email”. From there, Siri will prompt you to compose the message using your voice. When completed, Siri sends the message automatically. You can also use Siri to compose tweets, Facebook posts, and more. You cannot write documents in applications like Pages and Word with Siri. In this release, Siri cannot work with any third-party applications, unlike its iOS counterpart.

http://www.macg.co/os-x/2016/06/macos-sierra-la-decouverte-de-siri-94581
Le panneau de réglage Siri remplace le « Dictée et parole » que l’on avait sur OS X<10.12.  Les réglages associés à la synthèse vocale et à la dictée de texte ont été logés ailleurs, en l’occurrence dans le panneau dédié à l’accessibilité (rubriques « Parole » et « Dictée » dans la barre latérale).
Siri gère de nombreuses langues:



Siri macOS est aussi capable d’appeler vos contacts, mais uniquement avec FaceTime, il peut également envoyer des messages via iMessage et sur les réseaux sociaux, ou encore composer un mail. On peut aussi modifier certains paramètres système, baisser ou augmenter la luminosité ou le volume sonore, ou encore ouvrir directement des panneau de préférences. Quelques informations sur le Mac seront aussi plus facilement accessibles par ce biais, comme le numéro de série, mais Siri ne l’ajoute pas au presse-papier, dommage.

On peut aussi afficher un contact, calculer des itinéraires (Plans prend alors le relais), chercher dans ses propres photos (Photos se charge d’afficher les résultats), gérer la musique avec Apple Music (et iTunes qui s’en charge) créer de nouvelles notes et gérer ses rendez-vous, etc.
Siri prend en charge quelques-unes des spécificités de macOS, et il gère notamment les fichiers.

Il y a une nouveauté dans Siri macOS qui n’existe pas encore sur iOS 10 et qui serait pourtant utile. Certains résultats peuvent être sauvegardés sous la forme d’un widget dans le Centre de notifications. C’est le cas pour les prévisions météo et pour la bourse, mais aussi pour une recherche dans le Finder, ce qui peut-être assez pratique.

Siri permet de réaliser plusieurs interactions entre la voix de l'utilisateur et les applications du système iOS comme le navigateur Safari, les applications de SMS, l'application téléphone, l'application Mail ou encore l'application de cartographie Plans. Voici quelques exemples de ces interactions :

  • Effectuer un appel avec l'application téléphone.
  • Dicter un SMS à envoyer.
  • Dicter une recherche à faire sur le web avec Safari.
  • Jouer un morceau de musique avec l'application musique.
  • Lancer un itinéraire avec Plans.
Les différences avec Siri iOS sont nombreuses:
Siri is the big step forward in macOS. This isn’t the same Siri you’ve used (or tried to use) on the iPhone. Siri for Mac can handle multi-step searches, for instance, like “What time do the Warriors play?” followed by “What channel is it on?” It also feels Mac-specific in clever ways, and more thoroughly integrated. 


En américain (et différent): https://support.apple.com/en-us/HT206993

La fonctionnalité Dictée vocale convertit vos paroles en texte.

Choisissez le menu Apple () > Préférences Système > Clavier > Dictée vocale. Activez la fonctionnalité Dictée vocale, puis choisissez parmi les options suivantes :
Sélectionnez l’option Dictée améliorée (dès OS X Mavericks 10.9 ) si vous souhaitez utiliser la fonctionnalité de dictée vocale lorsque vous n’êtes pas connecté à Internet.
Sélectionnez vos langue et dialecte. Certaines langues, comme l’anglais, se déclinent en plusieurs dialectes.
Choisissez le raccourci clavier permettant d’activer la fonctionnalité de dictée vocale. 
Sélectionnez ensuite votre microphone préféré à partir du menu contextuel situé sous l’icône de microphone.
Les fonctionnalités Siri et Dictée vocale n’offrent pas les mêmes résultats, mais vous pouvez demander à Siri de composer des messages courts, notamment des e-mails et des messages texte.
Avec Siri, vous ne pouvez pas parler plus de 40 secondes à la fois!!!
Siri est plus performant avec un accès online que "dictée".

Ce qui manque?

Il manque toutefois au Siri de Sierra une fonction fort utile disponible sur iOS : Dis Siri, qui permet d’invoquer l’assistant d’une simple requête vocale, sans avoir à cliquer sur son icône du dock ou dans la barre de menus.
Lancer Siri par la voix sur OSX Sierra 10.12:
Pour créer votre requête « Dis Siri », rendez-vous dans les préférences Accessibilité > Dictée. Si cela n’est pas déjà fait, cochez l’option Activer les commandes de dictée avec la phrase clé, puis saisissez la commande vocale qui lancera les fonctions de dictée (ici, « Dis »).
http://www.macg.co/os-x/2016/07/comment-avoir-dis-siri-sur-macos-sierra-94909
Donc cette fonction ne manque pas...

Autre point un peu négatif, habitué à autant que déformé par Google, on aimerait pouvoir décider que Siri mène ses recherches dans ce moteur de recherches plutôt que dans Bing, qui est celui par défaut.

on ne peut pas envoyer un texte sur TextEdit que vers mail.

temps limité à 40secondes ou quand on arrête de parler 1/2 seconde!

concurrents

https://fr.wikipedia.org/wiki/Google_Now
https://fr.wikipedia.org/wiki/Cortana_(assistant_personnel_intelligent)

https://en.wikipedia.org/wiki/Siri

On peut aussi utiliser la transcription YouTube

Pour chaque fichier vidéo envoyé sur YouTube, YouTube génère de façon automatique un transcript texte de ton enregistrement vidéo. C’est largement imparfait, mais c’est toujours mieux que de démarrer de zéro, en plus tu as tous les repères de temps dans le fichier à exporter. YouTube n’accepte que les fichiers vidéos en Upload. Si tu as seulement un fichier audio, utilise un logiciel de montage vidéo comme iMovie sur Mac (ou Movie Maker sur PC). Donc tu vas ajouter le fichier audio dans la ligne de ton montage et une image fixe pendant toute la durée du son. Tu pourras ensuite exporter ça. YouTube considérera que c’est une vidéo. Tu n’auras plus qu’à le partager sur YouTube, attendre une ou deux heures en fonction de la durée du montage et ensuite tu auras un transcript automatique de ton montage audio.
Maintenant que tu as le son, le transcript YouTube imparfait, Prend ton navigateur Internet préféré et tape dessus, dans la barre d’adresse, Otranscribe.com (http://otranscribe.com/), ajoute ton enregistrement sonore dans le player, ton transcript YouTube dans la zone de texte et commence à corriger les imperfections à la voix avec la dictée vocale si tu as un Mac ou au clavier si tu as un PC.
Grâce au lecteur audio intégré, tu peux facilement revenir sur une séquence, passer en lecture accélérée, en lecture ralentie. A chaque fois que tu appuies sur pause, et que tu reviens ensuite en mode lecture, le player revient une seconde avant, ce qui te permet de bien te caler au moment de l’écriture.

A la fin de toutes ces opérations, tu auras un texte parfait que tu pourras intégrer dans un article de blog, en sous-titre améliorés dans une vidéo YouTube, ou dans ton livre.
Otranscribe.com  permet de sauvegarder en markdown, en texte et Google Docs.

Ref: http://astuces.jeanviet.info/musique/transcricption-automatique.htm

Thursday, December 1, 2016

maps and stories: an article "the cartographic journal"

"the cartographic journal":
2015 Impact Factor: 0.569
http://www.tandfonline.com/toc/ycaj20/current

Geography professors Sébastien Caquard and William Cartwright have analysed the relationship between maps and narratives, and they agree that maps are an extraordinary tool to explain stories.
http://www.tandfonline.com/doi/full/10.1179/0008704114Z.000000000130
The Cartographic Journal
The World of Mapping
Volume 51, 2014 - Issue 2: Cartography and Narratives
“The potential of maps to both decipher and tell stories is virtually unlimited. Maps can contribute to leaving cartographic traces, making these experiences more visible and more tangible.”

If you are starting to create your own maps, some of the best tools you can use are CartoDB and Google Fusion Tables. You can also get simple and effective maps with Google Maps.
If you have some knowledge of JavaScript, you can also use Mapbox with hundreds of options to customise your maps.

Ref:
http://www.carlapedret.cat/maps-stories-cartodb-mapbox-fusion-tables/

Wednesday, November 30, 2016

mapbox studio, mapbox.js and story map: many examples and import/export and plug-in (leaflet).


Built on top of Leaflet: http://leafletjs.com/

many examples

basics

https://www.mapbox.com/mapbox-gl-js/example/popup-on-hover/
https://www.mapbox.com/mapbox-gl-js/example/custom-marker-icons/

scroll-driven story map 

A very quick way to create an effective scroll-driven story map is to use Mapbox GL. The advantage of using Mapbox GL over some other mapping libraries is that Mapbox GL allows you not only to zoom and pan the map but to rotate the map to provide different perspectives on your featured locations

If you want to create a Mapbox GL story map there is also the added advantage that Mapbox has provided a great template in their list of 'example' maps. The Fly to a location based on scroll position map in the Mapbox GL examples (https://www.mapbox.com/mapbox-gl-js/example/scroll-fly-to/) provides a neat demo of the possibilities of a Mapbox GL story map (all you have to do to create your own story map is copy & paste the provided code and change the content to suit the story you want to tell).
An example of story map (without UI events):
https://www.mapbox.com/mapbox.js/example/v1.0.0/scroll-driven-navigation/
An example: Slideshow gallery in a marker tooltip; Add a custom slideshow to a marker's tooltip.
https://www.mapbox.com/mapbox.js/example/v1.0.0/markers-with-image-slideshow/

This JavaScript library uses WebGL to render interactive maps from vector tiles and Mapbox styles. We found out how to to configure the color mapping on the client side and minimize data traffic while rendering a lot of data (https://www.ubilabs.net/en/news/data-driven-raster-layer-mapbox-lg-2016-09-05).

A very good example:

http://carlapedret.github.io/jewellerymap/
A beautiful example of a Mapbox GL story map is Birmingham Eastside's Gentrification in Birmingham’s Jewellery Quarter. Birmingham Eastside has used the Mapbox GL demo map to create a mapped guide to how gentrification is affecting Birmingham's Jewellery Quarter.
As you scroll through the map you are taken on a tour of the neighborhood, highlighting some of the biggest changes in the area. The Gentrification in Birmingham's Jewellery Quarter map also features map markers which provide another level of interactivity to the map. These markers provide additional information and media - such as audio recordings of interviews with some of the individuals featured in the side-panel content:
(iframe of soundclound like this:
<iframe width='100%' height='275' scrolling='no' frameborder='no' src='https://w.soundcloud.com/player/?url=https%3A//api.soundcloud.com/tracks/259889010&amp;auto_play=false&amp;hide_related=false&amp;show_comments=true&amp;show_user=true&amp;show_reposts=false&amp;visual=true'></iframe>",
(iframe XXXX below)
in this GeoJSON structure:
{
        "type": "Feature",
        "properties": {
            "title": "Matthew why",
            "description": "<div class='marker-title'>A central location and an historic flavour</div> \
            <p>Matthew Bott is from Birmingham and lives in the Jewellery Quarter since 2007. The privilege to walk to his work place and the special character of the area are his reason to live in the neighbourhood. (Image: Flickr/Roland Turner).</p> \
            <iframe XXXX </iframe>",
            "marker-symbol": "marker",
        },
        "geometry": {
            "type": "Point",
            "coordinates": [-1.907828, 52.486782]
        }
    },

https://github.com/carlapedret
only copy/paste the example's html of mapbox.js (put in GitHub and after to github.io hosted pages http://carlapedret.github.io/jewellerymap/).

other example 

https://www.mapbox.com/bites/00110/
Mapbox have also used their own story map format to create a map of the intriguing case of Robert Durst. Durst was arrested on a first-degree murder warrant. If convicted he could face the death penalty.
Following the Life and Death of Robert Durst plots the key movements and actions of Robert Durst since his first wife 'disappeared' three decades ago up until his arrest in New Orleans. As well as the scroll-driven narration and up-dating map 'Following the Life and Death of Robert Durst' uses map markers and polylines to track Durst's movements around the country and to connect all the featured locations together.
-->no UI events on the map.

Video embeds in tooltips
Embedding iframe videos in feature tooltips:
https://www.mapbox.com/mapbox.js/example/v1.0.0/video/

Timeline with scaled markers
Use d3 to brush through a timeline of scaled markers with popups:
https://www.mapbox.com/mapbox.js/example/v1.0.0/timeline-scaled-markers/

import/export: Leaflet-Omnivore plug-in

avec https://api.mapbox.com/mapbox.js/plugins/leaflet-omnivore/v0.2.0/leaflet-omnivore.min.js
Some examples:
CSV
https://www.mapbox.com/mapbox.js/example/v1.0.0/omnivore-csv-simplestyle/
KML
https://www.mapbox.com/mapbox.js/example/v1.0.0/omnivore-kml-tooltip/
https://www.mapbox.com/mapbox.js/example/v1.0.0/omnivore-kml/
GPX, or WKT
https://www.mapbox.com/mapbox.js/example/v1.0.0/omnivore-wkt/

many plug-ins:

https://www.mapbox.com/mapbox.js/plugins/

https://www.mapbox.com/mapbox.js/example/v1.0.0/leaflet-fullscreen/
Leaflet Fullscreen
Add a control to enable a map to be in full screen mode.
Adds a button to your map that enables it to fill the screen using the HTML5 Fullscreen API.

intro studio

In Mapbox Studio, the dataset editor and style editor work together to help you make powerful custom maps. The dataset editor allows you to manage and edit geospatial data, and the style editor allows you to create custom map styles to your exact specifications. This guide will focus on the dataset editor, covering the basics of how a dataset is uploaded to your Mapbox account and the options in the dataset editor interface.

csv

many problems occur.

https://www.mapbox.com/help/define-csv/
When uploading CSV files, keep the following in mind:

CSV files must be in UTF-8 encoding.
CSV files must contain coordinates (latitude and longitude) when uploading in Mapbox Studio or Mapbox Studio Classic.
Only Mapbox Editor will geocode addresses found in a CSV file.
CSV files are for point data only.

geoJSON

no problem...
example for two points:
{
  "type": "FeatureCollection",
  "features": [
    {
      "type": "Feature",
      "properties": {
        "hover": "Yssingeaux"
      },
      "geometry": {
        "type": "Point",
        "coordinates": [
          4.123724699020386,
          45.142269883456066
        ]
      }
    },
    {
      "type": "Feature",
      "properties": {
        "hover": "Eglise"
      },
      "geometry": {
        "type": "Point",
        "coordinates": [
          4.12424772977829,
          45.14296420392794
        ]
      }
    }
  ]
}


GeoJSON is a file format for map data served by Mapbox web services and APIs. As a subset of the JSON format, it can be parsed in modern software and native to the JavaScript language.

When you create features in the Mapbox Studio dataset editor, you are creating GeoJSON that you can use with other Mapbox tools and APIs. These datasets can be accessed as GeoJSON by downloading directly from the Mapbox Studio Datasets page or by using the Datasets API.

If you have GeoJSON data you wish to put on a map, you can upload GeoJSON to your Mapbox account using Mapbox Studio. You can add this either as a dataset for quick updates or geometry changes or as a tileset for styling in your custom map.

The Mapbox Studio dataset editor is a tool for editing datasets. A dataset is an editable collection of GeoJSON features. Datasets can be uploaded to Mapbox via Mapbox Studio or the Datasets API.

Datasets are different than tilesets. It’s possible to modify dataset feature geometries and properties in the Mapbox Studio dataset editor and export to a tileset for styling. However, datasets themselves cannot be styled. Tilesets can be styled, but cannot be edited.

Export a dataset to a tileset and a style

After you have finished editing your dataset, click Save to review the changes you have made and click Export to export your dataset as a vector tileset. A vector tileset is a collection of data broken up into a uniform grid of square tiles at up to 22 preset zoom levels. Your tilesets are stored on the Tilesets page in your Mapbox account.

See my post:
http://stephane-mottin.blogspot.fr/2016/11/faire-un-fichier-csv-ou-de-transcodage.html





Thursday, November 10, 2016

takes a directory full of images, export Lat, Long data and makes a file (i.e. GeoJSON/HTML or spreadsheet or .kml) with all of the found GPS points. 2016 standard specification of the GeoJSON format: RFC 7946


directory full of images---> GeoJson or spreadsheet file (or kml)

-->GeoJson

GeoJSON is a format for encoding a variety of geographic data structures for example:
{
  "type": "Feature",
  "geometry": {
    "type": "Point",
    "coordinates": [125.6, 10.1]
  },
  "properties": {
    "name": "Dinagat Islands"
  }
}

GeoJSON supports the following geometry types: Point, LineString, Polygon, MultiPoint, MultiLineString, and MultiPolygon. Geometric objects with additional properties are Feature objects. Sets of features are contained by FeatureCollection objects.

In 2015, the Internet Engineering Task Force (IETF), in conjunction with the original specification authors, formed a GeoJSON WG to standardize GeoJSON. RFC 7946 was published in August 2016 and is the new standard specification of the GeoJSON format, replacing the 2008 GeoJSON specification.

Remember that GeoJSON stores coordinates in "reversed order" (longitude, latitude)

Some javascript codes:

1/exif-to-geojson
https://github.com/hallahan/exif-to-geojson
This javascript takes a directory full of images and makes a GeoJSON file with all of the found GPS points. Put the images you want to create a corresponding GeoJSON file with in the img directory.
node exif-to-geojson.js . The output will be written to exif.geojson
Demo: http://hallahan.github.io/exif-to-geojson

After you run the script, you can see the geojson with pop-ups that link to the corresponding images in index.html.
See also: https://github.com/hallahan/LeafletPlayback
This is a Leaflet plug-in that plays back points that have a time stamp synchronized to a clock. http://leafletplayback.theoutpost.io

2/exif-gps-to-json-example (quite complex)
https://github.com/omichelsen/exif-gps-to-json-example
Example code on how to save EXIF data from photos to a JSON file. http://ole.michelsen.dk/blog/showing-photo-gps-location-on-google-maps-with-gulp.html

This is the example code for the article Showing photo GPS location on Google Maps with gulp.
In this tutorial I will go through how to read the EXIF data from a folder of photots, and show the GPS location where each photo was taken in Google Maps. This article is based on the code I wrote to make my personal World Travel Map,
https://ole.michelsen.dk/photos/travel-map.html
(see this interesting "story map" with text!!!)
which shows where I've been based on my vacation shots.
https://ole.michelsen.dk/blog/showing-photo-gps-location-on-google-maps-with-gulp.html

We'll use the gulp build system to read the image files and output the data we need to a JSON file, which we can then read into Google Maps.

First we install gulp and a couple of packages, gulp-data, gulp-exif and gulp-extend:
npm install --save-dev gulp gulp-data gulp-exif gulp-extend
This will allow us to read the EXIF data from the image files, extract the part we need (GPS coordinates), and save it all into a single JSON file.

https://github.com/gulpjs/gulp/blob/master/docs/getting-started.md

Now we create a task called "exif", which does three things:

  • Reads the EXIF data from the images in the photos folder
  • Plucks out the GPS data and puts it in a JSON format with the filename as the key
  • Joins the JSON data into a single gps.json file

3/exif-geo
https://github.com/annejan/exif-geo
Show distance between image EXIF GPS data and Location API.

  • Use client side parser
  • Store results for statistical analysis
  • Auto positioning and scaling of map
Try it out at http://geo.printf.nl/

Some tools:
Convert GPS degrees, minutes, seconds coordinates to decimal value. Useful for parsing GPS exif tags in geotagged images, Google Maps, and Open Street Map (SOM).

https://github.com/Turistforeningen/dms2dec.js

Remember that GeoJSON stores coordinates in reversed order (longitude, latitude) which means you have to reverse the order of the coordinates returned from dms2dec():
var geojson = {
  type: 'Point',
  coordinates: dms2dec(lat, latRef, lon, lonRef).reverse()
};

4/GPSeitor (code date: 2014)
https://github.com/eltuza/GPSeitor
A Python application that processes a pictures directory and generates a static web page positioning the images that have GPS Exif data in a Google Map in a gallery-like fashion.

5/gps detect (firefox add-on)
https://github.com/allanlw/gps-detect
Firefox addon for detecting GPS EXIF info in JPEGs automatically.
GPSDetect is a simple Firefox addon that monitors Firefox network traffic and automatically alerts the user whenever a JPEG file loads that contains embedded EXIF GPS coordinates.
When an image is detected that contains GPS data, the user is alerted, and given a link to the offending image as well as the GPS information and a link to the location on a map.

Note that most major social networking sites strip EXIF information (including GPS locations). This includes Facebook, Twitter and imgur.

GPSDetect uses the Firefox Add-on SDK, which is required to build and install it, for now. To build a copy of GPSDetect, see the Add-on SDK installation instructions to activate the SDK's virtualenv, and then simply run cfx xpi in the GPSDetect root directory. You will get an unsigned XPI that can be installed into Firefox as usual.
https://developer.mozilla.org/en-US/Add-ons/SDK
https://developer.mozilla.org/en-US/Add-ons/SDK/Tools/jpm#Installation

6/jpeg-exif-data
https://github.com/BelfordZ/jpeg-exif-data
command line interface (cli) tool for pulling exif gps data from images

7/photo-saver
https://github.com/montanaflynn/photo-saver
Organize your photos based on exif date and GPS coordinates.
Usage:
This simple tool takes two arguments, an input directory and an output directory. The input directory should be a folder with photos that have exif data. The output directory is where you want the organized files to end up. Of course your original files are left alone.

Rem:
MongoDB is a free and open-source cross-platform document-oriented database program. Classified as a NoSQL database program, MongoDB uses JSON-like documents with schemas. MongoDB is developed by MongoDB Inc. and is free and open-source:
https://www.mongodb.com/
https://en.wikipedia.org/wiki/MongoDB

http://anonfunction.com/2014/10/exporting-mongodb-to-csv/

-->Spreadsheet file

The goal for this post is to extract Longitude and Latitude data from a folder of images and export the data in a CSV so it can be easily imported into a Fusion Table or other spreadsheet.

1/ use exifTool:

2/Once the installation is finished, open up Terminal or open up your Command Line on Windows or the stand-alone Windows executable.

Here is the line that you need to enter:

“exiftool -csv -filename -imagesize -gps:GPSLatitude -gps:GPSLongitude ./ > long.csv”

This command will go to the folder that you input and read through all of the images and pull out the filename, the image size, the GPS Latitude and the GPS Longitude and export everything to a CSV.

Here is the finished CSV that is opened in Excel:





Sunday, October 30, 2016

online web service pour des photos géo-taggées ou géo-localisées

La « balise de géolocalisation »  peut notamment contenir dans le champs EXIF de chaque image :

  • des données GPS (coordonnées latitude et longitude, une altitude)
  • la direction de vue (boussole)1
  • des informations saisies par l'utilisateur : lieux de saisie, code postal…
  • autres données non cartographiques peuvent être associées comme :
    • des données temporelles : heure de capture…
    • des données spécifiques aux périphériques de capture : appareil photo (focale…), appareil audio (échantillonnage, bit…)

online web service


(on peut aussi voir les données exif d'une image via son URL
et sa localisation :
Map via embedded coordinates at: Google, Yahoo! Japan, MapFan, WikiMapia, OpenStreetMap, Bing).


Open source:
avec Java Webstart et Java SE 7 runtime installé
ou en local avec  java -Xmx256M -jar geotag-0.xyz.jar

----
Create and publish interactive maps; Use maps for analysis and presentations:

----
steps to create a story map :




Monday, July 1, 2013

apres la google car , la Google Maps Trekker pour les zones inaccessibles

Google annonce le lancement d'un nouveau programme permettant aux globe-trotters et aux organisations d'étoffer la base de cartes de Street View. 

Logo Google Maps pour iOS
Depuis plusieurs années, Google sillonne les rues du monde entier grâce à ses fameuses Google Cars équipées d'une caméra à 360*. Le dispositif permet par exemple de visualiser plus précisément depuis Google Maps l'endroit exact d'une adresse. Cependant, certaines zones ne sont pas aménagées pour le passage de véhicules et requièrent la mise en place d'excursions pédestres.

La firme de Mountain View annonce ainsi le lancement d'un nouveau programme baptisé Google Maps Trekker. Ce dernier propose à des organisations tierces d'emprunter l'équipement nécessaire à la capture de photos. L'équipe de Google Maps aidera à la prise en main du matériel avant de laisser ces nouvelles recrues autonomes.

Google mise principalement sur les organismes chargés de promouvoir leurs régions auprès de potentiels touristes. La firme de Mountain View explique que son premier partenaire est le Hawaii Visitors and Convention Bureau, lequel souhaite notamment dresser une cartographie des divers sentiers pédestres autour de la zone volcanique de l'île. Les agences gouvernementales, les universités ou encore les centres de recherche sont également invités à rejoindre le programme en remplissant ce formulaire.

Reste à savoir si ces partenaires sauront faire face à des situations potentiellement délicates comme ont pu l'être les Google Cars vis-à-vis des groupes de citoyens criant à des violations de vie privée... Quoi qu'il en soit, le service devrait donc prochainement s'enrichir de nouvelles photos panoramiques.


REFERENCE:
La suite sur Clubic.com : Google recrute des explorateurs pour Google Maps http://www.clubic.com/internet/google/actualite-569038-google-recrute-explorateurs-google-maps.html#ixzz2XrJIS7MQ
Informatique et high tech 

Tuesday, February 7, 2012

Bidules d'Excellence et région RA; Initiatives d'excellence (IDEX) : résultat de la deuxième vague fevrier 2012. Equipex, LabEx,IRT,IHU, SATT, action Santé et biotechnologies;Lyon-St-Etienne (classée gamma; GaWC) est en fait abandonnée.

Grand emprunt

Pour sa ventilation  (>35lignes de projets),
voir par exemple http://fr.wikipedia.org/wiki/Grand_emprunt
En fait, il y  a  57 lignes de projets (en date de fin janvier 2012; première vague et deuxième vague étant des appels séparés)! Voir la liste des 57 à la fin de ce post avec chacun un lien pour ceux qui sont perdus dans ce labyrinthe. 

Classés par masse financière, les 5 premiers postes de dépense sont:
  1. IDEX: 7.7Md€
  2. Fonds national pour la société numérique: 4.25Md€
  3. IRT Institut de recherche en technologie: 2Md€
  4. Santé et biotechnologies: 1.55Md€
  5. Aéronautique:1.5Md€
soit 17Md€, grossièrement la moitié du grand emprunt fléchée sur ces 5 premiers postes.
--------

IDEX, le bilan 

Le Premier ministre a annoncé vendredi 3 février 2012 à Bordeaux, les résultats  de la deuxième vague des appels à projets "Initiatives d'excellence" (IDEX) du programme d'Investissements d'Avenir.
On peut donc dresser le bilan de cette opération d'une précipitation en dehors de toute raison. La raison si fondamentale dans tous les sciences, y compris les sciences politiques, est la grande absente de cette procédure. Souvenez vous de la création de l'AII et des 5 grands projets franco-allemands annoncés par Chirac en Avril 2005 dans sa fin de mandat. Ils sont tous tombés à l'eau en 2006...

Bref 5 projets sont retenus :

Projets retenus Initiatives d'excellence vague 2
RégionAcronymeNomPorteur
Provence-Alpes-Côte d'Azur  A*MIDEX  Aix-Marseille University Idex  Pôle de recherche et d'enseignement supérieur PRES Aix-Marseille Université
Midi-Pyrénées  UNITI Université de Toulouse  PRES Université de Toulouse
Ile-de-France  IPS Idex Paris-Saclay  Fondation de coopération scientifique Campus Paris-Saclay (en formation vers un PRES)
Ile-de-France  SUPER Sorbonne Université  PRES Sorbonne Université
Ile-de-France  USPC Université Sorbonne Paris Cité  PRES Sorbonne Paris Cité

Ces cinq projets s'ajoutent aux trois qui ont déjà été sélectionnés au cours de la première vague (UNISTRA à Strasbourg, doté de 750 millions d'euros,  Idex Bordeaux, doté de 700 millions d'euros et Paris Sciences et Lettres à Paris, doté de 750 millions d'euros).

Cet appel à projets est dotée de 7,7 milliards d'euros. Il a pour ambition de permettre de faire émerger en France 8 pôles pluridisciplinaires, qui seraient capables de rivaliser avec les plus grandes universités du monde (sic).

Quelle somme?
Nous y avons de l'ordre de 100million€/projet/an.
C'est le budget global récurrent d'une université de 10000étudiants.

La sélection  de ces projets s'articulait autour de 4 critères  :
  • L'excellence en matière de recherche, 
  • L'excellence en matière de formation et la capacité à innover,
  • L'intensité des partenariats avec l'environnement socio-économique et au niveau international
  • La capacité de la gouvernance à mettre en œuvre efficacement  la stratégie du projet : objectifs et trajectoire, politique des ressources humaines, allocation des moyens. 
5 IDEX_2ième_vague sont  passés sur les 11 projets (il faut aussi compter en plus les projets recyclés de la première vague).
Ref: http://www.enseignementsup-recherche.gouv.fr/cid57875/11-candidatures-recues-pour-l-appel-a-projets-initiatives-d-excellence.html


En dehors de la région parisienne qui confisque 50% (4 projets sur les 8IDEX): l'aménagement du territoire se résume à Bordeaux, Strasbourg, Toulouse et Aix-Marseille!
Ni Lyon-St-Etienne, ni Lille, ni Nantes (Campus d'innovation Ouest= sept villes Nantes, Rennes, Angers, Le Mans, Brest, Vannes  et Lorient) ne sont passés!

Si on prend le classement du GaWC, Globalization and World Cities Research Network du Geography Department @ Loughborough University (http://www.lboro.ac.uk/gawc/world2010t.html; http://www.lboro.ac.uk/gawc/guide.html),
alors après Paris (classée "Alpha+" et non "Alpha ++" comme NY ou Londres),
  • Lyon est en position "gamma en 6ième position,
  • Marseille en "gamma-" en 7ième position,
  • Strasbourg et Lille, en high sufficiency respectivement 4ième et 29ième position
  • Nantes, Toulouse, Bordeaux, Montpeller, Nice en sufficiency 4ième, 6ième, 15ième, puis en fin de classement.
Cet effort de la nation aurait aidé Lyon-St-Etienne a passé la cap du gamma+ pour arriver juste au niveau de la centième "ville mondiale".
---
Voici la lettre des porteurs du projet non doté Lyon-St-Etienne reçue ce 6 février 2012:
Chers collègues, chers amis


Vous savez désormais que nous ne faisons pas partie des cinq projets lauréats de la seconde vague d’Idex mais que, néanmoins, le Premier Ministre a salué la « très grande qualité des projets » de Lyon Saint-Étienne et Hesam. Le projet d’Idex de Lyon Saint-Etienne a en effet réuni une majorité simple des suffrages du jury international. Le CGI nous a indiqué que le très bon niveau de l’audition a été déterminant dans ce vote.


Le Premier Ministre a demandé à Laurent Wauquiez et au CGI, pour les sites d’Hesam et de Lyon Saint-Etienne, un dispositif d’accompagnement spécifique vers la reconnaissance de l’excellence. Le CGI nous a informés en début d’après-midi que cette reconnaissance pourra mener à une labellisation, contrairement à ce qu’une première déclaration avait laissé croire.


Même si nous pouvons être légitimement déçus de ne pas figurer parmi les cinq lauréats, la perspective ainsi ouverte mérite d’être considérée avec attention.


Nous tenons à remercier ceux qui se sont pleinement investis dans ce projet et nous vous assurons que nous sommes toujours entièrement dévoués à la réussite de notre démarche collective, que nous continuons à juger fructueuse et indispensable.


Michel Lussault et Jacques Samarut  (porteurs du projet)
---------
Ref: http://www.enseignementsup-recherche.gouv.fr/cid59263/5-projets-selectionnes-pour-la-deuxieme-vague-de-l-appel-a-projets-initiatives-d-excellence.html
--------------------

Equipex le bilan
2ième_vague
 Depuis 20 dec 2012 on connais les sélectionnés de la deuxième vague.
On peut donc faire un bilan de cet ligne.

Rappel: pour le première vague (résultat était tombé en janvier 2011):
 340 millions d'euros pour les 52 lauréats de la première vague de l'appel à projets "équipements d'excellence"
 soit 340M€/52projets/10ans= 650k€/an/projet
  •     24 projets de 1 à 5 M€,
  •     16 projets de 5 à 10 M€,
  •     12 projets de plus de 10 M€.
Ref: http://www.enseignementsup-recherche.gouv.fr/cid54722/340-millions-d-euros-pour-les-52-laureats-de-la-premiere-vague-de-l-appel-a-projets-equipements-d-excellence.html
Localisation: http://www.enseignementsup-recherche.gouv.fr/cid56489/localisation-des-projets-investissements-d-avenir-equipements-d-excellence.html
9 équipex_1ère_vague ont intervenir des équipes de recherche de Lyon et de Saint-Etienne.
Lyon-Saint-Etienne s’est vu confirmé la réalisation de 9 projets dont 4 d’équipement de site et 5 participations dans des projets inter-régionaux.

Secteur Energie : Phare (3), Manutech (4,2) Total = 7.2 M€
Secteur Bio santé : SENS (1,8) IVTV (2,7) - Total = 4.5M€
Participation aux réseaux :
- Energie : ThomX (12 millions d’euros)
- Sciences de l’environnement : ECOX (4.2 m euros)
- Sciences informatiques : Equip@meso (10.5 m euros), FIT (5.8 m d’euros)



Quelle somme pour cette deuxième vague?  
210M€/36projets/8ans soit en moyenne 730k€/an/projet.

270 projets ont été reçus pour ce deuxième appel lancé en juin 2011: sur la base des évaluations et recommandations d'un jury international, présidé par Philippe Le Prestre, professeur de science politique et directeur de l'institut Hydro-Québec (Canada), 36projets ont été sélectionnés en janvier 2012 soit un taux de sélection de 13%! Quel gâchis pour la nation car cela fait beaucoup d'articles et de brevets en moins et énormément de désillusion et résignation, mortifère pour la science et la créativité...
A l'issue de cette deuxième vague, 210,3M€ sont attribués aux lauréats sur 8ans, issus de dotations en capital produisant des intérêts et de dotations immédiatement mobilisables pour de l'investissement:
Ainsi, l'achat des équipements, mais également une partie des coûts liés à leur fonctionnement, comme la maintenance, et certains personnels indispensables à l'installation ou à la mise au point de l'équipement, sont assurés par le financement.

L'ensemble des domaines de recherche est représenté à travers les 36 projets retenus: 6% en sciences numériques et mathématiques, 14% en sciences humaines et sociales, 17 % en sciences de de la terre, de l'écologie et de l'environnement, 39% dans le domaine de la matière et de l'énergie, 25% dans le secteur de la biologie-santé.

Pour la localisation en France:
http://www.enseignementsup-recherche.gouv.fr/cid58821/localisation-des-projets-investissements-d-avenir-equipex-vague-2.html

Pour la région RA, la deuxième vague donne un bilan de 12 lauréats (mais elle s'avère assez décevante en regardant les détails):
1) BEDOFIH : Base européenne de données financières à haute fréquence
Université Pierre Mendès-France (Grenoble 2) ou CNRS / EUROFIDAI UPS
3390 CNRS en partenariat avec UPMF (Université de Grenoble 2), EUROFIDAI
UPS 3390 CNRS, GREGHEC UMR CNRS 2959 HEC Paris, Institut des Grilles
(Infrastructure nationale) UPS 3107 CNRS, LSPC UMR CNRS 5821 et UJF,
INSEAD OEE DATA SERVICES (IODS), Pôle de compétitivité mondial Finance
Innovation, Institut Bachelier, Information Finance Agency

2) BIBLISSIMA : Bibliotheca bibliothecarum novissima :
un observatoire du patrimoine écrit du Moyen Âge et de la Renaissance
(arabe, français, grec, hébreu, latin)
Paris en lien avec Lyon
3) CLIMCOR : Carottage PALEOclimatique: haute Résolution et Innovations
INSU CNRS; Grenoble
4) CRG\F : lignes synchrotron françaises à l'ESRF
5) CRITEX : Parc national d'équipements innovants pour l'étude spatiale et
temporelle de la Zone Critique des Bassins Versants
CNRS Grenoble
6) DURASOL : Etude du vieillissement accéléré des composants et systèmes
solaires photovoltaïques et thermiques et des corrélations climatiques via des
plates-formes multi-sites.
CEA
7) GENEPI : Equipement de gazéification pour plateforme innovante dédiée aux
énergies nouvelles
CEA / CIRAD, ARMINES
Grenoble, Albi
8) KINOVIS : Capture et analyse avancées des formes en mouvement
INRIA Grenoble
DESCRIPTION
Kinovis est une double plateforme de capture et d'analyse avancée des formes en
mouvement. La première à l’INRIA Grenoble, basée sur des caméras couleurs et de
profondeur, permettra l’acquisition d’information de géométrie et d’apparence sur les
formes en mouvement. La seconde plateforme au laboratoire d’Anatomie du CHU
de Grenoble (LADAF), basée sur des caméras couleurs et rayons X, permettra une
acquisition à la fois des structures anatomiques internes et externes pour les formes
biologiques.

9) LILI : Lyon - Imagerie Intégrée du Vivant : IRM-TEP hybride
Université de Lyon / Centre d’Etude et de Recherche Multimodal Et
Pluridisciplinaire en Imagerie du vivant (GIE CERMEP), Centre de Recherche en
Acquisition et Traitement de l'Image pour la Santé (CREATIS), Centre de
Recherche en Neurosciences de Lyon (CRNL), Cardiovasculaire, Métabolisme,
Diabétologie et Nutrition (CarMeN), Fondation Neurodis, Hospices Civils de Lyon
(HCL), SIEMENS Healthcare

 4Millions d'euro
Le projet consiste à développer une plateforme d'imagerie innovante composée d'un
système hybride de tomographie et d'imagerie par résonance magnétique pour
l’exploration structurelle et fonctionnelle  du vivant de manière simultanée. Il ouvrira
ainsi des voies innovantes d’étude des fonctions cérébrales, de la physiopathologie
des cancers, des dysfonctionnements cardiovasculaires, et des désordres
nutritionnels et métaboliques.

L'impact socio-économique des résultats du projet sera important avec d'une part
une diminution des coûts de santé par des diagnostics plus fiables et plus précoces
et d'autre part, un renforcement du partenariat avec SIEMENS. Enfin, il faut
souligner que la plateforme pourra être utilisée par des entreprises dans le domaine
pharmaceutique pour le test de l'efficacité des traitements.


Le projet LILI (Lyon Integrated Life Imaging: hybrid MRI-PET), porté par Olivier Bertrand, directeur de recherche INSERM en charge du Centre de Recherche en Neurosciences de Lyon, aidé par Alexander Hammers, neurologue titulaire de la chaire d'excellence en neuro-imagerie fonctionnelle de la fondation NEURODIS, a été sélectionné dans la deuxième vague du volet EQUIPEX (équipements d'excellence) du programme Investissements d'Avenir. 
ref: http://www.cermep.fr/ged.php?login=vvv&catagenda=678404593d4722c&pk_orga=9&pkcateg=287

10) PhenoCan : Phenotypage pour le cancer.
Lyon, Saint-Etienne 
Université de Lyon / CENTRE DE RECHERCHE EN CANCEROLOGIE DE LYON,
IMMUNITÉ, INFECTION, VACCINATION, VIROLOGIE HUMAINE, LABORATOIRE
DE BIOLOGIE MOLECULAIRE DE LA CELLULE, INSTITUTE OF FUNCTIONAL
GENOMICS OF LYON, CARDIO-METABOLISM, DIABETES AND NUTRITION
RESEARCH LABORATORY, CENTRE DE RECHERCHE EN NEUROSCIENCES
DE LYON, CENTER FOR GENETICS AND MOLECULAR AND CELLULAR
PHYSIOLOGY, NUTRITION ET CERVEAU, SFR BIOSCIENCES GERLAND –
LYON SUD, SFR SANTE LYON-EST LOUIS LEOPOLD OLLIER, NETRIS
PHARMA

11) REFIMEVE+ : RESEAU FIBRE METROLOGIQUE A VOCATION EUROPEENNE
ParisXIII
12) RESIF-CORE : Réseau sismologique et géodésique français : l’équipement
fondamental
CNRS
---------

LabEx
LabEx 1ière vague:
http://www.enseignementsup-recherche.gouv.fr/cid55551/investissements-d-avenir-projets-laboratoires-d-excellence-par-region-et-domaine.html
Vendredi 25 mars 2011: la liste des 100 lauréats de l’appel à projets "Laboratoires d’excellence"_1ière_vague, retenus parmi 241 candidatures.
L'Ile-de-France a passé 55 labex_1ière_vague (soit plus de la moitié)!
Grenoble et Lyon obtiennent 16 Labex.
http://www.grenoble-inp.fr/recherche/grenoble-8-projets-labex-retenus--354267.kjsp


Lyon - Saint-Etienne : 8 projets de LabEx_1ière_vague dotés sur les 12 présentés par l’Université de Lyon, et 2 projets dans lesquels l’UdL est associée, ont été retenus et seront financés par l’Etat.
http://imagine.universite-lyon.fr/labex/labex-laboratoires-d-excellence-158731.kjsp

En région, Grenoble et Lyon ont donc chacun 8 labex, tandis que Montpellier en décompte 7, Strasbourg 6 et Bordeaux 5. Parmi les moins bien servis figurent Aix-Marseille et Toulouse (3 labex chacun), Bretagne (2), Lille et Lorraine (1). Par ailleurs, des universités plus modestes ont obtenu le label : Amiens ou Limoges, par exemple.

Les sommes sont en fait très modestes:
1milliard€/100projets/10ans soit en moyenne un flux "récurrent" de 1million€/an/projet.
Idex deuxième vague étant tombé, nous y avons de l'ordre de 100million€/projet/an.
LabEx c'est du 1% d'IdEx.

Sur la procédure qui a été très critiquée: http://lemonde-educ.blog.lemonde.fr/2011/03/31/laboratoires-dexcellence-le-president-du-jury-sexplique-sur-ses-choix/

Concernant les cent labex lauréats, les sciences humaines n'ont pas été laminées (26 labex).Viennent ensuite les domaines biologie-santé (23), les sciences de l'environnement et de l'univers (17), les sciences numériques (15), l'énergie (10) et les nanotechnologies (9).

LabEx 2ième vague:
En ce début de février, nous sommes en attente des résultats de la deuxième vague (dossier qui était à envoyer  en nov 2011)
http://www.agence-nationale-recherche.fr/investissementsdavenir/AAP-LABEX-2011.html

------------------------------------------------------------------------------------------
-------IRT
IRT première vague
1,5 milliard d'euros pour les six premiers Instituts de Recherche Technologique IRT sélectionnés en mai 2011
Ref:http://www.enseignementsup-recherche.gouv.fr/cid57989/1-5-milliard-d-euros-pour-les-six-premiers-instituts-de-recherche-technologique.html
(Communiqué du 30/09/2011)
  1.     l'Institut "Nano" adossé au pôle de compétitivité Minalogic (Rhône Alpes)
  2.     l'Institut "Lyon BioTech" adossé au pôle de compétitivité Lyonbiopole (Rhône Alpes)
  3.     l'Institut "M2P" et adossé au pôle de compétitivité Materalia (Lorraine)
  4.     l'Institut "AESE" adossé au pôle de compétitivité Aerospace Valley (Midi-Pyrénées)
  5.     l'Institut "Railenium" adossé au pôle de compétitivité pôle I-Trans (Lille Nord de France)
  6.     l'Institut "Jules Verne" adossé au pôle de compétitivité EMC2 (Pays de la Loire)
Donc somme moyenne: 1.5Md€/10ans/6projets soit 25M€/an/projet


IRT deuxième vague
 Les projets proposés doivent être déposés sous forme électronique (documents de soumission téléchargeables) impérativement avant le 31 janvier 2011 à 13h00, sauf certaines annexes (documents B, C, D, G et I) qui devront être déposés sous forme électronique avant le 18 février 2011 à 13h.
http://investissement-avenir.gouvernement.fr/content/instituts-de-recherche-technologique-irt

----------autres bidules "excellence"

IHU première vague
850 millions d'euros pour les lauréats de l'appel à projets "Instituts Hospitalo-Universitaires" 
http://www.enseignementsup-recherche.gouv.fr/cid55607/850-millions-d-euros-pour-les-laureats-de-l-appel-a-projets-instituts-hospitalo-universitaires.html
Cet appel à projets permettra de faire émerger des centres d'excellence qui renforceront l'attractivité de la France dans le domaine de la recherche en santé. Chaque I.H.U.  associera autour d'une spécialité, une université, un établissement de santé et des établissements de recherche. Il réunira des équipes de chercheurs et de médecins français et étrangers, organisés autour d'un projet d'excellence en matière de soin, de formation, de recherche et de valorisation.
(Communiqué du 30/03/2011)


Mars 2011 résultats pour les 19 candidats ayant postulé:
Bordeaux, Marseille et Strasbourg décrochent un IHU et Paris trois.
Six autres projets jugés "prometteurs" dont Lyon.
Bref Lyon n'a pas été classé dans les 6 premiers!
Les 6prometteurs:
  1. l'institut de médecine personnalisée du cancer  de Villejuif (avec l'institut Gustave Roussy et l'université Paris-Sud) ; 
  2. l'institut Saint-Louis coordonné par l'université Paris Diderot ; 
  3. l'institut protection et remplacement des organes 
  4. et l'institut cerveau et santé mentale de Lyon ; 
  5. le centre européen des sciences de la transplantation et d'immunothérapie de Nantes 
  6. le Handicap medical excellence à l'hôpital Raymond Poincaré (université Versailles Saint-Quentin). 

Quelle somme?
850 millions d'euros pour les six IHU lauréats soit 850M€/6projets/10ans= 14M€/an/projet
35  millions d'euros pour les 6 autres.
Toutefois, ces dotations seront non  "consomptibles" à 80 % : la somme sera placé sur un compte spécial du Trésor et seul les revenus pourront être utilisés.
--------

SATT première vague
Cinq sociétés d'accélération de transfert technologique vont bénéficier de 330 millions d'euros
http://www.enseignementsup-recherche.gouv.fr/cid57908/cinq-societes-d-acceleration-de-transfert-technologique-vont-beneficier-de-330-millions-d-euros.html
Dotée d'un milliard d'euros, l'action "Fonds national de valorisation", a pour objectif d'accroître l'efficacité du dispositif français de valorisation de la recherche publique et d'améliorer significativement ses résultats, que ce soit sous forme de licences, de partenariats industriels, de création d'entreprises ou en facilitant la mobilité des chercheurs.
(Communiqué du 23/09/2011)

Les trois SATT rhônalpines ont été retoquées au 1er tour par le jury du Grand Emprunt.
--------

Appels à projets de l'action Santé et biotechnologies, deuxième vague; infrastructure
20 lauréats pour la seconde vague des appels à projets de l'action Santé et biotechnologies
http://www.enseignementsup-recherche.gouv.fr/cid59286/20-laureats-pour-la-seconde-vague-des-appels-a-projets-de-l-action-sante-et-biotechnologies.html
Annonce des lauréats de la seconde vague des appels à projets démonstrateurs pré-industriels, infrastructures nationales en biologie et santé, bioinformatique et nanobiotechnologies de l'action Santé et biotechnologies.
Communiqué du 07/02/2012
La santé et les biotechnologies constituent un secteur clé de l'innovation, axe prioritaire de la stratégie nationale de recherche et d'innovation. L'action "Santé et biotechnologies" du Programme d'Investissements d'Avenir représente un investissement massif et sans précédent de 1,55 milliards d'euros spécifiquement dédié au secteur et intégralement engagé sur des projets de recherche de long terme.

Quelle somme?
Cette dotation va générer 383 millions d'euros de financement au titre de la première vague et 380 millions d'euros au titre de la seconde vague.

Ces 20 projets se repartissent comme ce qui suit :
    Les 2 projets de "nanobiotechnologies" sélectionnés viendront consolider l'action lancée dès le plan de relance de 2009 avec les plateformes "Nano-Innov". DIRAN va permettre d'améliorer la détection précoce des maladies nosocomiales et FACSBIOMARKER de développer de nouveaux bio-marqueurs pour détecter et soigner le cancer de la prostate.
    Les cinq projets lauréats en "bioinformatique" permettront de rattraper le retard dans trois domaines majeurs de la modélisation: les processus biologiques (avec trois projets: IBC, MAPPING et Abs4N.G.S.), les écosystèmes (RESET) et le cerveau (NiCONNECT).
    Les "démonstrateurs pré-industriels en biotechnologie" sont le maillon indispensable qui relie la recherche fondamentale ou appliquée et la production de masse. Les deux projets retenus pour ce volet s'appuient sur des partenariats industriels et biotechnologiques forts. MétaGenoPolis (MGP) va démontrer l'impact de la flore microbienne intestinale humaine sur la santé. CIMTECH permettra de valider de nouvelles cibles thérapeutiques et de produire des anticorps pour traiter les maladies inflammatoires ou les cancers. Avec ces deux projets, la communauté médicale, scientifique et industrielle pourra bénéficier des outils les plus performants.
    Enfin, les onze projets lauréats de l'appel à projets "infrastructures nationales de recherche en biologie et santé" prolongent l'action engagée avec les Alliances AVIESAN et ALLENVI.
Quatre projets concernent les écosystèmes et les écotechnologies (ANAEES, RECOLNAT, PHENOME, CRB-Anim), cinq concernent la médecine personnalisée (FLI, INGESTEM, IDMIT, E-CellFrance, TEFOR) et un la compréhension du cerveau (NEURATRIS).
Enfin, un grand projet de cohorte de santé publique, CONSTANCES permettra de constituer un "laboratoire humain" à très grande échelle, ouvert à la communauté scientifique et aux projets extérieurs, dans des domaines aussi divers que l'alimentation, la nutrition, le vieillissement et l'environnement.

exemple: NEURATRIS 22millions€, CEA; Paris; Evry; Fontenay-aux-Roses; Créteil
NEURATRIS constitue le partenaire français au sein de l'infrastructure européenne EATRIS

Ce projet cotoit  NiConnect : Outils pour la Recherche Clinique par cartographie de la
connectivité cérébrale fonctionnelle , de l'INRIA doté de 0.75M€.
Paris; Gif-sur-Yvette; Orsay; Créteil

------liste de tous les appels à projets:
  1. Équipements d’excellence
  2. Laboratoires d’excellence
  3. Initiatives d'excellence
  4. Equipements d'excellence - deuxième vague
  5. Initiatives d'excellence - deuxième vague
  6. Laboratoires d’excellence - deuxième vague
  7. Initiatives d'excellence en formations innovantes - IDEFI
  8. Sociétés d’Accélération du transfert de Technologies (SATT)
  9. Cohortes
  10. Instituts de Recherche Technologique (IRT)
  11. Instituts Carnot PME
  12. Instituts Carnot International
  13. Infrastructures
  14. Démonstrateurs
  15. Biotechnologies et Bioressources
  16. Bioinformatique
  17. Nanobiotechnologies
  18. Instituts hospitalo-universitaires (IHU)
  19. Infrastructures nationales de recherche en biologie et santé
  20. Démonstrateurs pré-industriels en biotechnologie
  21. Biotechnologies et bioressources
  22. Nanobiotechnologies 2
  23. Bio-informatique - deuxième vague
  24. Pôle de recherche Hositalo-Universitaire en Cancérologie
  25. Instituts d'excellence sur les énergies décarbonées (IEED)
  26. Instituts d'excellence sur les énergies décarbonées (IEED) - deuxième vague
  27. Financement de l'économie sociale et solidaire
  28. Investir dans la formation en alternance
  29. Développement de la culture scientifique et technique et l'égalité des chances
  30. 13 éco cités
  31. Ecocités n°2
  32. Espace
  33. THD Pilote
  34. Programme national très haut débit - réseaux d'initiative publique
  35. Nanoélectronique
  36. Nanoélectronique 2
  37. Technologies de numérisation et de valorisation des contenus culturels, scientifiques et éducatifs
  38. Technologies de sécurité et de résilience des réseaux
  39. Technologies de sécurité et de résilience des réseaux 2
  40. Briques génériques du logiciel embarqué
  41. Briques génériques du logiciel embarqué 2
  42. Briques génériques du logiciel embarqué 3
  43. e-Santé
  44. e-Santé n°2
  45. e-Education
  46. Informatique en nuage - cloud computing
  47. Informatique en nuage - cloud computing 2
  48. Ville numérique
  49. Systèmes de transport intelligents
  50. Déploiement de services mobiles sans contact NFC
  51. Technologies des contenus numériques n°2
  52. Services numériques innovants pour l'e-Education
  53. Pôles de compétitivité R&D
  54. Etats généraux de l'industrie : Filières
  55. Etats généraux de l'industrie : Réindustrialisation
  56. France Brevets
  57. Plates-formes mutualisées d'innovation
Ref:
http://investissement-avenir.gouvernement.fr/content/action-projets/tous-les-appels-%C3%A0-projets