Showing posts with label blood vessels. Show all posts
Showing posts with label blood vessels. Show all posts

Wednesday, September 27, 2017

Science Translationnelle



La recherche translationnelle  vise à traduire en applications concrètes (ou dites "sciences appliquées") les théories scientifiques et les découvertes de laboratoire.
Par exemple un savoir mathématique s'applique à un domaine comme l'interaction lumière/matière en physique. Certains parlent de math appliquées mais c'est faux.
C'est juste une distinction entre deux gestions du temps.
J'ai un savoir dans les mathématiques.
Je publie un théorème ou une solution analytique point et je reste vague sur les conséquences de cette découverte. On parle de "math pures".
Si je publie une deuxième partie en même temps avec des exemples d'application avec des problèmes inverses par exemple alors on parle de "math appli".

Exemple de la médecine translationnelle

Les principes de la science translationelle et de la « recherche translationnelle » permettent de réduire le nombre des besoins médicaux et pharmaceutiques encore insatisfaits. Elle a été initiée en France dans les années 1960 par le Cancérologue Georges Mathé.
https://fr.wikipedia.org/wiki/M%C3%A9decine_translationnelle
De nombreuses publications existent dans ce domaine, et notamment grâce à des revues à comité de lecture dédiées au sujet :
  • Science Translational Medicine, créée en octobre 2009 par l'American Association for the Advancement of Science.
  • Journal of Translational Medicine
  • Translational Medicine

La science translationnelle exige 

  • une transdisciplinarité véritable qui dépasse la multi-/pluri-disciplinarité (on met ensemble un physicien et un mathématicien et un biologiste qui apprennent à dialoguer (mais certains ont tendance à consiodérer l'autre comme un prestataire de service). La transdisciplinarité consiste à "prendre la place de l'autre" sans devenir aussi expert que l'autre mais comprendre son but et de le faire sien. Par exemple pour mon article publié le 31 dec 2010, je connaissais mon pb en biophotonique et sa traduction en PDE et en théorie de l'homogénéisation. J'aurai pu aller voir le mathématicien G. Panasenko comme un prestataire de service. Mais non je me suis formé à la théorie de l'homogénéisation. J'ai découvert qu'une frontière des connaissances était la théorie de l'homogénéisation non pas à un paramètre mais à 3 paramètres, bien plus complexe. Hélas le formalisme de la théorie de l'homogénéisation même à un paramètre est ardu, je ne pouvais démontrer le théorème et le faire tout seul.
    https://doi.org/10.1371/journal.pone.0014350
    https://doi.org/10.5281/zenodo.439034
  • des systèmes d'information et d'échanges d'informations et/ou savoir et/ou de valeurs (morales), qui peuvent être favorisés et accélérés par l'Open data comme démontré dans le domaine de la génétique, qui devraient permettre le développement d'une médecine ou une approche personnalisée ;
  • des ponts constants entre les sciences dites dures et théoriques et les praticiens/expérimentateurs, voire les malades et certaines communautés de malades, afin que leurs besoins réels et ressentis soient mieux cernés et pris en compte. Les aspects sociaux deviennent cruciaux.





Wednesday, July 10, 2013

IRM pour les nuls, une introduction, trop longue...; un bloc-note de surf........


Voici le paragraphe de présentation dans  wikipedia:

L'imagerie par résonance magnétique (IRM) est une technique d'imagerie médicale permettant d'obtenir des vues 2D ou 3D de l'intérieur du corps de façon non invasive avec une résolution en contraste1 relativement élevée.

L'IRM repose sur le principe de la résonance magnétique nucléaire (RMN) qui utilise les propriétés quantiques des noyaux atomiques pour la spectroscopie en analyse chimique.

L'IRM nécessite un champ magnétique puissant et stable produit par un aimant supraconducteur qui crée une magnétisation des tissus par alignement des moments magnétiques de spin.

Des champs magnétiques oscillants plus faibles, dits radiofréquence, sont alors appliqués de façon à légèrement modifier cet alignement et produire un phénomène de précession qui donne lieu à un signal électromagnétique mesurable.
La spécificité de l'IRM consiste à localiser précisément dans l'espace l'origine de ce signal RMN en appliquant des champs magnétiques non uniformes, des « gradients », qui vont induire des fréquences de précession légèrement différentes en fonction de la position des atomes dans ces gradients.

Sur ce principe qui a valu à ses inventeurs, Paul Lauterbur et Peter Mansfield le Prix Nobel de physiologie ou médecine en 2003, il est alors possible de reconstruire une image en deux dimensions puis en trois dimensions de la composition chimique et donc de la nature des tissus biologiques explorés.

Ouf!

on peut voir aussi:
http://www.lerepairedessciences.fr/sciences/agregation_fichiers/CHIMIE/rmn/magnetique.htm

-------------------
le mot "magnétisme", si mystérieux, a fait oublié le mot important "résonance", mais le mot  important est aussi "proton" (ou matière nucléaire ou fermion). Ces fermions sont AIMANTES par l'énorme champ (dit statique) et seront perturbés par des ondes électromagnétiques (des bosons) permettant la localisation et donc l'imagerie.
Il faut commencer par entendre ces mots cela dès le début même si on est perdu dès le début.
Mais ce vocabulaire n'est pas suffisant. 
En final le mot le plus important correspond à un phénomène qui n'apparait pas dans les noms RMN et IRM: l'aimantation.
Le proton (et les nucléons impairs) n'est pas ici un aimant-comme-en-ferromagnétisme, 
(les aimants de la vie de tous les jours, qui correspondent à la propriété qu'ont certains corps/particules de s'aimanter très fortement sous l'effet d'un champ magnétique extérieur, et pour certains (les aimants; structure avec domaine de Weiss) de garder une aimantation importante même après la disparition du champ extérieur).

Du fait que cette aimantation est ridiculement faible (et malgré la résonance), le problème central est l'instrumentation avec la recherche du rapport signal/bruit.  
Un IRM est un classe d'appareil de mesure qui a besoin de matière c-a-d que le détecteur (on dit antenne en IRM) doit toujours être proche d'un milieu dense (détecteur et milieu sont à une distance inférieur à la longueur d'onde); on dit que l'on est en "champs proche".

Si on calcul alors on obtient seulement 1 proton pour un million mais la résultante est orientée ce qui fait qu'on a un aimant "macroscopique/mésoscopique"... On voit le liquide cephalorachidien avec un fort signal dans ce cas.
En mathématique cette résultante est spéciale on parle de précession:
http://fr.wikipedia.org/wiki/Pr%C3%A9cession
http://en.wikipedia.org/wiki/Precession

La précession implique de nombreux outils mathématiques. En physique il existe de nombreux phénomènes qui conduisent à des précessions.
http://hyperphysics.phy-astr.gsu.edu/hbase/top.html
Bref, on a maintenant un milieu aimanté dans une direction donnée (et qui précesse à vitesse angulaire constante : 400millionCycle/seconde à 9.4teslas).
Cette aimantation est une oscillation strictement périodique dans le temps dès qu'elle est dans le champ à 9.4teslas.
---------------------

La perturbation de cette aimantation est une oscillation pseudo-périodique dans le temps.  Si on choisit le proton comme cible il existe une fréquence de résonance. Le point important est que cette fréquence EST PROPOTIONNELLE au champ appliqué:
9.4teslas=400MHz
0.94teslas=40MHz...
On réalisant des gradients on va un peu changer celles ci.
Cette "lumière" autour de 400millionCycle/seconde se situe dans la fenêtre spectrale des radio-fréquences.
Une oscillation  électromagnétique (onde lumineuse qui suit souvent l'opérateur d'alembertien en champ lointain ou les équations dite de Maxwell en champ proche)

pour les plus courageux:
http://prl.aps.org/abstract/PRL/v74/i4/p526_1
Generalized Field Propagator for Electromagnetic Scattering and Light Confinement
Olivier J. F. Martin,Christian Girard,Alain Dereux, PRL 1995.

 EN champ lointain, solution exacte  e^(i2πt/T) avec T période temporelle; le Hertz est un nombre de cycle_E-B/s et est trop souvent réduit à l'inverse d'une seconde:
  -400MHz=400 millions de cycleE-B/s
  -la période temporelle du cycle_E-B est ici de : T=2.5ns/(cycle_E-B). 

Les plus gros IRM tendent vers le 1GHz (celui de Floride : 900MHz) soit 1ns. 
Le record chez l'animal in vivo serait en Floride 
http://www.magnet.fsu.edu/mediacenter/slideshows/strongestmri/index.html
900MHz (21.1 teslas).

Vitesse des ondes electromagnétiques =0.3m/ns 
donc  à 400MHz la longueur d'onde  (nommée lambda) est de 7.5cm.
et lambda/2π=2cm.

Sur le Varian-Agilent 9.4Teslas, les bobines de gradient (38Kg; SG RAD 156/100/HD/S) sont à 2mT/m/A donc avec 100A (max 200A, 300V et quelques dizaines de ms  (max 50ms)),
on a donc 2mT/cm/(100A)
Sur 2cm le champ de perturbation reste de 4mT donc assez faible mais il est en résonance et va faire une induire une autre direction de précession. à 400MHz, 1ms correspond à 400 000 oscillations en résonance comme une balancoire.

ON A FINI avec les BOSONS (et le champ magnétique statique).
-------------------
On commence par la matière: le noyau le plus "simple"= le proton.
http://fr.wikipedia.org/wiki/Proton

Toutes les applications RMN, IRM... sont liées aux propriétés magnétiques des noyaux atomiques impairs. La physique classique, celle de Newton et de Maxwell, est incapable de rendre compte de ces propriétés.

L'expérience de résonance magnétique est fondée sur la MESURE de l'AIMANTATION d'un système MACROSCOPIQUE contenant N spins où N est d'un ordre de grandeur comparable au nombre d'Avogadro: NA = 6,02214129(27) × 1023 mol−1
Quelques grammes comportent 10^23 noyaux!

La description quantique d'un seul spin I "isolé" se fait via une fonction d'onde dans une espace de dimension 2I+1 (si I=1/2 alors dimension 2). La description des N spins correspond à un espace de dimension (2I+1)^N.

En outre on néglige les interactions noyau-électrons. La polarisation des couches électroniques par le champ magnétique statique ainsi que la précession propre des électrons induisent à l'emplacement du noyau, un petit champ supplémentaire inhomogène. La fréquence de résonance est déplacée d'une petite quantité que l'on applelle le déplacement chimique car lié à l'environnement des électrons. Et ainsi de suite avec les intéractions à plus grande portée qui permettent de trouver des grosses molécules repliées.

Dans le vivant et la matière commune l'atome le plus simple c'est l'hydrogène.
Dans la croûte terrestre, l'hydrogène ne représente que 0.22 % des atomes, loin derrière l'oxygène (47 %) et le silicium (27 %) [hydrogène-wikipedia].
L'hydrogène représente 63 % des atomes du corps humain.
Le vivant fonctionne au proton (théorie de Mitchell; mitochondrie...) et est très lié à l'eau H2O qui elle-même est un milieu très complexe même en solution liquide à pression/température ordinaire, où il compte 2atomes sur 3 mais en gramme il est petit en %.

Un noyau atomique a des propriétés et il est pensé comme constitué de protons et de neutrons, à l’exception de ce noyau de l’atome d’hydrogène, constitué d’un unique proton. Un noyau posséde une masse, une charge électrique, un moment cinétique, un volume... Après les champs et autres concepts, on les construits à partir des données macroscopiques du XIXième de Faraday. ce sont des correspondances à la Baudelaire. Le noyau existe des charges bougent mais ces grandeurs sont des "concepts" qui conduisent à des "quantities" mesurables.
La méthode de Galilé est que l'on va restreindre cet être atomique à un nombre limité de grandeur suffisant pour le problème considéré.
On note L→ le moment cinétique (flèche notation vecteur, au dessus normalement).
Le moment magnétique est symbolisé en M→.
Ces 2 grandeurs physiques "caractérisent" un mouvement de rotation propre sur elle-mêmes. Les noyaux tournent sur eux-mêmes ou « spinnent » (de l’anglais : to spin).
Une "sphère-nucléonique" pseudo-homogène tournant sur elle-même possède des propriétés quantiques et l'on passe à des visions classiques homogèneisées par exemple un moment cinétique propre, grandeur vectorielle dont les caractéristiques sont :
– sa direction, identique à celle de l’axe de rotation,
– son sens, défini de façon conventionnelle par le sens de déplacement d’un tire-bouchon ordinaire
                  qui serait solidaire de la sphère.,
– sa norme, proportionnelle à la fréquence de rotation.

MAGNETISME NUCLEAIRE

Magnétisme nucléaire pour les dummies

Pour les hyperDummies, une particule chargée qui tourne sur elle-même induit un MOMENT MAGNÉTIQUE (équivalent à un champ magnétique de très faible intensité).
Ce moment magnétique est représenté par un vecteur d’aimantation.
http://irm-francophone.info/htm/mag_nuc.htm

Un proton dans un champ magnétique peut être considéré comme un petit dipôle caractérisé par un vecteur d'aimantation  µo (représentant le moment bipolaire). le pb multi-échelle: pour un ensemble de protons, c-a-d pour un tissu donné on parle de vecteur d'aimantation macroscopique Mo tels que:
  Mo =Σµo
(le vecteur Mo est égal à la somme de tous les petits vecteurs µo).
Le pb est réduit d'une société à une simple somme d'individu.

Les protons , de même que les neutrons, ont un vecteur d’aimantation non nul (lié à la disposition des quarks). Dans le noyau, les nucléons (un peu à l’image des électrons autour du noyau) sont répartis en couches, de manière à ce que les neutrons d’une part, et les protons de l’autre, s’apparient deux à deux. Cette association en duo annule ainsi leurs moments magnétiques afin de maintenir une cohésion énergétique au sein du noyau. Donc, au final, nous pouvons déduire que seuls les atomes à nombre de nucléons IMPAIRES auront un moment magnétique effectif ou intrinsèque ou élémentaire.
Il existe plusieurs atomes ayant cette capacité, mais seulement quelques uns ont un intérêt biologique.

Le noyau d’hydrogène n’est composé que d’un seul proton. On peut en conclure d’ores et déjà, que cet atome dispose d’un moment magnétique élémentaire protonique élevé et il donne lieu à un phénomène de résonance très net.
 
Conclusion : nous pouvons donc assimiler le Proton (ou atome d’hydrogène) à un petit aimant microscopique comme première approche?

Magnétisme nucléaire proche de la réalité macroscopique?



est une vision fausse...


La mécanique classique n'impoe pas à L→ à posséder des valeurs particulières ni pour
sa norme L ni pour la valeur algébrique L(u→) qui est sa projection sur un axe quelconque de
vecteur directeur u→.
On constate que la réalité nous initie à des choses "bizarres": le moment cinétique des noyaux atomiques, au contraire, possède une norme qui ne dépend que de la nature du noyau considéré et L(u→) ne peut prendre qu’un nombre limité de valeurs. "C'est une toupie à engrenage qui s'inverse donc pas une toupie".
La valeur de L se calcule à partir d’un nombre entier ou demi-entier I appelé nombre de spin (ou spin). Les valeurs possibles de L(u→)  se déduisent du nombre mI vérifiant:

L(u→)  = mI  

http://fr.wikipedia.org/wiki/Constante_de_Planck_r%C3%A9duite

Avant d'en venir à la résonance, il faut comprendre que cette CONSTANTE intervient aussi pour les échanges d'énergie et le temps:
This relation between the energy and frequency is called the Planck relation:
E = h\nu \,.
Since the frequency \nuwavelength λ, and speed of light c are related by λν = c, the Planck relation for a photon can also be expressed as
E = \frac{hc}{\lambda}.\,
The above equation leads to another relationship involving the Planck constant. Given p for the linear momentum of a particle, the de Broglie wavelength λ of the particle is given by
\lambda = \frac{h}{p}.
In applications where frequency is expressed in terms of radians per second ("angular frequency") instead of cycles per second, it is often useful to absorb a factor of 2π into the Planck constant. The resulting constant is called the reduced Planck constant or Dirac constant. It is equal to the Planck constant divided by 2π, and is denoted ħ ("h-bar"):
\hbar = \frac{h}{2 \pi}.
The energy of a photon with angular frequency ω, where ω = 2πν, is given by
E = \hbar \omega.
The reduced Planck constant is the quantum of angular momentum in quantum mechanics.
C'est LA RELATION entre une énergie d'interaction électromagnétique et le moment angulaire avec les bonnes grandeurs.
Il est très connu que la solution exacte de l'opérateur D'Alembertien (champ lointain): 
E e-i2πt/T  (w=pulsation=2π/T et T période).
h_barre est une {joule*temps} comme grandeur. 


La rotation interne des noyaux atomiques n’est pas mise en évidence de façon directe mais
elle est pensée comme la cause de leur moment magnétique M, grandeur vectorielle dont l’existence
est révélée par l’interaction du noyau avec un champ magnétique, comme indiqué ci-après. 

---------------Remarque

La résonance

Définition : la RÉSONANCE est le transfert d’énergie entre deux systèmes oscillant à la même fréquence

--------------
Modélisation par équations de Bloch:

Le meilleur site pour l'éducation MRI et ces équations serait:
 http://drcmr.dk/Education
http://drcmr.dk/bloch

----------------contrastes
http://irm-francophone.info/htm/contrast.htm

------------------------------------------------------------------------------------------
Deux champs vectoriels apparentés portent le nom de champ magnétique, et sont notés  B (qui s'exprime en tesla) et H (qui s'exprime en ampère par mètre). Si les normes internationales de terminologie prescrivent de réserver normalement l’appellation de « champ magnétique » ou d'« intensité de champ magnétique » au seul champ vectoriel .

On peut remarquer d'abord que ces deux champs s'expriment dans des unités différentes :
B s'exprime en tesla (T) ;
H s'exprime en ampères par mètre (A/m), tout comme M.
Cette différence traduit le fait que B est défini par ses effets (force de Laplace) alors que H est défini par la façon de le créer avec des courants (∇×H = j).
Dans le vide, on a M = 0, et donc :
B=µ0 H
On peut alors interpréter la multiplication par μ0 comme un simple changement d'unités et considérer que les deux champs sont identiques. L'ambigüité qui découle du fait que l'un comme l'autre peut être appelé champ magnétique est alors sans conséquence. En pratique, beaucoup de matériaux, dont l'air, sont très faiblement magnétiques (M ≪ H) et l'équation ci-dessus reste une très bonne approximation.
Cependant, dans les matériaux ferromagnétiques, notamment les aimants, l'aimantation ne peut être négligée. Il est important alors de distinguer les champs B et H à l'intérieur du matériau, bien qu'ils restent identiques à l'extérieur. Dans le cas d'un aimant barreau par exemple, les deux champs sont globalement orientés du pôle nord vers le pôle sud à l'extérieur de l'aimant. Cependant, à l'intérieur de celui-ci le champ H est globalement orienté du nord vers le sud (opposé à M, d'où le nom de champ démagnétisant) alors que B va du sud vers le nord.
On peut remarquer que les lignes du champ B se bouclent sur elles-mêmes, ce qui est une conséquence de ∇⋅B = 0, alors que les lignes de H ont toutes comme point de départ le pôle nord et comme point d'arrivée le pôle sud.
---------------
Rem:
Cette lettre "B", empruntée à James Clerk Maxwell, vient de ses notations : il décrivait les trois composantes du champ magnétique indépendamment, par les lettres B, C, D. Les composantes du champ électrique étant, dans les notations de Maxwell les lettres E, F, G.

-----------------

Les différentes sources de champ magnétique sont les  le courant électrique (c'est-à-dire le déplacement d'ensemble de charges électriques), ainsi que la variation temporelle d'un champ électrique (induction magnétique) et les aimants permanents. 
La présence du champ magnétique se traduit par l'existence d'une force agissant sur les charges électriques en mouvement (dite force de Lorentz) et par divers effets affectant certains matériaux (paramagnétisme, diamagnétisme ou ferromagnétisme selon les cas). 
La grandeur qui détermine l'interaction entre un matériau et un champ magnétique est la susceptibilité magnétique.
----------------
En physique classique, les champs magnétiques sont issus de courants électriques. Au niveau microscopique, un électron en « orbite » autour d'un noyau atomique peut être vu comme une minuscule boucle de courant, générant un faible champ magnétique et se comportant comme un dipôle magnétique. Selon les propriétés des matériaux, ces structures magnétiques microscopiques vont donner lieu à essentiellement trois types de phénomènes :
Dans certains cas, les champs produits par des électrons d'atomes voisins présentent une certaine tendance à s'aligner les uns par rapport aux autres, un champ magnétique macroscopique, c'est-à-dire une aimantation spontanée, est susceptible d'apparaître. C'est le phénomène de ferromagnétisme, expliquant l'existence d'aimants permanents. Il est possible de détruire le champ magnétique d'un aimant en le chauffant au-delà d'une certaine température. L'agitation thermique générée par le chauffage brise les interactions entre atomes proches qui étaient responsables de l'alignement des champs magnétiques atomiques. En pratique, le phénomène de ferromagnétisme disparaît au-delà d'une certaine température appelée température de Curie. Elle est de 770 °C pour le fer.
En l'absence de ferromagnétisme, ou à une température trop élevée pour que celui-ci apparaisse, la présence d'un champ magnétique externe peut amener les champs microscopiques à s'aligner dans le sens du champ. Ce phénomène est appelé paramagnétisme. La transition entre l'état ferromagnétique et l'état paramagnétique se fait par l'intermédiaire d'une transition de phase dite de second ordre (c'est-à-dire que l'aimantation tend continûment vers 0 à mesure que la température approche la température de Curie, mais que sa dérivée par rapport à la température diverge à la transition). Le premier modèle mathématique permettant de reproduire un tel comportement s'appelle le modèle d'Ising, dont la résolution, considérée comme un tour de force mathématique, a été effectuée par le prix Nobel de chimie Lars Onsager en 1944.
À l'inverse, certains matériaux tendent à réagir en alignant leurs champs magnétiques microscopiques de façon antiparallèle avec le champ, c'est-à-dire s'efforçant de diminuer le champ magnétique imposé de l'extérieur. Un tel phénomène est appelé diamagnétisme.

--------------------------

sous 9.4teslas; la matière change. comment?
on a pas des protons mais de l'eau , eau libre et eau liée.

La susceptibilité magnétique (notée Chim) est la faculté d'un matériau à s'aimanter sous l'action d'une excitation magnétique.
La réaction est de deux types :
-aimantation du matériau
-s'accompagnant de l'apparition d'une force mécanique.

Caractérisation macroscopique
L'aimantation est proportionnelle à l'excitation magnétique appliquée : le coefficient de proportionnalité, noté , définit la susceptibilité magnétique du milieu ou matériau considéré.

M=ChiH

avec  M l'aimantation en ampère par mètre (A/m), Chim la susceptibilité magnétique (sans dimension) et H l'excitation magnétique appliquée aussi en ampère par mètre (A/m).
Lorsque  est positif, on dit que le corps dans lequel apparaît l'aimantation est paramagnétique.
Lorsque  est nul, on a du vide.
Lorsque  est négatif, le corps est dit diamagnétique.

À cette catégorisation se superpose une seconde classification, avec notamment le ferromagnétisme (qui caractérise les corps qui conservent leur aimantation en l'absence d'excitation, tels que le fer, le cobalt ou le nickel; paramagnétisme très intense et rémanent).

pour l'eau :   Chim= -1.2 10^-5, (le fer à 774°C   =200).

-------------------------

magnétique macroscopique mesurable (Figure 1). Un dipôle magnétique placé dans un champ magnétique B s’oriente sous l’action du champ (cas de la boussole). En présence d’un champ magnétique statique B0, les moments magnétiques de spin des protons vont s’orienter selon 2 directions correspondant à 2 niveaux d’énergie (et vont être animés d'un mouvement de précession). Ils s’orientent de manière parallèle au champ (dans le même sens, niveau d'énergie le plus stable), ou de manière antiparallèle (dans le sens opposé, niveau d'énergie le moins stable).

La population de moments magnétiques de spin orientés parallèlement (sur le niveau d’énergie le plus stable) étant légèrement en plus grand nombre, on obtient une résultante M0 (somme de tous les moments magnétiques) non nul et dans le sens de B0

ON A UNE AIMANTATION MACROSCOPIQUE mais très faible!
--------------------------







Monday, January 2, 2012

pas de vascularisation: cartilage, articulation, système osteo-articulaire; arthrose fulgurante; Arthrose de l’Articulation Interphalangienne Distale des Doigts

L’ensemble du cartilage ne présente pas de vascularisation (comme la cornée) ce qui est assez rare par rapport aux autres tissus.

Malgré le pourcentage élevé de la population atteinte, nous disposons de peu de traitements efficaces, et les processus de destruction du cartilage articulaire restent encore mal connus.

J'ai trouvé un article sérieux qui laisserait penser un petit effet via le magnétisme (en anglais):
http://www.cmaj.ca/content/177/7/736.full

ASPECTS FONDAMENTAUX
Le cartilage, qu’il soit articulaire (AR) ou de croissance (GP pour Growth Plate) est composé d'un seul type cellulaire, le chondrocyte, qui synthétise et secrète des protéines formant une matrice extra-cellulaire très spécifique.
L’ensemble du cartilage  avasculaire est donc globalement hypoxique. Il n’est pas non plus innervé (Fig. 1).
Cette matrice est responsable du maintien du phénotype cellulaire et des fonctions mécaniques du cartilage. Au cours du temps, le chondrocyte et sa matrice subissent un processus physiologique dénommé sénescence. Ce processus débute dès la deuxième décennie de la vie et touche le cartilage articulaire (et le disque intervertébral). Dans certains cas il peut s’aggraver aboutissant au processus pathologique commun de toutes les maladies articulaires : la destruction du cartilage.





L’articulation est, quant à elle, délimitée par une membrane synoviale et un manchon fibreux appelé capsule qui renforce à l’extérieur la membrane synoviale. Des ligaments latéraux et parfois intra-articulaires, notamment dans le cas du genou, viennent stabiliser l’articulation. Le cartilage se trouve donc enfermé dans une cavité close et stérile, et baigne dans un liquide visco-élastique sécrété par la membrane synoviale, le liquide synovial. Le cartilage articulaire permet de transmettre, d’amortir et de distribuer des charges tout en assurant un glissement harmonieux des pièces articulaires avec un coefficient de friction très bas. Sa capacité à subir des déformations réversibles est directement liée à son organisation structurale, c’est-à-dire à l’arrangement  des macromolécules qui le composent.

Le cartilage articulaire joue également un rôle essentiel dans la répartition des contraintes mécaniques sur une surface maximale de l’os sous-chondral (Radin et Rose 1986). Il est ainsi capable de résister aux forces de compression, tout en étant capable de se déformer pour supporter au mieux les contraintes mécaniques. Ces propriétés d’amortissement sont conférées par l’eau qu’il contient et qui constitue plus de 80% du poids du tissu hydraté, ainsi que par les protéoglycanes (PG) auxquels cette eau est associée et qui sont eux-mêmes piégés dans une trame de collagènes. La résistance aux compressions est d’autant mieux supportée que l’os sous-chondral présente une organisation en travées espacées les unes des autres par la mœlle osseuse, et perpendiculaires à la surface articulaire. En réponse à l’application d’une contrainte, cette structure de l’os sous-chondral permettrait au cartilage de s’affaisser entre les travées.  Ainsi, il est essentiel que l’intégrité biochimique et structurale du cartilage articulaire et de l’os sous-chondral soit conservée pour préserver la fonction articulaire. 

Les PGs confèrent l’élasticité nécessaire aux propriétés mécaniques du tissu cartilagineux. Quand les forces de compression s’exercent sur le cartilage, il se comporte comme un matériau visco-élastique : en charge, le cartilage se déforme instantanément. Cette capacité à se déformer est directement liée à la teneur en PGs. En effet, les charges négatives des groupements sulfatés attirent des ions de charges opposés, principalement du sodium, rendant le tissu très hydrophile. L’eau attirée dans le tissu crée alors une forte pression osmotique et augmente le volume des fibres de collagène. Lors d’une déformation, l’eau est expulsée et un équilibre s’établit entre la charge appliquée et la pression osmotique. Une fois la charge supprimée, les PGs se réhydratent et le réseau reprend son volume initial. 

Les chondrocytes occupent 10 % du volume cartilagineux total mais leur nombre, leur taille et leur forme ainsi que leur activité métabolique varient considérablement selon le type d’articulation, la localisation topographique et surtout l’âge de l’individu. Les chondrocytes ne migrent pas et se multiplient peu ou pas dans un cartilage sain. La densité cellulaire tend même à décroître avec l’âge.

En raison du caractère avasculaire du cartilage, le chondrocyte utilise essentiellement le glucose et privilégierait la voie de la glycolyse anaérobie. Le cartilage est un des rares tissus à fonctionner en hypoxie. Il existe ainsi un gradient hypoxique qui varie de 10 % de teneur en oxygène en surface à 1 % en profondeur. Les chondrocytes de la couche superficielle peuvent alors utiliser partiellement un fonctionnement aérobie par diffusion de l’oxygène présent dans le liquide synovial.

L’apport en nutriments provient presque exclusivement du liquide synovial. Celui-ci correspond à un dialysat sélectif du plasma auquel manquent les protéines de poids moléculaire élevé. Le liquide synovial sert également de lubrifiant pour l’articulation, amortit les chocs et évite le contact direct des cartilages articulaires entre eux. Ce pouvoir lubrifiant du liquide synovial est lié à l’abondance en AH à l’origine de sa viscosité. Il permet aussi l’évacuation des débris issus du cartilage articulaire en les dirigeant jusqu’au tissu synovial, siège de leur phagocytose. Chaque nutriment diffuse des capillaires synoviaux vers le liquide synovial avant d’atteindre la MEC du cartilage. Seuls les composants de bas poids moléculaire peuvent pénétrer le cartilage par simple diffusion ou imbibition favorisée par la mobilité de l’articulation. Les plus encombrants ne peuvent pénétrer que sous l’effet de la compression intermittente qui s’exerce au cours des mouvements. Les macromolécules ne peuvent pas pénétrer les mailles serrées de la surface articulaire. La charge ionique des molécules conditionne également leurs accès aux chondrocytes. Chaque cellule possède l’ensemble des organites nécessaires à la synthèse et à la maturation des protéines à destinée intra- et extracellulaire. L’analyse ultrastructurale du chondrocyte révèle un noyau central volumineux, des ribosomes, un réticulum endoplasmique, un appareil de Golgi, des mitochondries ainsi que des vacuoles lipidiques, glycogéniques et lysosomiales. Cependant, le métabolisme chondrocytaire tout comme l’aspect cellulaire et le nombre de cellules, est très variable selon la zone cartilagineuse considérée (Aydelotte et al. 1992). En situation physiologique, le chondrocyte maintient un équilibre dynamique entre la synthèse et la dégradation des protéines structurales de la matrice cartilagineuse (collagènes, PGs, glycoprotéines). Cet équilibre est rompu lors d'une maladie articulaire.

-------------------
Les maladies articulaires sont de deux types : 
  • inflammatoire (arthrite) ou 
  • dégénérative (arthrose). 
Elles évoluent vers la destruction du cartilage considérée comme inexorable, ce qui entraîne une limitation fonctionnelle et finalement un handicap hélas irréversible en l'état de nos connaissances. Dans le cas de l’arthrose on assiste à une accélération de la sénescence physiologique qui conduit à la destruction du cartilage du fait de l’incapacité quasi-complète des chondrocytes à "initier" des processus de réparation tissulaire.
On est alors dans le cadre d’une maladie locale.
Dans le cas de l’arthrite, le processus pathologique associe à la fois une inflammation locale articulaire et une inflammation systémique.


L’arthrose est une maladie très fréquente (en France, 5 millions de personnes sont concernées par cette pathologie) et le pourcentage de la population touchée par cette maladie augmente avec l’âge (Hamerman 1993). Différentes articulations peuvent être atteintes parmi lesquelles le genou (gonarthrose = 35 %), la hanche (coxarthrose= 20 %) ou encore les doigts. L’arthrose constitue la seconde cause d’invalidité après les maladies cardio-vasculaires et représente ainsi un véritable enjeu en terme de santé publique.
Avant l’âge de 50 ans, la pathologie est également répartie entre homme et femme. Puis, elle prédomine chez la femme en raison d’une prévalence élevée de la gonarthrose : 35 % des femmes de plus de 65 ans présentent des atteintes arthrosiques au niveau du genou (Kean et al. 2009).

Au cours du processus arthrosique, le cartilage s’assombrit, se ramollit, ce qui a pour conséquences de modifier ses propriétés d’amortissement des chocs. Il se fissure, s’érode et s’amincit pour ensuite disparaître totalement laissant l’os sous-chondral à nu. Ces changements provoquent des altérations osseuses avec une sclérose de l’os sous-chondral, la formation d’ostéophytes en marge des zones érodées et de géodes sous-chondrales. En se désagrégeant, le cartilage libère des fragments qui peuvent déclencher des réactions inflammatoires au niveau de la membrane synoviale. Les médiateurs inflammatoires alors libérés dans la cavité articulaire entretiennent le processus dégénératif en activant les enzymes protéolytiques et en diminuant la synthèse de la matrice.
A la suite de leur dégradation par les MMP-1, -8 et -13, les collagènes de la matrice cartilagineuse perdent leur structure en triple hélice (Billinghurst et al. 1997) et deviennent beaucoup plus sensibles à l’action des protéases. Un nouvel équilibre s’installe alors entre la pression osmotique générée par les PGs et la tension des fibres de collagènes qui ne peuvent plus restreindre l’entrée d’eau dans le cartilage. Le turn-over des collagènes étant très lent, une atteinte du réseau fibrillaire rend irréversible une atteinte du cartilage (Hasty et al. 1990).
L’arthrose peut être considérée comme une maladie du cartilage mais celui-ci n’est pas la seule cible puisque l’os sous-chondral est aussi atteint (Lajeunesse et Reboul 2003). Ainsi, ces changements de l’os accompagnant l’arthrose apparaissent assez tôt au cours du processus pathologique (Buckland-Wright et al. 2000).

L’arthrose est une maladie évolutive. Son rythme de progression diffère d’une personne à l’autre et n’est pas uniforme au cours du temps (Meachim et al. 1977) (Cicuttini et al. 1999) (Raynauld et al. 2004). Dans la plupart des cas, l’arthrose est marquée par des épisodes évolutifs par intermittence avec des poussées congestives aiguës caractérisées par des modifications du rythme de la douleur suivies de périodes d’accalmie. Ces poussées surviennent à une fréquence variable selon les patients et l’ancienneté de la maladie. Durant ces poussées, une accélération de la dégradation cartilagineuse est observée (Wluka et al. 2004).
La radiographie classique reste la technique la plus utilisée (bien que n'imageant que l'os et non le cartilage) mais l'IRM commence à l'être de plus en plus en plus (these Etude IRM du vieillissement articulaire à 1.5 et 7 Teslas : Approches volumiques et cartographiques par Jean-Christophe Goebel: http://www.theses.fr/2009NAN10108).

Actuellement aucun traitement réparateur n’existe pour répondre à la destruction du cartilage (hormis la pose d'une prothèse chirurgicale). Le développement d'alternatives thérapeutiques à la chirurgie pour prévenir ou réparer les lésions du cartilage reste un défi.

Thérapie tissulaire
1) intérêt des cellules souches du tissu péri-articulaire dans la régénération provoquée du cartilage
2) conception de biomatériaux destinés à réparer les traumatismes du cartilage articulaire (et du DIV) et à prévenir l’initiation de l’arthrose post-traumatique. Un biomatériau hybride peut être réalisé à partir de chondrocytes humains inclus dans un polymère biocompatible, le chitosan. Le phénotype de "néocartilage" des cellules a été analysé au cours de la culture (collaboration A. Domard, UMR CNRS 5627, et Laboratoires Genévrier, Sophia Antipolis). Ce travail a fait l'objet d'un Brevet en 2006. (Montembault et al, Biochimie 2006).
3)Récemment un chirurgien rennais commence à soigner l’arthrose de l’épaule en faisant repousser le cartilage. Une révolution qui est déjà une réalité. Philippe Collin est le seul à pratiquer cette opération en France.
-----

La destruction du cartilage se traduit d’abord par une dégradation de la matrice. Ce phénomène est initié par une diminution du contenu en protéoglycanes et en eau du tissu. Il s’y associe ensuite un processus de néosynthèse de collagène, considéré comme une réaction de défense de la cellule. Toutefois, cette réaction est inadaptée puisqu’elle aboutit à la production de collagène de type I et non de collagène de type II ce qui conduit à la formation d’une matrice non fonctionnelle.
En fait, le cartilage pathologique subit un double déséquilibre à la fois sur les synthèses et sur la dégradation des protéines matricielles. Les enzymes clés de la dégradation du cartilage sont les métalloprotéases matricielles (MMPs) dont la production est augmentée au cours de la destruction du cartilage. Ces MMPs et leur régulation sont une cible thérapeutique d’intérêt. L'augmentation de synthèse des MMPs est sous la dépendance de médiateurs pro-inflammatoires comme les cytokines (Interleukin-1beta, IL-1beta ; TNFalpha ; IL-17, etc...), des espèces réactives oxygénées (NOl, Ol) et/ou du stress mécanique (Figs. 2A, 2B).






Deux os recouverts de cartilage s’articulant ensemble forment une articulation. Au niveau des doigts les surfaces articulaires sont parfaitement congruentes et glissent l’une sur l’autre permettant le mouvement.
L’arthrose de l’articulation inter-phalangienne distale touche l’articulation située à l’extrémité du doigt.

SYMPTOMES et EXAMEN CLINIQUE
Le patient consulte pour un ou plusieurs symptômes parmi :
  •     La douleur : évoluant par poussées de 3 semaines environ.
  •     Le gonflement du bout du doigt lors des poussées douloureuses.
  •     La déformation de l’articulation inter phalangienne distale avec parfois désaxation du doigt. On retrouve fréquemment des nodules sur le dos  du doigt appelés nodules d’Heberden.
  •     Un kyste mucoïde (petite boule située près de l’ongle, le déformant parfois.
  •     Une raideur articulaire de l’extrémité du doigt.

    Plusieurs doigts d’une même main sont fréquemment touchés, souvent les deux mains sont atteintes. Parfois l’arthrose est globale et touche toutes les articulations des doigts.

TRAITEMENT
Le traitement commence avant tout par un traitement médical. On associera des antalgiques et des anti-inflammatoires en cas de non contre-indication. On peut également envisager le port d’une petite attelle. Cette attelle permet de diminuer les douleurs mais ne peut pas prévenir de la déformation du doigt.
En cas d’inefficacité du traitement précédent, il faut envisager un traitement chirurgical.
Plusieurs interventions sont possibles en fonction de la gêne:
  •     Le doigt est raide et/ou douloureux : L’arthrodèse est l’intervention la plus couramment utilisée. Elle consiste à faire fusionner l’articulation atteinte en extension à l‘aide de  2 broches. Elle a pour avantage de faire disparaître les douleurs et de donner un aspect cosmétique satisfaisant. En revanche, elle fait disparaître la mobilité de cette articulation.
  •     Les nodules du dos du doigt (nodules d’Heberden) douloureux ou non : Il est possible de réaliser une intervention de chirurgie esthétique (le lifting du doigt) consistant en l’ablation de ces nodules et à retendre la peau du dos du doigt. Il sera également pratiquer un lavage articulaire permettant de diminuer temporairement les douleurs. Cette intervention a l’avantage de redonner un doigt esthétique et de garder la mobilité articulaire mais l’inconvénient est que l’amélioration sur les douleurs et la mobilité est temporaire.
  •     Le kyste mucoïde : il est possible d’en réaliser l’ablation.
Les prothèses au niveau de cette articulation sont encore à l’essai.
Toutes ces interventions se déroulent en ambulatoire (c-a-d le patient ne dort pas à l’hôpital), sous anesthésie locale ou locorégionale (l’anesthésie générale est pratiquée uniquement en cas de contre-indication à l’anesthésie locale ou si le patient le souhaite).

SUITES POST-OPERATOIRES
En cas d’arthrodèse, le doigt reste immobilisé dans une petite attelle de doigt pendant 2 mois puis sera envisagé l’ablation des broches.
Pour les autres interventions, le patient sort de la clinique avec un pansement à changer tous les 2 jours jusqu’à cicatrisation complète, environ 2 à 3 semaines. Le patient mobilise les doigts immédiatement après l’intervention. Il n’y a pas de rééducation  dans les suites. Quelques douleurs peuvent persister pendant le mois qui suit l’intervention.

COMPLICATIONS
Les complications sont rares. Il s’agit essentiellement d’infection, parfois d’algodystrophie.
En cas d’arthrodèse, la fusion articulaire n’est parfois pas obtenue et nécessite une nouvelle intervention chirurgicale si le doigt reste douloureux. On pourra alors proposer une greffe osseuse pour obtenir la consolidation.
-------------------------

Perturbation hormonale
Les effets des polluants environnementaux sur la croissance du squelette pendant le développement et sur l’homéostasie du cartilage articulaire (et du DIV) sont à souligner. Par example deux catégories de polluants: les Arylhydrocarbures (benzo-a-pyrène du tabac, Dioxine) et les produits pharmaceutiques rejetés dans l’environnement par les eaux usées.
qq cibles:
-l’expression du récepteur des arylhydrocarbures (AhR) dans le cartilage et les effets de ses ligands sur le gène cible de AhR, CYP1A1, ainsi que sur les marqueurs chondrogéniques. AhR n’est pratiquement pas exprimé dans le AR alors qu’il est exprimé plus fortement dans le CR. Dans les deux cas, il est inductible par IL-1beta, et cet effet est inhibé par l'hypoxie. AhR ne se transloque dans le noyau et n’active le gène CYP1A1 sous l’effet de la Dioxine qu’en conditions de normoxie et en présence de l’IL-1beta.
-le resvératrol comme antagoniste compétitif du AhR; antagonistes pharmacologiques dérivés du resvératrol de haute affinité pour AhR (Brevet 2002) (De Medina et al., 2005).

-perturbation du développement du squelette in utero sous l'influence des pesticides xénoestrogènes (Projet MEDD, collaboration C. Canivenc-Lavier, INRA Dijon).


-------------
Ref. 
http://www.biomedicale.univ-paris5.fr/UMR-S_747/equipe_2_032.htm
http://www.rtflash.fr/tag/philippe-collin
http://www.chirurgiemain.fr/pathologies/maladie-de-la-main/arthrose-de-larticulation-interphalangienne-distale-des-doigts/

----------
une thèse électronique:

Wednesday, December 21, 2011

Un Programme ANR 2008-2011: Optimised Computational Functional Imaging for Arteries

OCFIA (Optimised Computational Functional Imaging for Arteries) est une méthode de modélisation qui part de l’imagerie médicale et fournit des informations sur la biomécanique de la zone explorée.

http://www.ocfia.org/

une chaîne de traitement des images médicales a été conçue et optimisée afin de répondre à un cahier de charges incluant les éléments suivants :
  •     Compatible avec l’imagerie cardiovasculaire IRM et Scanographie
  •     Mouvements des structures au plus près de la réalité observée dans les images, calcul explicite afin d’éviter des erreurs sur la rhéologie des parois.
  •     Temps de calcul < 2H par dossier patient
  •     Possibilité de faire des études cliniques multicentriques afin d’évaluer de nouveaux facteurs prédictifs pour les pathologies cardiovasculaires (exemple : Anévrisme de l’aorte abdominale, Dissection aortique, Cardiopathies, ..)




Post-processing

Contents

1 Présentations des Logicels

Les programmes utilisés pour développer le concept de chaîne décrit plus haut ont la caractéristique d’avoir des fonctionnalités bien diverses, mais tournent autour d’un ou plusieurs formats compatibles. Ils ont été choisis parmi ceux qui étaient à notre disposition et parmi ceux qui se présentaient avec un meilleur rapport entre convivialité des interfaces utilisateur et fonctionnalités. Il est bien accepté qu’un nouveau code puisse prendre la place d’un de ceux décrits ci-dessous, car l’approche modulaire de notre chaîne de traitement le permet.

1.1 MRIcro et le format ANALYZE

MRIcro (www.mricro.com) est un logiciel libre qui permet de visualiser facilement les images DICOM provenantes de l’imageur, au format ANALYZE-7 (Mayo Clinic, Rochester, USA., www.mayo.edu/bir/). Il est basé sur l’organisation des données dans deux fichiers, au lieu d’en avoir un par image. Ceci est pratique quand le volume de données peut atteindre 1000 images. Alors il est possible de transformer ce volume de données en deux fichiers de types différents : un fichier d’entête (*.hdr) et un fichier de données brutes (*.img) qui portent le même nom.
  • Le fichier image *.img : Le fichier image est une suite ininterrompue de valeurs correspondant aux données des voxels dans un paquet d’images DICOM (selon les cas, entiers non signés, entiers signés, virgule flottante ou double précision). Chaque fichier *.img est généralement associé à un fichier d’entête contenant des informations sur l’organisation de ces données image.
  • Le fichier d’entête *.hdr : ANALYZE adopte un fichier de 348 octets qui contient les informations nécessaires au traitement géométrique. Il est divisé en différents champs :
    • taille de l’image en voxels (x,y et z)
    • taille des voxels en mm (x,y et z)
    • codage des valeurs des voxels
    • coefficient d’échelle.
    • offset des valeurs des voxels dans *.img (en octets).
    • coordonnée du point d’origine, le centrage de la séquence par exemple.
    • description (un string).
Comme j’ai choisi de travailler de façon modulaire, j’utilise le format analyze pour passer d’une tâche de post-traitement à une autre sans avoir des soucis de format. L’autre avantage est qu’il me permet d’accéder à tout moment aux résultats intermédiaires. Un module slice Viewer permet de parcourir un ou plusieurs volumes par l’intermédiaire d’une glissière. Le volume peut être observé en différents points de vue (coronal, sagittal, axial, ou les trois).

1.2 MATLAB 7.5

MATLAB (www.mathworks.fr) est un langage de calcul scientifique de haut niveau. C’est un environnement interactif pour le développement d’algorithmes, la visualisation et l’analyse de données, ou encore pour le calcul numérique. En utilisant MATLAB, nous pouvons résoudre des problèmes de calcul scientifique et réaliser des prototypes logiciels presque aussi performants qu’avec les langages de programmation traditionnels, tels que C, C++ et Fortran.
MATLAB offre un certain nombre de fonctionnalités pour la documentation et le partage du travail. On peut aussi intégrer le code MATLAB avec d’autres langages et applications, et distribuer les algorithmes et applications MATLAB.
Ses principales fonctionnalités sont :
  • Langage de haut niveau pour le calcul scientifique.
  • Environnement de développement pour la gestion du code, des fichiers et des données.
  • Outils interactifs pour l’exploration itérative, la conception et la résolution de problèmes.
  • Fonctions mathématiques pour l’algèbre linéaire, les statistiques, l’analyse de Fourier, le filtrage, l’optimisation et l’intégration numérique.
  • Fonctions graphiques 2-D et 3-D pour la visualisation des données.
  • Outils pour la construction d’interfaces graphiques personnalisées.
  • Fonctions pour l’intégration d’algorithmes développés en langage MATLAB, dans des applications et langages externes, tels que C/C++, Fortran, Java, COM et Microsoft Excel.
Avec nos algorithmes développés in house, nous avons intégré la boîte à outils SPM qui est distribuée gratuitement dans la communauté scientifique avec une licence libre GNU (General Public Licence http://www.fil.ion.ucl.ac.uk/spm). Cette intégration nous a servi de point de départ pour le calcul des déformations de la paroi vasculaire, sur la base des volumes dynamiques obtenus par IRM.
Développé initialement en 1994 par John Ashburner et Karl Friston, membres et collaborateurs du Welcome Department of Cognitive Neurology (Institute of neurology, University College of London), la boîte à outils SPM représente l’implémentation des concepts du traitement statistique de séries d’images réunissant toutes les fonctions nécessaires au traitement des différentes modalités d’imagerie d’activation cérébrale (imagerie par résonance magnétique fonctionnelle et tomographie par émission de positrons). Il propose toutes les fonctions nécessaires aux prétraitements, telles que la normalisation spatiale, le recalage et l’échantillonnage entre les images de modalités différentes.
Principales tâches développées sous l’environnement MATLAB :
  • Filtrage des images.
  • Extraction de la géométrie vasculaire par la méthode Level Set.
  • Calcul des déformations de la paroi basé sur les images d’IRM dynamiques.
  • Écriture des maillages mobiles et quelques opérations sur le maillage natif.
  • Préparation et correction des CL pour les débits d’entrée / sortie.
Nous avons utilisé des fichiers au format ANALYZE pour les manipulations géométriques, les maillages ont été écrits au format *.cas (FLUENT/UNS) et les CL au format *.txt (Texte).

1.3 AMIRA 4.1 et son interface 3D

AMIRA est un système de modélisation et visualisation 3D, développé conjointement par Konrad-Suze-Zentrum et Visual Concepts GmbH. Il vient du Open Inventor Toolkit proposé par TGS Template Graphics Software, Inc. Le logiciel Amira 4 est un produit de Mercury Computer System mis à jour sur sa version 4 en 2006. Il s’agit d’un système multifonctionnel de visualisation et modélisation de données. Il permet de manipuler virtuellement tout type de données scientifiques à partir de domaines d’applications aussi variés que la médecine, la chimie, la physique ou l’ingénierie. Son principe général de fonctionnement repose sur la représentation de toute base de données dans un espace de gestion appelé "object pool", où l’on peut associer différentes opérations. Ce logiciel autorise une représentation numérique fidèle d’une image y compris en 3 dimensions, avec un outil 3D de navigation et de visualisation de cette image. Ce logiciel fonctionne sur la base de modules et de données-objets. Les modules permettent de visualiser les données-objets ou de réaliser des calculs sur ces données-objets. Une fenêtre représente en tridimensionnel l’objet étudié sur demande, ce qui permet de vérifier en permanence la correspondance des modifications apportées à la réalité anatomique 3-D. La correspondance entre la géométrie discrétisée et son volume d’imagerie associé peut être validée visuellement par l’affichage des deux modules dans le même espace virtuel. Un exemple de résultat de segmentation d’un AAA par la méthode level set en 3D est donné à la figure.1 où une coupe morphologique nous sert de référence pour valider l’extraction de la forme anantomique.

PIC
Figure 1: Corrélation entre la représentation surfacique d’un anévrisme de l’aorte abdominale (AAA) avec son volume d’imagerie morphologique. Sert à contrôler le processus d’extraction de la géométrie vasculaire native

Les structures en 3D peuvent être représentées par des maillages convenables aux simulations numériques (CFD), à savor les surfaces triangulaires (éléments finis) et les volumes tétraédriques (volumes finis). Amira propose des méthodes pour générer de tels maillages à partir des données de segmentation manuelles ou automatiques.

2 Filtrage des images

Les images obtenues sont en niveaux de gris et possèdent un rapport signal/bruit plus ou moins important suivant le type d’acquisition. En effet, des coupes fines d’IRM (<  3mm) ont un rapport signal/bruit plus faible que les coupes plus épaisses (> 5mm). En réalité c’est le volume du voxel d’acquisition qui détermine l’intensité de signal utile sur le bruit de fond. Il est important d’ôter ce bruit afin de faciliter l’opération de segmentation qui sera développée plus loin dans ce manuscrit. L’objectif des filtres est d’homogénéiser les niveaux de gris des voxels qui correspondent à la lumière vasculaire et d’accentuer ceux qui marquent la limite avec la paroi artérielle. Nous avons à disposition deux filtres qui ont pour objectif l’amélioration des contours, un filtre de diffusion anisotropique basé sur les équations de diffusion, et un filtre de flou sélectif basé sur le rapport signal/bruit. Mais nous avons aussi un filtre qui a un autre objectif : le filtre gaussien part d’un niveau de filtrage très élevé pour ajuster la déformation de la paroi par un processus de filtrage dégressif.
Par la suite, nous allons décrire ces filtres qui sont utilisés dans la chaîne de traitement.

2.1 Filtre Gaussien

Un filtrage gaussien est appliqué aux volumes d’images avant l’analyse statistique. L’algorithme qui estime les déformations de la paroi par rapport au volume natif a en effet besoin de ce pré-traitement pour deux raisons :
  • Les données d’imagerie présentent des auto-corrélations spatiales. En effet, le signal acquis dans un voxel n’est pas indépendant de celui des voxels voisins. Rappelons que l’image réelle acquise est assimilable à la convolution d’une image idéale par une fonction de dispersion ponctuelle liée à la résolution spatiale intrinsèque de la méthode d’acquisition. La connaissance de ces auto-corrélations est nécessaire par exemple pour faire des corrections dans les images. Cependant, leurs caractéristiques sont difficiles à estimer et elles ne sont de toute façon jamais parfaitement connues par les techniques de restauration d’image (déconvolution). Ici, un filtrage passe-bas (gaussien) est imposé dont les caractéristiques de corrélation spatiale sont, elles, parfaitement connues. Il est utile dans la recherche d’une déformation optimale par filtrage dégressif des volumes natif et cible.
  • La déformation spatiale n’est jamais parfaite. L’application d’un filtrage gaussien a aussi l’intérêt de réduire l’effet des imperfections locales de déformation spatiale.

PIC
(a) Gaussienne
PIC
(b) LMH = 20mm
PIC
(c) LMH = 10mm
PIC
(d) LMH = 5mm
PIC
(e) Image Brute

Figure 2: Exemples du filtrage gaussien sur une coupe provenante de la segmentation d’un volume d’un fantôme d’anévrisme. Plusieurs niveaux de filtrage sont appliqués pour arriver à optimiser la transformation entre deux volumes.

         j2-
      e--2s2-
Gj =  √2-πs2-
(1)
     LM  H
s = ∘-------
      8 ln(2)
(2)
Le filtrage gaussien est réalisé par convolution discrète du volume natif et du volume cible par un noyau gaussien Gj dont l’amplitude à j unités du centre est définie par la relation suivante. Où LMH est la largeur en mm à mi-hauteur de la Gaussienne. Un exemple de filtrage dégressif est exposé à la figure 2(a).

2.2 Filtre de Flou Selectif

L’utilisation de ce filtre est inspirée des travaux de Soltanian-Zadech et al [12]. Ce filtrage utilise les informations contenues dans les pixels voisins du point considéré. Il a été développé en 2D et le masque (ensemble des pixels pris en compte) est de taille M × M et est appelé G.
2.2.1 Modèle théorique
On obtient l’image filtrée après convolution de l’image originale par le masque G :
          ⊗
Ifiltree = G    I
(3)
      ------gij------
Gij = ∑M    ∑M   gkl
         k=1   l=1
(4)
Avec i,j les éléments du masque de convolution (lignes, colonnes). Les différents coefficients de G sont calculés avec normalisation par l’équation :
          ⊗
Ifiltree = G    I
(5)
gkl est le poids attribué aux différents pixels voisins et avec 0 < gij < 1, 1 i M et 1 j M. G est donc calculé suivant l’environnement du point considéré comme dans le filtre de diffusion anisotropique décrit précédemment. Ce filtre tient compte du SD (bruit de l’appareil d’imagerie), la déviation standard ou l’écart type du signal. En posant S(X,Y ) l’intensité du pixel considéré et S(x,y) l’intensité des pixels voisins, les coefficients de pondération du filtre proviennent des équations suivantes :
{  gij(X, Y ) = 1 si |S(X, Y) - S(x,y)| < 2SD
   g (X, Y ) =------1------si |S (X,Y )- S (x,y)| > 2SD
    ij        |S(X,Y )- S(x,y)|
(6)
avec,
{           M+1
   x = X - (--2- - i)
   y = Y - (M+21--  j)
(7)
On utilise un rapport signal/bruit connu de l’appareil d’imagerie (IRM Philips Intera 1.5T) qui est entre dix et vingt, suivant la résolution spatiale, le nombre d’acquisitions et autres paramètres de la séquence. Ce filtre permet de fixer un seuil statistique de telle sorte que seuls les pixels qui atteignent ce seuil seront filtrés. Quand la variation de l’intensité des pixels contenus dans le filtre est proche des valeurs de fluctuation du bruit, le poids attribué est maximal et égal à 1 mais si ces variations ne sont pas du niveau des fluctuations du bruit, et donc proviennent d’un détail important de l’image, le poids est limité pour conserver cette information locale.
2.2.2 Algorithme
On calcule la nouvelle valeur du point central en chargeant les valeurs des pixels voisins, leurs différents poids (calculés en fonction de l’écart type donné et des différences entre le point central et ces voisins) chacun dans une vecteur 1D.
% On remplit la matrice de gradient  
mat_gradient = abs(matrice - mat_pt_central);  
 
for num_coeff = 1 : nb_lignes * nb_colonnes  
    if mat_gradient(num_coeff) < 2 * SD  
        mat_poids(num_coeff) = 1;  
    else  
        mat_poids(num_coeff) = 0; % 1 / mat_gradient(num_coeff);  
    end  
end  
 
% On calcule la matrice resultats  
for num_coeff = 1 : nb_lignes * nb_colonnes  
    mat_resultats(num_coeff) = matrice(num_coeff) * mat_poids(num_coeff);  
end  
 
% Calcul de la somme des elements de la matrice contenant les resultats  
somme_mat_resultats = sum(mat_resultats);  
 
% Calcul de la somme des elements de la matrice contenant les poids  
somme_mat_poids = sum(mat_poids);  
 
% Détermination de la valeur du point central  
point_central = somme_mat_resultats / somme_mat_poids;  
point_central = uint16(point_central);
2.2.3 Résultats
Concernant la taille du masque, nous nous sommes basés sur les travaux de D. Gensanne [3] sur les tissus adipeux et nous avons implémenté un filtre 9x9. L’exemple présenté ici illustre l’influence du filtre sur une image de l’aorte thoracique traité par Stent-Graft.

PIC
(a) Image brute
PIC
(b) SD=14
PIC
(c) SD=20
PIC
(d) SD=50

Figure 3: Coupe Sagittale Oblique d’une séquence injectée. Opérations de filtrage avec plusieurs niveaux de SD pour le filtre de flou sélectif

Les paramètres de séquence de l’image étudiée sont assez bons car l’injection de produit de contraste lui donne un excellent contraste (Fig.3(a)), mais il faut savoir aussi que la finesse de ses voxels (0.88 × 0.88 × 1.6mm3) donne un rapport signal sur bruit qui est estimé à 14 [3] pour l’appareil d’imagerie en question. Nous pouvons observer les résultats du filtrage pour SD = 14 (Fig.3(b)), ce qui équivaut à une image théoriquement "non bruitée". Nous sommes allés plus loin dans le filtrage en forçant sur le paramètre SD, pour SD = 20 (Fig.3(c)) et même SD = 50 (Fig.3(d)). Les résultats sont visiblement intéressants pour le traitement numérique des images. Le seul inconvénient est que ce filtre est actuellement fait pour travailler avec des images 2D et un développement vers l’analyse volumique est assez difficile à implémenter. Nous l’utilisons alors en mode multicoupes 2D.
Nous allons voir par la suite un filtre qui utilise l’information des trois directions de l’espace pour filtrer un volume d’imagerie. La possibilité de combiner deux filtres nous a paru intéressante. La segmentation des images est très sensible aux problèmes d’irrégularités de signal entre coupes voisines, surtout quand elles sont épaisses (< 4mm) par rapport à la direction de la coupe (~ 1mm). Utiliser les deux filtres nous donne la possibilité de coupler les fonctionnalités des deux méthodes.

2.3 Filtre par diffusion anisotrope

C’est un filtre que nous avons trouvé approprié pour réduire le bruit et homogénéiser les zones de niveaux de gris voisins. Il est décrit par P. Perona et J. Malik pour le filtrage des images en 2D [4]. Ce filtrage s’inscrit dans la lignée des filtres EPSF (Edge Preserving Smoothing Filtering), c’est-à-dire que théoriquement il préserve les contours des objets tout en filtrant les zones homogènes.
2.3.1 Modèle théorique
L’équation de diffusion de la chaleur est isotrope (8a) mais ce filtre modifie cette condition par l’utilisation de l’équation de diffusion anisotrope (8b) pour que les contours ne soient pas traités de la même manière :
δf
---= cΔf
δt
(8a)
δf-= div[h(f,t)⋅∇f ]
δt
(8b)
Ici h(f,t) est une fonction généralement du module de la dérivée de f (signal), maximale pour une dérivée nulle et décroissante lorsque le gradient croît ; on choisit généralement deux options :
  • Option 1 : favorise les forts contrastes sur les faibles contrastes (9a)
  • Option 2 : favorise les régions étendues sur les petites régions (9b)
         - |∇f|2-
h(f,t) = e  κ2
(9a)
              1
h (f,t) = ----(---)2-
         1 +  |∇κf|
(9b)
Si κ est petit, les petits gradients arrivent à bloquer la conduction. Une grande valeur réduit l’influence des gradients d’intensité sur la conduction.
Ce filtre, initialement utilisé en 2D, a été développé au CHU de Rangueil pour traiter des volumes d’images représentant des morphologies en 3D. L’algorithme codé en langage MATLAB tient compte des 26 voisins du voxel traité. La longueur de son code source, est compensée par son efficacité et ses possiblités de parallélisation. En effet, l’algorithme itératif utilise des opérations matricielles simples et indépendantes pour calculer massivement le coefficient de diffusion (eq.9a) ou (eq.9b), pour ensuite l’appliquer massivement aux voxels filtrés suivant la formule (eq.8b).
2.3.2 Algorithme

PIC
Figure 4: Calcul du gradient dans la direction y-1

Pour l’implémentation discrète du filtre, le gradient de l’image est calculé pour chaque direction en regardant le pixel voisin, ici l’exemple pour les colonnes :
 δ
---I = I (x + Δx, y,z)- I(x,y,z)
δx
(10)
Cette écriture est simplifiée par la suite :
 δ
---I(x + Δx, y,z,t) sera le raccourci pour I(x + Δx, y,z,t) - I(x,y,z,t)
δx
(11)
En posant,
                 δ
c(x + Δx, y,z,t)⋅δx-I(x + Δx, y,z,t) = Ψx+1,y,z,t
(12)
Nous pouvons définir la contribution du voxel voisin à droite :
c(x + Δx, y,z,t) = h(I(x + Δx, y,z),t)
(13)
c est le coefficient de diffusion et Δx = 1 voxel.
Ensuite, par analogie, nous pouvons faire la même chose pour les contributions des voxels à gauche, devant, derrière, en haut, en bas et ainsi tous les 26 voisins. Nous pouvons alors compléter l’équation avec toutes les contributions :
δδtI(x,y,z,t) = Ψx+1,y,z,t + Ψx-1,y,z,t
+Ψx,y+1,z,t + Ψx,y-1,z,t + Ψx+1,y+1,z,t + Ψx- 1,y+1,z,t
+Ψx+1,y-1,z,t + Ψx -1,y-1,z,t + Ψx,y,z+1,t + Ψx,y,z-1,t
+Ψ          + Ψ          + Ψ          + Ψ
   x+1,y,z+1,t    x-1,y,z+1,t    x,y+1,z+1,t    x,y-1,z+1,t
+Ψx+1,y+1,z+1,t + Ψx -1,y+1,z+1,t + Ψx+1,y-1,z+1,t + Ψx -1,y-1,z+1,t
+Ψx+1,y,z- 1,t + Ψx -1,y,z- 1,t + Ψx,y+1,z-1,t + Ψx,y-1,z-1,t
+Ψx+1,y+1,z- 1,t + Ψx -1,y+1,z- 1,t + Ψx+1,y-1,z- 1,t + Ψx -1,y-1,z- 1,t
(14)
Le codage se fait par une méthode matricielle pour laquelle MATLAB répond de façon très efficace. Pour ce faire, au volume initial on ajoute un voxel dans toutes les directions de l’espace. Si par exemple nous avons un volume à filtrer contenant 512 × 512 × 50 voxels, après modification nous aurons un volume de 514 × 514 × 52 voxels. Un exemple en 2D est donné à la Fig.4. Le calcul du gradient I(x,y - Δy,z) - I(x,y,z) revient à soustraire la matrice initiale avec son homologue déplacée de dy. Le code pour le calcul des gradients se présente finalement de la façon suivante :
Le coefficient de diffusion étant calculé à partir des gradients précédents le codage est simple et rapide. Un bon filtrage nécessite plusieurs itérations. A chaque itération l’image sera modifiée, un coefficient d’atténuation λ doit être ajouté pour ne pas perdre le contrôle de l’algorithme. Dans la relation 15 les itérations sont identifiées par le facteur temps :
            2∑6
It+1 = It + λ   ci∇iIt
            i=1
(15)
avec I1 le volume image de départ qui est non filtré.
2.3.3 Résultats
Suivant l’intensité du coefficient κ et le nombre d’itérations, les résultats peuvent être très différents. Ce qu’il faut garder en tête c’est qu’il ne faut pas détruire l’information utile de l’image initiale,tout en essayant de lisser le plus possible les régions qui sont morphologiquement homogènes, facilitant par la suite le calcul de la segmentation. Ci-dessous, nous présentons les résultats obtenus avec différents paramètres de filtre sur une image du volume traité.
La figure 5(a) représente une image du volume original, avant le traitement par filtrage. Un zoom sur la région des vaisseaux du cou 5(b) permet d’observer l’effet "salt & pepper", ce qui confirme l’existence d’un bruit de fond dans l’image. La figure 5(c) illustre le résultat du filtrage par diffusion anisotrope utilisant l’option 1 (eq.9a) et les paramètres suivants : κ = 40, nombre d’itérations=3, λ = 0.06. Le bruit est fortement diminué et l’image résultat conserve bien les informations "vraies". La figure 5(d) illustre le résultat du filtrage par diffusion anisotrope utilisant l’option 2 (eq.9b) et les paramètres suivants : κ = 30, nombre d’itérations=3, λ = 0.06. Le bruit est enlevé mais les structures géométriques sont mieux préservées, la précision de la segmentation en sera améliorée. C’est l’option qui sera choisie pour la segmentation par la méthode Level Set.

PIC
(a) Image brute
PIC
(b) Zoom
PIC
(c) filtrage option 1
PIC
(d) filtrage option 2

Figure 5: Coupe Sagittale Oblique d’une séquence injectée. Opérations de filtrage avec les deux options du filtre de diffusion anisotrope

3 Extraction de la géométrie "native"

De nos jours, la segmentation des structures anatomiques est un sujet très important en imagerie médicale. En effet, c’est un problème difficile à résoudre dans bien des situations puisque les images sont généralement très bruitées et leur niveau moyen de signal n’est pas constant, en raison d’une hétérogénéité du champ magnétique et d’une collecte non linéaire du signal au niveau des antennes (section ??). La majorité des méthodes est basée sur deux grands principes : une séparation par seuils d’intensité observés sur l’histogramme du volume (segmentation par seuillage) ou bien avec des fonctions "supérieures" qui utilisent les gradients de l’image pour déplacer des hyper-surfaces fermées. Mais jusqu’à présent, aucune technique véritablement efficace et robuste n’a vu le jour, aucune qui puisse être complètement automatique aux yeux du clinicien.
Dans cette section nous allons exposer deux techniques d’extraction mises à preuve au Laboratoire sur des volumes d’IRM à effet angiographique (séquence injectée). La méthode Level Set, implémentée sous un algorithme MATLAB 7 et la méthode par seuils d’intensité, pratiquée dans l’environnement 3D de AMIRA 4.

3.1 Méthode de segmentation par Level Set

Les méthodes Level Set, développées par Osher et Sethian en 1988 [5] sont aujourd’hui utilisées avec succès dans de nombreux domaines. Quelques applications sont la reconnaissance des formes en traitement d’images, la robotique, l’optimisation des trajectoires, la réalisation d’images de synthèse et la mécanique des fluides numérique. Le principal avantage de l’approche Level Set est de pouvoir représenter implicitement une interface statique sur un maillage eulérien conventionnel. La plupart des applications utilisant cette méthode sont décrites dans un livre édité en 1999 par Cambridge University Press à Berkeley [6]. En imagerie médicale, la méthode Level Set est très répandue et l’on retrouve plusieurs applications combinant l’IRM, la mécanique des fluides numérique et la méthode Level Set. Mais elles sont encore difficilement applicables en clinique [78910].
Dans ce qui va suivre, je vais exposer le principe de la méthode Level Set et de son implémentation dans un algorithme MATLAB codé au CHU de Rangueil pendant mon travail de thèse. Dans une deuxième partie j’exposerai les résultats obtenus sur quelques exemples concrets d’extraction de géométries vasculaires.
3.1.1 Méthode Level Set et Algorithme
La méthode standard de segmentation bouge des marqueurs sur une courbe, tandis que la méthode Level Set crée un lien entre l’évolution de la courbe et les lois de conservation de l’énergie en physique. Nous allons nous intéresser au principe et aux équations de la méthode level set rapide [11].

PIC
Figure 6: Fonction signée de distance ϕ définie pour un rectangle.

L’équation pour la propagation d’un front avec une vitesse F, fonction de la courbure C, est mise en relation avec une loi hyperbolique de conservation pour la propagation de ce front. L’idée centrale est de suivre l’évolution d’une fonction ϕ de distance pour laquelle ses valeurs zero correspondent toujours à la position du front propagé (zero-distance)(Fig.6). Le déplacement de cette fonction d’évolution est déterminé par une équation différentielle partielle d’un ordre supérieur qui autorise des bords tranchants, des coins aigus et des changements de topologie dans l’ensemble des zéros qui décrivent l’interface.
Cette approche générale attire un grand nombre d’applications à trois dimensions, comme c’est le cas des problèmes qui sont sensibles à la courbure (tension de surface), ou bien ceux qui subissent des changements complexes de topologie. Pour une interface à une dimension se déplaçant dans un espace à deux dimensions (image 2D), l’algorithme Level Set est une méthode qui consomme 0(n2) par pas de temps, où n est le nombre de points dans l’espace 2D (nombre de pixels de l’image). C’est le point coûteux de la méthode. Et si nous cherchons à résoudre un problème à trois dimensions, alors ça devient très coûteux pour le calculateur avec 0(n3) opérations par pas de temps. Pour l’exemple, un volume d’image peut faire 512 × 512 × 50 = 13107200 calculs par pas de temps !
Mais une solution pour accélérer le calcul existe déjà et consiste à utiliser uniquement les points qui sont près de l’interface. Cette technique appelée Narrow Band (NB) permet de faire face au grand nombre de données présentes dans un volume 3D, tout en gardant les fonctionnalités de la méthode initiale. L’algorithme itératif fait alors les étapes suivantes :
Avec une courbe initiale,
  • (1) l’algorithme calcule les distances eulériennes signées sur le "tube", de part et d’autre de la courbe d’interface. Intérieur négatif, extérieur positif.
  • (2) l’algorithme met à jour la matrice du domaine et fait évoluer ϕ dans le "tube".
  • (3) si la courbe est près du bord du domaine, l’algorithme ré-initialise la surface en passant par (1) et refait un nouveau maillage rectangulaire pour continuer les calculs (Fig.7).
  • (4) sinon, il va sur (2).

PIC
Figure 7: Fonction signée de distance ϕ définie pour une zone (NB) proche à l’interface.

Si on définit γ0 comme le front initial fermée et ϕ(x,t),xϵR2 une fonction scalaire telle que au temps t, l’ensemble de niveau-zéro de ϕ(x,t) est la courbe γt. Ensuite les distances eulériennes entre la courbe γ0 et tout point de ϕ sont définies par ϕ(x,0)  =   ± d(x). Maintenant si on considère le déplacement vers un niveau défini par ϕ(x(t),t) = C, avec x(t) la trajectoire de la particule, nous pouvons écrire que sa vitesse instantanée dans la direction normale au front de propagation est donnée par la fonction de vitesse F :
δ(x-)
δ(t) ⋅n = F
(16)
      ∇ ϕ
n = - |∇-ϕ|-
(17)
Naturellement, si l’algorithme se base uniquement sur la courbure du front pour définir la vitesse de ce dernier, notre interface ne va pas s’arrêter au niveau de la paroi vasculaire. Si nous voulons trouver la position de la paroi, nous devons alors intégrer le gradient du volume d’imagerie (gradients de niveaux de gris en 3D) dans F. La vitesse de propagation sera donc fonction de l’inverse du gradient, ainsi, à fort gradient, la vitesse sera nulle et le front s’arrêtera. Pour des problèmes d’instabilité, un gradient d’ordre 2 est aussi intégré dans l’expression de la vitesse. Il sert à piéger le front au niveau de la paroi et contrôle les débordements.
La forme générale de l’équation d’ensemble de niveaux de Sethian correspond à la relation (18). Si nous faisons intervenir les gradients de l’image et le terme attractif (gradient d’ordre 2) nous avons la relation (20). Le terme de courbure est représenté par la relation (19).
{
   ϕt - F |∇ ϕ| = 0
   ϕ(x,t = 0) = ±d (x)
(18)
    ϕyyϕ2x---2ϕxϕyϕxy-+-ϕxxϕ2y-
k =        (ϕ2 + ϕ2)3∕2
             x   y
(19)
Finalement, ϕ est solution de l’équation différentielle partielle (20) avec la condition ϕ(x,t = 0) = ±d(x) sur les distances.
δϕ-
δt +   k◟I(1◝-◜-εk)◞  |∇ϕ |-    β◟-∇◝P◜◞    ⋅∇ϕ = 0
     Vitesse du front      Terme attractif
(20)
Avec kI(1 - εk) la vitesse de propagation du front, kI fonction des gradients du volume d’imagerie et k la courbure moyenne de poids ε. Le terme βP correspond au terme attractif où P est fonction du gradient d’ordre deux de poids β.
3.1.2 Résultats 3D
En pratique, la mise en place de l’algorithme de segmentation demande beaucoup de ressources mémoire. La taille des multiples volumes image est importante : matrice 512 × 512 × 50 voxels; avec un nombre d’images fonction de l’épaisseur de coupe, la mémoire vive d’un ordinateur de bureau est vite saturée. Plusieurs solutions sont donc envisagées pour remédier à ce problème :
  • Définition d’une bande de calcul autour du front (Fig.7).
  • Diminution de la taille de la matrice (Fig.8).
Dans une image acquise, beaucoup d’informations sont inutiles autour du volume à explorer. Il faut donc découper le volume à travers la sélection d’une région d’intérêt. Par exemple n’en garder que l’aorte abdominale si l’objectif est l’étude du comportement du flux sanguin et de sa paroi au niveau d’un AAA. Cette simplification peut être faite sous MATLAB (Fig.8(a)) avant l’opération de filtrage (gain de temps) ou bien sous AMIRA (Fig.8(b)). Le volume obtenu sera soumis au traitement d’extraction de la géométrie native et représente une base morphologique, pour le premier maillage statique et ses homologues dynamiques. Alors pour être cohérent en termes de centrage et taille des images, nous avons que cette opération de simplification sera identique et automatique pour les volumes dynamiques.

PIC
(a) Matlab
PIC
(b) Amira

Figure 8: Coupe sagittale sur un AAA, simplification du volume avec les interfaces Matlab et Amira. L’opération de filtrage se fait automatiquement après la simplification avec MATLAB

Pour diminuer la taille de la matrice, nous pouvons encore partager le volume image en plusieurs sous-volumes. La segmentation peut-être lancée en parallèle (à partir de plusieurs points de départ) sur chacun d’entre eux. Les fronts se propagent et se retrouvent aux frontières pour faire un seul volume.
Les premiers tests ont été élaborés sur des formes simples acquises dans des conditions "idéales", telle une bouteille remplie d’un mélange eau et liquide de contraste (iode). Comme il y a un grand nombre d’images (près de 350 coupes au scanner), il est nécessaire de partager le volume en plusieurs petits volumes et de les segmenter bout à bout. L’algorithme effectue sa tâche. Le front se propage sans problème dans les coupes fines (environ 1 mm d’épaisseur) et le contraste est excellent. Il n’y a pas de problèmes d’arrêt du front. La forme de la bouteille est retrouvée aisément (Fig.9). Le premier résultat est mis en forme sous Matlab grâce à la fonction "isosurface", on ne voit que le haut de la bouteille et on peut remarquer la présence de bulles d’air sur le côté (la bouteille était couchée et remplie d’eau lors de l’acquisition des images).

PIC
Figure 9: Premier résultat par la méthode Level Set sur une bouteille couchée remplie d’eau, affichage du volume avec l’interface de MATLAB

Un deuxième résultat est obtenu sur un fantôme d’anévrisme de l’aorte thoracique (Fig.10(a)). Pour cette expérimentation nous avons utilisé un montage à écoulement pulsé grâce à un ventricule de prothèse de Thoratec. Nous avons directement obtenu les images dynamiques (20 phases) avec une séquence IRM du type balanced-SSFP (Fig.10(b)). Étant donné que les images étaient de bonne qualité, nous avons fait plusieurs tests à différents moments du cycle cardiaque, ce qui nous a permis de reconstruire la géométrie dynamique pour ce fantôme (Fig.10(c)).

PIC
(a) fantôme d’AAT
PIC
(b) Images b-SSFP
PIC
(c) Extraction Level Set multi phases

Figure 10: Résultats d’extraction par la méthode Level Set à partir d’une séquence dynamique b-SSFP sur un fantôme d’AAT. Affichage avec l’interface AMIRA 4

3.2 Méthode de segmentation par seuillage et proche voisin

Les travaux réalisés par deux étudiants en médecine (un en 4ième année et l’autre, interne en chirurgie vasculaire) dans le cadre d’unités d’enseignement, ont été l’occasion d’évaluer les techniques d’extraction basées sur deux méthodes. La méthode Level Set (automatique mais lente) que nous venons de voir et la méthode par seuillage et proche voisin (plus manuelle mais rapide). L’application de la méthode de filtrage et d’extraction des géométries vasculaires a été bien intégrée par les deux étudiants. Mais ils se sont familiarisés beaucoup plus vite avec AMIRA qui a une interface intuitive en 3D. Les images provenant de séquences à effet angiographique (Section ??) ont été importées au format ANALYZE avec MRIcro (Sec.1.1) pour être ensuite filtrées avec MATLAB et traitées dans l’interface AMIRA 4. Ce travail a eu lieu au Laboratoire d’Imagerie Interventionnelle Vasculaire du Service du Prof. H. Rousseau, au CHU de Rangueil.
Aucune difficulté pour la prise en main du logiciel. Pour ce travail nous avons utilisé une méthode de segmentation de l’histogramme du volume, combinée à une contrainte de connectivité entre les voxels voisins. A travers une interface 3D, l’utilisateur a pu sélectionner un seuil sur l’histogramme associé à l’étude. En général, pour ce type de séquences, l’histogramme est divisé en deux pics très nets, alors le placement du seuil est assez facile. Ensuite, tout le travail consiste à vérifier et corriger les voxels qui ont été pris comme étant à l’intérieur de la lumière artérielle. L’interface AMIRA permet aussi de bien définir les limites de la zone à explorer. Une fois définis, le programme AMIRA réalisera une extraction de la surface par dessus ces voxels, et ceci par une méthode de triangulation sur la surface. Le rôle du stagiaire était d’arriver à cette reconstruction de surface en accord avec les images IRM et tout autre matériel à disposition. En cas de doute, certains patients avaient d’autres types d’examens, tels qu’un scanner ou une angiographie.
3.2.1 Exemple d’une dissection de l’aorte
Cette pathologie a été analysée grâce à l’outil informatique. L’aorte était celle d’un patient souffrant d’une pathologie vasculaire complexe : il avait développé une dissection aortique dont le traitement avait été médical 2 années plus tôt. Aucun geste thérapeutique n’ayant été réalisé, l’aorte comportait au lieu d’une seule lumière, un vrai et un faux chenal. Le contrôle évolutif avait permis d’objectiver la survenue d’un anévrisme sacciforme de l’aorte au niveau de la crosse. L’attitude médicale a consisté en la pose d’un Stent-Graft localisée au site de l’anévrisme.
Pour l’extraction de la géométrie avant la mise en place du Stent-Graft, une séquence IRM à effet angiographique a permis d’identifier le vrai et le faux chenal de la dissection, ainsi que l’anévrisme sacciforme développé au niveau de l’arche aortique. Nous avons décidé de garder l’aorte dans toute sa longueur pour observer d’un côté les portes d’entrée et de réentrée de la dissection chronique, et de l’autre, l’anévrisme au niveau de l’arche, raison de cet examen diagnostique avec produit de contraste.
Pour ce dossier, il a été demandé de préparer plusieurs reconstructions.
  • une première avec la morphologie réaliste,
  • la deuxième avec quelques simplifications (collatérales),
  • la troisième avec l’exclusion virtuelle du sac anévrismal
  • et la quatrième avec la fermeture virtuelle d’une porte d’entrée au niveau de la dissection.

PIC
(a) Gestions des objets
PIC
(b) Editeur de segmentation

Figure 11: Gestion des objets dans le "pool" et Interface de l’éditeur de segmentation dans AMIRA 4. Segmentation par seuillage de l’histogramme et contrainte de voxels voisins

A travers les fenêtres de l’éditeur de segmentation (Fig.11(b)), les images sont analysées et les structures anatomiques sont identifiées afin de décider de la démarche à suivre. L’histogramme donne un point de départ car il choisit des voxels qui sont au dessus du seuil. La contrainte des voxels voisins impose que tous les voxels ayant une intensité supérieure au seuil et étant connectés au premier voxel sélectionné, sont dans la lumière artérielle. Ceci permet d’exclure certaines zones comme le cœur, et quelques collatérales, en effaçant leur connexion. La figure 13(a) et 13(b) illustrent l’aorte avec ses principales collatérales, tandis que la figure 13(c) et 13(d) montre déjà une simplification. Ces manipulations sont nécessaires pour la préparation du maillage destiné aux calculs CFD. L’entrée et les sorties seront par la suite des "patch" bien définis avec des CL hémodynamiques. Ils doivent correspondre à la position des coupes de vélocimétrie par contraste de phase effectuées par IRM. Actuellement il est très difficile de faire des mesures de flux assez précises au niveau des coronaires, du tronc cœliaque et des artères intercostales. Alors elles sont naturellement exclues virtuellement, sachant que la perte de flux par ces collatérales n’est pas grande face au volume d’ejection systolique. Toutes les décisions sont basées sur d’autres examens s’il y en a, tel que l’angiographie ou le scanner, la figure 3.2.1, montre des images de scanner centrées sur une porte d’entrée d’une dissection aortique.

PIC
Figure 12: Images scanner suivant différentes orientation sur une porte d’entrée d’une dissection aortique, reconstruction MRP

D’autres exclusions virtuelles ont été possibles, la figure 14(a) illustre une sélection de voxels à effacer lors de l’exclusion de l’AAT (Fig.14(b). La figure 14(d) expose la possibilité de fermer virtuellement une porte d’entrée dans une dissection de l’aorte. A partir de ces reconstructions surfaciques, des maillages statiques décrivant chaque cas peuvent être créés dans la même interface.

PIC
(a) Initiale devant
PIC
(b) Initiale derrière
PIC
(c) Simplification
PIC
(d) Derrière

Figure 13: Première reconstruction et simplification par l’exclusion des principales collatérales


PIC
(a) Identification virtuelle
PIC
(b) Exclusion de l’AAT
PIC
(c) Diss 2 portes
PIC
(d) Diss 1 porte

Figure 14: Manipulations virtuelles, exclusion numérique de l’anévrisme et fermeture numérique d’une porte d’entrée pour la dissection aortique

4 Déplacement de la géométrie

Dans le chapitre précédent nous avons présenté les difficultés à obtenir des acquisitions dynamiques de bonne qualité au niveau de l’aorte thoracique. Cette difficulté ne se présente pas au niveau de la bifurcation carotidienne, car l’accès est plus facile, le patient n’a pas besoin de garder des apnées successives et parce que l’antenne Synergy Head-Neck a un excellent rapport signal sur bruit. Les antennes utilisées, avec les paramètres de séquence décrits à la section ?? pour les explorations cardiaques, ne permettent pas actuellement d’obtenir des images morphologiques à la fois bien résolues et dynamiques. Nous avons vu qu’il était possible de coupler les informations de deux séquences pour en tiré le meilleur profit en résolution spatiale (séquence à effet angiographique) et temporelle (séquence SSFP dynamique). Finalement, les techniques d’extraction (automatiques ou manuelles) sont capables de passer d’un volume morphologique de bonne qualité à une reconstruction de surface des formes anatomiques.
Dans cette partie de mon travail je vais présenter la méthode qui permet d’animer le mouvement de ces formes anatomiques mais qui peut aussi bien animer tout autre objet qui soit placé dans un champ de déformation qui sera estimer à partir des images dynamiques à basse résolution spatiale. Nous sommes ici face à une technique hybride qui présente des avantages énormes pour la mécanique des fluides numériques. Ces avantages seront développés dans le chapitre suivant.

4.1 Principe de déformation

Une déformation est une opération qui déplace un objet dans son espace vers une nouvelle position de cet espace. Une déformation peut être linéaire (homothétie) ou bien non-linéaire (à chaque point lui correspond un vecteur de déplacement différent et indépendant). Nous avons décidé de ne pas utiliser les lois de comportement pour la paroi décrites dans la littérature car nous estimons qu’il existe un risque très grand de faire des erreurs sur son comportement biomécanique (rhéologie). Face aux structures très variées comme l’os, les parois malades (athérosclérose, anévrisme) et les organes environnants, nous avons opté pour imposer sa position à tout instant.
Pour partir d’une géométrie statique de la paroi et reconstruire l’évolution de cette paroi au cours d’un cycle cardiaque, nous devons alors imposer à chaque point de cette paroi et pour chaque phase cardiaque, un vecteur de déplacement indépendant. Les avantages de cette approche sont bien établis par rapport à l’extraction de plusieurs géométries, avec leurs reconstruction de surface indépendante :
  • Une seule segmentation à faire, au lieu d’avoir à faire une par phase cardiaque (~ 20).
  • Une cohérence topologique intrinsèque, par le principe de déformer la même structure, au lieu de travailler avec des structures non conformes les unes avec les autres. C’est l’avantage principal pour les calculs CFD à base de formulations ALE (Sec.??).
     
Le volume d’images dynamiques est un ensemble de volumes statiques acquis à des instants différents et qui donnent l’impression d’un effet ciné. Chaque volume est identifié sur le cycle cardiaque grâce au temps d’acquisition après l’onde R de l’ECG. Le cycle cardiaque est segmenté en 20 phases dont une seule correspond de très près au délai de lancement de l’acquisition statique (séquence injectée). Nous retrouvons alors une correspondance temporelle entre les deux séquences. Néanmoins la correspondance géométrique doit être satisfaite pour éviter de faire des erreurs pendant l’application du champ de déformation. Ce dernier est estimé de façon statistique entre l’information contenu dans une phase appelée "source" et une phase appelée "cible". La phase "source" sera toujours celle qui correspond au même délai après l’onde R que pour la séquence statique (séquence injectée). L’estimation d’un champ de déformation pour une phase se fait donc entre deux "volumes phase". L’alignement de tous les champs de déformation permet de reconstituer l’évolution du champ spatial dans le temps.

4.2 Méthode de déformations non-linéaires

Le programme de départ est une boîte à outils basée sur des algorithmes de probabilité (bayessiens). Spécifiquement conçu pour faire des tests statistiques sur des hypothèses d’activation cérébrale, SPM (Statistical Parametric Mapping, K. Friston et J. Ashburner) est développé par les membres et collaborateurs du Wellcome Department of Imaging Neuroscience (UK, http://www.fil.ion.ucl.ac.uk/spm/). Mais si nous utilisons quelques fonctionnalités de ce programme, nous n’allons pas opter pour l’approche statistique, nous allons plutôt voir les déformations comme un problème d’"optimisation".
4.2.1 Principe d’optimisation
Concrètement, l’approche "optimisation" est beaucoup plus naturelle. Nous cherchons à trouver le meilleur compromis entre transformation efficace par la fonction F2 (eq.21b) et transformation simple par la fonction F1 (Jacobien proche de 1)(eq.21a). L’optimisation est retrouvée en minimisant une combinaison linéaire de F1 et F2 (eq.21c).
     ∫
F  =    (|J |+ |J|- 1 - 2) dΩ
 1    Ω
(21a)
     ∫
                              2
F2 ∝   Ω[Isource(x)-  Icible(T(x))]dΩ
(21b)
F =  λF1 + μF2
(21c)
L’optimisation d’une transformation idéale est un travail itératif pendant lequel le domaine de calcul (le champ de déformation) peut aller dans les mauvaises solutions (minima locaux). Il faut le voir comme si on devait se rendre quelque part et on était pas sur de connaître le bon chemin. Il y a une infinité de chemins mais seul quelques uns sont vraiment optimum. Il peut aussi nous arriver de tomber dans une impasse et de se retrouver tout prêt de la destination voulu mais de ne pas y avoir parvenu. Les paramètres qui décrivent ce problème d’optimisation sont alors les suivants :
  • La solution n’est pas unique
  • La solution doit être bijective.
  • La transformation est non linéaire, en général elle est représentée par un champ vectoriel de déformation.
  • Un algorithme existe pour l’analyse statistique des images cerébrales. Il nous sera utile pour trouver la bonne solution.
  • La contrainte sur le Jacobien n’est pas suffisante. Il faut éviter l’écrasement des mailles car elles peuvent entraîner des désaccord numériques lors des calculs en MFN. L’utilisation d’un filtrage dégressif (gaussien) limite ce problème.
Pour obtenir une transformation T idéale, le processus itératif cherche à maintenir le déterminant du Jacobien |J| de T le plus proche possible de l’unité. F1 et F2 sont obtenues numériquement dans un système de mailles aux éléments finis (champ de déformation). Leur gradients par rapport à T(xi) sont obtenus par differences finies.
Un simple algorithme de descente est alors utilisé:
 k+1     k
T    = T  - ε∇F
(22a)
     k+1
ε : |J |  > 0
(22b)
Si T est idéale, le volume source transformé s’ajuste parfaitement au volume cible. L’algorithme statistique analyse la variance obtenue entre les deux et donne une information pour ajuster au mieux les nœuds du champ de déformation. La combinaison de la transformation T et de la transformation inverse T-1 est égale à l’identité si T est idéale. Ce qui veut dire qu’un volume transformé avec T puis avec T-1 correspond "exactement" au volume de départ, sinon, T n’est pas la solution idéale. Théoriquement ceci est vrai sur les équations mais dans la pratique, les erreurs d’interpolation inhérents aux techniques discrètes, ne permettent pas de retrouver exactement le point de départ.
4.2.2 Algorithme
Le processus d’optimisation se déroule par une suite d’algorithmes que j’ai développé pendant mon travail de thèse. Je me suis inspiré des travaux de J.Ashburner [1213] et j’ai créer un code qui re-utilise certaines interfaces et routines mex-files (codées en c) disponibles dans la toolbox de SPM.
Le nouveau code a été dédié à estimer les déformations de la paroi vasculaire entre la phase native et les autres phases cardiaques (Fig.??). Ceci revenait à estimer les déformations de l’espace dans une région d’intérêt. L’algorithme a été organisé en modules pour avoir un accès facile aux résultats intermédiaires et pouvoir développer indépendamment chaque partie du code source.
Nous avons défini les tâches suivantes, qui sont en pratique chaque partie de l’algorithme général. Elles sont constituées de contrôles _ui (User Interface) pour faciliter l’échange entre l’utilisateur et le programme :
  • makeroi_ui a deux fonctions très simples. Il permet de couper le volume brut pour en garder que la région d’intérêt et permet de fabriquer un masque sur les zones d’entré et sortie de flux. Ceci annule l’information du signal et ne provoque pas de déformations. (Utile pour les "patchs" d’entrée et sortie lors d’un calcul CFD). C’est une façon de fixer les structures des zones sélectionnées. Les deux opérations se font dans une fenêtre active et les coordonnées des points repères sont sauvegardés pour éviter de refaire la même manipulation pour chaque phase.
  • multifiltre_ui permet d’enlever le bruit de fond; il se sert du filtre de flou selectif avec un SD = 14. Il se sert du filtre de diffusion anisotropique en 3D pour rendre homogènes les régions qui correspondent à la lumière vasculaire. Ces tâches sont répétées sur tous les volumes (les phases) sélectionnés.
  • multi_nldf_ui lance le processus itératif qui détermine le champ de déformation non linéaire entre le volume natif et les autres phases cardiaques. C’est une boucle qui permet de combiner les paramètres de filtrage gaussien (LMH, Fig.2(b)) et de régularisation avec des valeurs dégressives, afin de trouver le minimum général pour la valeur résiduelle, signe d’une bonne transformation.
  • multidef_ui calcule les nouvelles coordonnées des points qui ont été chargés pour la déformation. Elle utilise le champ de déformation pour re-écrire les nouvelles positions sans changer la topologie de l’objet.
Les modules avec le prefixe multi* ont été programmés avec l’intention de couvrir toutes les phases du cycle cardiaque. C’est alors qu’à partir de la phase de référence initiale appelée "native", l’algorithme va estimer toutes les autres phases cardiaques suivant la logique décrite à la figure 4.2.2. La construction de tous les maillages se fera donc à partir du premier maillage. Afin d’intégrer la référence temporelle, l’ensemble de tous les maillages sera organisé suivant le numéro de la phase cardiaque à laquelle chacun est associé. Nous verrons par la suite à la section ?? que l’intitulé "native" change de principe d’utilisation dans le déroulement du calcul CFD.

PIC
Figure 15: Logique de construction des maillages synchronisés sur le cycle cardiaque à partir du maillage natif et les transformations T.

Pour chaque paire de volumes analysés, notre algorithme donne à la sortie :
  • Un fichier contenant le champ de déformation (Fig.20(d)).
  • Un fichier *.txt contenant les nouvelles coordonnées des points demandés en entrée.
  • Un graphique avec l’évolution de la variance résiduelle obtenue au cours du processus itératif (Fig.18(f)).
C’est important de retrouver une organisation homogène des mailles dans le nouveau champ car l’écrasement (mailles très petites à côté des grandes) est une cause d’erreur dans la construction du nouveau maillage pour les CFD. Il existe donc un intérêt à partir avec une valeur de LMH équivalente à 10 fois la résolution de l’image (en mm).
4.2.3 Probabilité de trouver la "bonne" déformation
Les images sont recalées en estimant un ensemble de paramètres qui maximise la probabilité d’avoir obtenu une transforation idéale. Ceci implique de commencer par un ensemble d’évaluations de départ, et de faire de petits ajustements de sorte à faire augmenter le potentiel de probabilité à la fin de la boucle itérative. Dans chaque itération, les positions des points de contrôle (noeuds) sont mis à jour in situ, en balayant séquentiellement le volume cible. Lors d’une itération de recalage tridimensionnel, la boucle peut fonctionner du bas vers le haut, postérieur vers le devant, et de la gauche vers la droite. Dans la prochaine itération, l’ordre de la mise à jour est renversé (haut vers le bas, antérieur vers le postérieur, et de la droite vers la gauche). Cette séquence alternative est continuée jusqu’à ce qu’il n’y ait plus une réduction significative de la pente du potentiel de probabilité, ou pour un nombre fini d’itérations. Chaque itération de l’optimisation implique de déterminer le taux de changement du potentiel de probabilité par rapport aux changements minuscules de chaque élément de T. Pour la nième itération, ε est choisi suffisamment petit pour satisfaire la condition 22b.

PIC
(a) Évaluation bidimensionel
PIC
(b) Division en tétraèdres

Figure 16: Évaluation du déplacement des nœud sur le maillage du champ de déformation. Évaluations pour un cas 2d et sous divisions en tétraèdres pour l’espace entre huit centres (sphères) de voxels dans le volume.

Le taux de changement est estimé à chaque boucle de programme. Lors de la mise à jour, chaque noeud est déplacé le long de la direction qui diminue le plus rapidement possible le potentiel de probabilité à travers la relation 22a (méthode de descente de gradient). Pour le recalage bidimensionnel, F dépend des changements de la matrice du Jacobien des six triangles adjacents représentés sur le schéma de la figure 16(a). Puisque les mathématiques de calcul de ces dérivés partielles sont algébriquement denses, un sous-programme en C (mex file) est utilisé sur la base de la toolbox de SPM. Pour le cas tridimensionnel, le déplacement du noeud dans le maillage va influencer les matrices du Jacobien des tetrahèdres qui ont un sommet à ce noeud (Fig.16(b)). Si un noeud est déplacé de façon exagérée, alors le déterminant d’une ou plusieurs des matrices du Jacobien lié à un triangle ou à un tétraèdre voisin peut devenir négatif. Ceci impliquerait une violation de la contrainte linéaire dans le tracé (puisque le tetrahèdre voisin occuperait le même volume). La tentative initiale déplace le noeud d’une petite distance. Si l’un des déterminant devient négatif, alors la valeur de ε est réduite de moitié et une autre tentative est faite pour déplacer le noeud d’une distance plus petite de son emplacement original. Ceci continue pour le noeud jusqu’à ce que les contraintes soient satisfaites. Un procédé semblable est alors répété par lequel la valeur de ε est divisé en deux jusqu’à ce que le nouveau résidu soit moins que ou égal à la valeur précédente. En incorporant ce procédé, le résidu n’augmentera jamais lors du déplacement du noeud, assurant ainsi que le potentiel de probabilité d’avoir trouvé la "bonne" déformation augmentera avec chaque itération.
4.2.4 Inverser un champ de déformation
Á la fin des itérations du module nltf_ui, il est nécessaire de calculer l’inverse du champ de déformation. Deux raisons principales pour cette action :
  • La qualité du champ de déformation obtenu est estimée par l’opération Id = T × T-1. La régularité du maillage dans Id est une bonne indication du résultat obtenu.
  • Pour échantilloner les nouvelles coordonnées des nœuds, il est nécessaire de passer par l’inverse de la transformation. Ceci parce que la représentation du nouveau volume doit être transférée sur le même espace que le point initial, dans l’espace euclidien de départ.
4.2.5 Exemple 3D avec un Cas test : Modèle "dalle Carrée"/ "dalle Ronde"

PIC
(a) Volume source filtré
PIC
(b) Volume cible filtré
PIC
(c) Jacobien
PIC
(d) Champ de T à 12
PIC
(e) Champ de T-1 à 12
PIC
(f) Champ Id = T × T-1 à 1
2
Figure 17: Cas test sur deux volumes images. T correspond à la transformation "idéale" entre le volume "source" et le volume "cible", quelques erreurs sont retrouvés dans la matrice identité Id.


PIC
(a) Champ de T à 13
PIC
(b) Champ de T-1 à 13
PIC
(c) Maillage natif (source)
PIC
(d) Maillage déformé
PIC
(e) Maillage avec T × T-1
PIC
(f) Evolution de la valeur résiduelle
Figure 18: Cas test, champ de T et T-1 avec une meilleure résolution spatiale (13). Déformation du maillage natif vers son nouveau champ à travers T. Le retour en arrière ne donne pas exactement le même maillage de départ par erreur d’interpolation et d’optimisation, la valeur résiduelle n’est pas nulle à la fin du processus itératif

Pour exposer la méthode avec un exemple académique, nous avons choisi d’obtenir la transformation entre deux volumes d’images représentant respectivement une "dalle carrée" et une "dalle ronde" (Fig.17(a) et Fig.17(b)). L’algorithme filtre les volumes avec un filtre gaussien pour retrouver progressivement la transformation T à travers l’optimisation de leur Jacobien (Fig.17(c)). La figure 17(e) montre l’allure des mailles du champ de déformation avec une résolution équivalente à 1
2 d’un voxel dans le volume image de référence. Pour éviter les problèmes d’interpolation lors de l’écriture des nouvelles coordonnées, les mailles peuvent être réduites à 1
3 de la résolution d’origine (Fig.18(b)). La dalle "native" (Fig.18(c)) se déforme vers son nouveau espace sous forme d’un nouveau maillage avec la même topologie de référence (connectivité)(Fig.18(d)), seul les coordonnées des nœuds ont été modifiées. Mais l’opération inverse partant du nouveau maillage vers la "source" ne permet pas d’obtenir exactement la même "dalle" d’origine (Fig.18(d)). Des erreurs résiduelles sont encore présentes et la transformation (Fig.18(f)). Hormis ces problèmes d’optimisation, ce cas test nous a permis de démonter que la méthode était capable d’appliquer un champ de déformation vectoriel (non-linéaire) aux coordonnées d’un maillage "natif".
4.2.6 Exemple 3D avec un modèle de fantôme d’anévrisme
Une expérience IRM sur un fantôme d’anévrisme à paroi déformable nous a permis d’utiliser les informations d’une séquence dynamique b-SSFP multi-shot pour animer un maillage "natif" vers ses homologues, au cours d’un cycle de pulsation. Nous allons décrire la partie qui concerne uniquement les déformations du maillage natif à partir des volumes images. La description du montage et ses applications CFD seront présentées au chapitre suivant.
La géométrie est obtenue avec la méthode level set en 3D (Fig.20(c)) sur un volume d’imagerie dynamique centré sur l’anévrisme du fantôme correspondant à la phase diastolique (Fig.20(a)). Le volume est discrétisé avec AMIRA 4 vers un maillage de surface contenant 4360 faces triangulaires. Pour corriger les défauts aux bords des "patchs" d’entrée et sortie nous avons utiliser une combinaison entre un algorithme MATLAB et le programme AMIRA 4. Après avoir identifié les différentes zones (entrée, sortie et mur) sur le maillage de surface, un maillage volumique est réalisé avec AMIRA 4. Ce maillage appelé "natif" est constitué de 7455 nœuds et 36473 tétraèdres (Fig.20(e)).
Afin d’illustrer les résultats d’une transformation entre phase "diastolique" et phase "systolique", nous avons sélectionné un deuxième volume à l’opposé du cycle de pulsation (Fig.20(b)). La transformation nécessaire entre les deux volumes est optimisée après 200 itérations. Le nouveau maillage est écrit avec la même connectivité et sa correspondance spatiale est validée visuellement sur des coupes d’imagerie à travers l’interface graphique d’AMIRA (Fig.20(f)). De la même façon nous pouvons faire la même opération pour chaque phase du cycle de pulsation.
Nous avons eu des problèmes après avoir estimer la transformation pour une phase en particulier, car, à cause des artéfacts de flux, le filtrage n’arrive pas a enlever les irrégularités du signal à l’intérieur de la lumière vasculaire. Ce phénomène entraîne des conséquences sur le champ de déformation et donc sur les déplacements des nœuds dans un maillage. Pour cette raison, il est vivement conseillé de lancer des segmentation automatiques dans les phases à modéliser pour en extraire des références volumiques homogènes (Fig.2(e)). Le cas contraire, un champ contenant les conséquence du bruit est alors obtenu (Fig.4.2.6).

PIC
Figure 19: Champ de transformation avec l’influence d’un fort bruit dans l’image. Bruit d’origine artéfact de flux


PIC
(a) Volume "diastolique"
PIC
(b) Volume "systolique"
PIC
(c) Diastole par Levelset
PIC
(d) Champ de déformation
PIC
(e) Maillage "natif"
PIC
(f) Validation géométrique
Figure 20: Exemple 3D avec un modèle de fantôme d’anévrisme fusiforme à paroi élastique. L’extraction de la lumière vasculaire réalisée par la méthode Level Set est discrétisée dans un maillage volumique non-structuré. Les images "diastoliques" et "systolyques" permettent d’estimer une transformation T entre les deux volumes. Son champ de déformation est utilisé pour déplacer les nœuds du maillage "natif" vers ses nouvelles coordonnées. Une vérification visuelle de la nouvelle géométrie est disponible sur un interface en 3D.

5 Flux artériels, ajustement et correction

Les images de vélocimétrie par contraste de phase nous donnent l’information sur les conditions d’écoulement aux frontières de notre domaine numérique (maillage). Le repérage spatial est disponible sur les reconstructions MIP (Fig.??) à travers l’interface de navigation de l’appareil d’imagerie. Nous allons voir comment une fonction de Fourier (eq.23) ajuste les échantillons de vitesse (~ 30) à une fonction périodique dans le temps. Cette fonction sera utilisée comme CL au moment d’imposer les flux en entrée et en sortie du domaine numérique. Les informations sont accessibles dans un fichier qui se présente par un tableau de données, elles sont disponibles après le contourage des ROI sur l’image de vélocimétrie. Ces conditions représentent la dynamique d’un fluide qui est non-compressible. Pour rester cohérent avec cette hypothèse, nous allons considérer que la somme des flux à travers tous les "patchs" doit être nulle dans l’ensemble du cycle et dans le domaine considéré.
L’ajustement avec une série de fourier à 7 harmoniques nous a parue convenable pour représenter tout type de profil de vitesse sur la base des 30 échantillons disponibles.
Rythme card.           :       67 bpm  
Intervalle-RR          :      896 ms       (à partir du r.c.)  
 
coupe 1                 | AoAscd  AoDescd  
                        |  
---------------------------------------  
Débit (ml)              |   63.8   44.1  
Vol. flux avant (ml)    |   64.1    0.4  
Vol. flux arrière (ml)  |    0.3   44.5  
Fract. régurgitante (%) |    0.5    0.8  
Débit abs. (ml)         |   64.4   44.9  
Flux moyen (ml/s)       |   71.3   49.3  
Distance systolique (cm)|    6.8    5.9  
Vitesse moyenne (cm/s)  |    7.6    6.6  
 
AoAscd, coupe 1  
 
   Num   Délai   Flux   Aire  Aire   Vit.   Vit.   Vit.   Vit. Ecart  
           de                       moy.   max.   min. optima  type  
      déclenc                                                   vit  
           ms   ml/s    cm2 pixel   cm/s   cm/s   cm/s   cm/s  cm/s  
-------------------------------------------------------------------  
    1       0    9.1    8.5   545    1.1    6.3   -3.3    6.3   1.6  
    2      30   37.9    8.7   555    4.4   10.4   -3.9   10.4   2.4  
    3      60  171.0    8.9   567   19.3   33.4   -9.6   33.4   8.2  
.....  
.....  
   29     842   15.8    9.1   580    1.7    7.4   -4.4    7.4   1.9  
   30     872    9.9    8.9   570    1.1    7.4   -4.8    7.4   1.8  
===================================================================
La relation entre ces mesures et la fonction de flux est la suivante :
            ∑7 (       (            )         (            ))
Q (t) = a0 +      an ⋅cos nt---2π----  + bn ⋅sin nt---2π----
            n=1            Tcardiaque              Tcardiaque
(23)
Tcardiaque est la période cardiaque et a0 le décalage de cette courbe par rapport à zero.

textures.def
(a) Fantôme 1
textures.def
(b) Fantôme 2
textures.def
(c) Fonction ajustée sur 30 échantillons de vitesse en entrée du fantôme 1
Figure 18: Mesures expérimentales sur fantôme. Une seule entrée pour un écoulement pulsé. Hypothèse de fluide nul absolu non retrouvée sur les mesures de vélocimétrie par contraste de phase. Décalage équivalent au premier harmonique de la relation.

Des mesures expérimentales sur fantôme (segment de chambre à air Fig.?? et un gant en latex (Fig.??) avec une seule entrée et un débit pulsé périodique, nous ont permis de faire des corrections sur les mesures de vélocimétrie par contraste de phase. Il s’agissait d’obtenir un flux nul en entrée du compartiment. Mais plusieurs mesures par IRM ont donné des valeurs non nulles pour le flux total pendant la durée de la pulsation. Ce qui voulait dire que notre fantôme aurait dû se collapser (flux négatif) ou bien exploser (flux positif). Pourtant la réalité expérimentale montrait que le fantôme avait un mouvement de paroi périodique et stable. L’analyse par harmoniques de Fourier (eq. 23) de la fonction de débit Q nous a donné une valeur non nulle pour la composante constante (a0) de ce modèle (Fig.??) Nous avons repris l’expérience en plaçant une bouteille remplie d’eau à côté de chaque fantôme. La mesure de la vitesse de l’eau (immobile) dans la bouteille était non nulle, elle était très proche de a0, l’offset retrouvé donné par le modèle de Fourier ajusté aux échantillons de mesure. Basé sur ces résultats nous avons fait des corrections sur les mesures de vélocimétrie sur la base de la composante constante (offset) d’une ROI placée sur des structures immobiles présentes dans la zone d’exploration (Fig.??). Il est évident que cette hypothèse ne peut pas être confirmée avant de faire une analyse statistique basée sur un très grande multitude de mesures, mais nous avons opté par cette solution qui nous a parue la plus conforme aux réalités observées.
L’autre type de correction que nous avons effectué est basée sur l’hypothèse de la somme des flux nulle dans tout le domaine exploré. Logiquement, l’addition ne donne jamais une valeur nulle à cause des pertes de flux non mesurées (petit) à travers les collatérales qui partent du domaine étudié. Pour remédier à ce problème d’incohérence nous avons corrigé le flux des sorties avec un coefficient de pondération.

Conclusion

Chaque section de la chaîne de post-traitement a été analysée et plusieurs techniques utilisées ont été développées dans le courant de ce chapitre. Les exemples cités sont la base d’un travail d’optimisation qui couvre l’étape entre les images brutes et l’ensemble d’informations nécessaires à la mécanique des fluides dans le domaine discret.
Nous avons pu donner des réponses aux problèmes qui se sont presenté lors de l’analyse des images médicales concernant le filtrage et le ré-haussement du contraste. Les solutions proposées, par combinaison des différents filtres développés pendant ce travail, nous ont permis d’engager le processus d’extraction de la géométrie native par deux techniques différentes. La méthode d’extraction automatique, basée sur la méthode Level Set en 3D, qui est puissante par la simplicité de son utilisation, mais qui reste d’application lente et parfois limitée par la qualité des images qui lui sont proposées. La méthode manuelle, qui est accessible aux utilisateurs cliniciens à partir d’une interface graphique et qui autorise les corrections et les modifications virtuelles de la géométrie obtenue. Les résultats des deux techniques sont validés visuellement sur la même interface par la superposition des données brutes avec le résultat de la segmentation, ce qui limite les erreurs dans le processus d’extraction de la géométrie "native". La dynamique de la paroi artérielle, qui correspond à celle d’un maillage mobile, a été associée à la géométrie "native" par l’intermédiaire d’une méthode de déformations non linéaires de l’espace. Cette technique de déformation estime ses transformations sur la base des variations du signal d’une séquence d’IRM dynamique. La qualité du processus de déformation est d’une précision équivalente à la résolution spatiale des images dynamiques mais garde les détails de surface avec une précision équivalente à la résolution spatiale de la séquence injectée. La validation des géométries composant le maillage mobile est effectuée visuellement sur une les volumes dynamiques à travers l’interface citée plus haut. Finalement, l’analyse des images de vélocimétrie, avec une technique d’ajustement basée sur une analyse par harmoniques de Fourier, complètent l’ensemble de données nécessaires pour résoudre les équations de mécanique des fluides numériques. Les conditions d’acquisition de transformation et de préparation des résultats, fournissent des paramètres réalistes et spécifiques pour chaque cas étudié.
Cette méthode générale ne peut être applicable actuellement que sur la grande circulation et collatérales de calibre centimétrique. L’application future de ces méthodes pour l’exploration des coronaires sera possible dès que l’IRM pourra fournir des images haute résolution infra-milimétriques de bonne qualité.

References

[1]   H Soltanian Zadeh Y. A., Windham JP. A multidimensional nonlinear edge-preserving filter for magneticresonance image restoration. IEEE Transactions on Image Processing, 4(2), 147 – 161, Feb 1995.
[2]   Peters R. A. A new algorithm for image noise reduction using mathematical morphology. IEEE Transactions on Image Processing, 4(3), 554–568, May 1995.
[3]   Gensanne D., Josse G., Lagarde J. M., and Vincensini D. A post-processing method for multiexponential spin-spin relaxation analysis of mri signals. Phys Med Biol, 50(16), 3755–3772, Aug 2005.
[4]   Perona P. and Malik J. Scale-space and edge detection using anisotropic diffusion. IEEE Transactions on Pattern Analysis and Machine Intelligence, 12(7), 629–639, July 1990.
[5]   Osher S. and Sethian J. A. Fronts propagating with curvature dependent speed: Algorithms based on hamilton-jacobi formulations. Journal of Computational Physics, 79, 12–49, 1988.
[6]   Sethian J. A. Level Set and Fast Marching Methods, Evolving Interaces in Computational Geometry, Fluid Mechanics, Computer Vision and Material Science. Dept. of Mathematics, University of California, Berkeley, 1999.
[7]   Sethian J. A. A fast marching level set method for monotonically advancing fronts. Proc Natl Acad Sci U S A, 93(4), 1591–1595, Feb 1996.
[8]   Bertalmio M., Sapiro G., and Randall G. Region tracking on level-sets methods. IEEE Trans Med Imaging, 18(5), 448–451, May 1999.
[9]   Watanabe M., Kikinis R., and Westin C.-F. Level set-based integration of segmentation and computational fluid dynamics for flow correction in phase contrast angiography. Acad Radiol, 10(12), 1416–1423, Dec 2003.
[10]   Deschamps T. and Schwartz P. Vessel segmentation and blood flow simulation using level-sets and embedded boundary methods. International Congress Series, 1268, 75–80, 2004.
[11]   Adalsteinsson D. and Sethian J. A. A fast level set method for propagating interfaces. Technical report, Laurence Berkeley Laboratory and Department of Mathematics, University of California, Berkeley, CA 94720, 1994.
[12]   Ashburner J., Andersson J. L., and Friston K. J. Image registration using a symmetric prior–in three dimensions. Hum Brain Mapp, 9(4), 212–225, Apr 2000.
[13]   Ashburner J., Andersson J. L., and Friston K. J. High-dimensional image registration using symmetric priors. Neuroimage, 9(6 Pt 1), 619–628, Jun 1999.


ref: