Université de Caen / Basse-Normandie U.F.R.

de Sciences École doctorale Structure, Information, Matière et Matériaux

Thèse
présentée par

François Angot

en vue de l’obtention du

Doctorat de l’Université de Caen
Spécialité : Traitement du signal et des images (arrêté du 30 mars 1992)

Segmentation d’images 2D et 3D ; application à la quantification d’images histologiques et cytologiques obtenues par microscopie
soutenue le 2 février 1999 devant le jury composé de M. Philippe Bolon M. Abderrahim Elmoataz M M
me

Rapporteur Examinateur Rapporteur Directeur de thèse Examinateur

Sylvie Philipp Marinette Revenu

me

M. François Sichel

Groupe de recherches en informatique, image et instrumentation de Caen GREYC – UPRESA CNRS 6072 Institut des sciences de la matière et du rayonnement ISMRA de Caen

Université de Caen / Basse-Normandie U.F.R. de Sciences École doctorale Structure, Information, Matière et Matériaux

Thèse
présentée par

François Angot

en vue de l’obtention du

Doctorat de l’Université de Caen
Spécialité : Traitement du signal et des images (arrêté du 30 mars 1992)

Segmentation d’images 2D et 3D ; application à la quantification d’images histologiques et cytologiques obtenues par microscopie
soutenue le 2 février 1999 devant le jury composé de M. Philippe Bolon M. Abderrahim Elmoataz M M
me

Rapporteur Examinateur Rapporteur Directeur de thèse Examinateur

Sylvie Philipp Marinette Revenu

me

M. François Sichel

Groupe de recherches en informatique, image et instrumentation de Caen GREYC – UPRESA CNRS 6072 Institut des sciences de la matière et du rayonnement ISMRA de Caen

.

.

Cyril. pour l’ambiance qu’ils apportent dans l’équipe. pour son aide précieuse dans l’approche des problèmes. Hubert. à Christine. Sophie. pour m’avoir montré l’exemple dans ma découverte de l’enseignement. pour m’avoir donné l’opportunité d’effectuer cette thèse dans le cadre du pôle Traitement et Analyse d’Images de Basse-Normandie. pour m’avoir accueilli au sein de son équipe et pour avoir dirigé et encadré cette thèse. pour sa confiance. Christophe. pour le co-encadrement de cette thèse et pour ses nombreuses idées sur le traitement des images. Nicolas. Sébastien. à Abderrahim Elmoataz. pour m’avoir fait l’honneur de juger mon mémoire. à Valérie. à Régis Clouard. Professeur à l’ENSEA de Cergy-Pontoise. à ma famille. Bruno. Maître de Conférences à l’Université de Caen. . pour son soutien et sa solidarité durant ces années de travail. à Daniel Carré. à Daniel Bloyet. Remy. pour l’environnement de travail qu’il s’évertue à nous procurer. Professeur à l’ISMRA de Caen. Su.Remerciements à Marinette Revenu. Pierre. pour ses conseils dans les domaines de la microscopie et de la biologie. à Michel Desvignes. et Philippe Bolon. à Alexandre. Jalal. Professeur à l’Université de Caen. Professeur à l’Université de Savoie. à Paulette Herlin. pour ses conseils et pour avoir jugé mon travail. Serge. à François Sichel. Nicolas. pour leur approche de l’enseignement et de la recherche. à Sylvie Philipp.

.

......38 II...36 II......................................................................4...... Grandissement .......................................................2.. Images numériques tridimensionnelles...............................27 I....................2.......1...............2..........................................................2............................ Caractéristiques des objectifs ................................3............2.2..... Acquisition des images... Caractéristiques et « problèmes ».............................................23 I.52 II........................37 II.................................2......4...4..............1.....................46 II...................1.....1.......53 II...............1...........................................33 II....................2........................................ Microscopie de fluorescence.3..............5.....49 II........2....................... Objectifs ....................................................1...................................................1.................................................. Microscope ........2.........1.......................................40 II............................12 I..................................2................2..............7 I................................... La représentation des images ............... Matériel utilisé ...............2.................................................2..................... Détection locale de points de contours .2............................................2...........................................1.......40 II... Exemples d’images obtenues ............ Approche « frontières » de la segmentation......3.... La représentation des images par les graphes.....1..................1...............................................3.............2...1.......... Milieu d’immersion...........3..30 Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse ......1.... De l’acquisition à l’analyse des images......40 II.........2.......................................3..................................... Taille et codage des voisinages...1..... Transmittance .........................16 I...............3...................3...........2............................................................................16 I................26 I....................... Approche « régions » de la segmentation ...2....................2............3...............2.................................................9 I.......................................................1 1.............................2.........................2.......18 I................................................... Les différentes structures de graphe...........1.....20 I.........................3............3..........................1...........20 I...............48 II..2.........................................1.................................2............................................................................................................................................................... Analyse multi-échelle et analyse multi-résolution .....................17 I... Recouvrement des spectres de fluorescence ................................................ Les problèmes de traitement d’images ........................17 I.................................................4..............2..................................52 II................. L’objet mathématique ....................... Croissance de régions...................................22 I............ Ordinateur....................56 .............. Prétraitements ............3.........................2............................................ Principe de la microscopie confocale de fluorescence.................................................................................................................................................................9 I...............1.......................1.....................................................1..2...............................2...........1.......................37 II.1...1................................5 Chapitre I : Microscopie confocale ........................................... Modèles géométriques de contours ......................................16 I.............................................................................2..2....... Atténuation de la définition ...... Autres problèmes d’acquisition .....................3.......1..........2................ Intérêt de la structure....5................11 I.............20 I....................................................................................................2. Corrections ................................................. Ouverture numérique ...................27 I...............19 I.....2.......1........ Définitions.............1........ Conséquences sur le traitement des images de microscopie confocale....................2...................................................................... Microscope confocal à balayage laser .............................................2...................... La troisième dimension dans le contexte du pôle TAI de Basse-Normandie...........50 II....................................................................................................1..............................2..........4......................................................4 2... Résolution.........................18 I.....................2..2..............2.....................49 II..................18 I.....................................2...........................7..1.43 II.2.........1.......................................................1...........1.......................................51 II................... Universalité .............. Logiciel de commande ...3..........................................................................................................3............3...............17 I...................... Point Spread Function (PSF) ..........................16 I...........................................................1................1..............................1.................................................................2......................2........ Segmentation dans le contexte de la théorie des graphes.................................................................. Division et fusion de régions .................... Distance frontale ......16 I...........................1..... Le microscope confocal du pôle TAI ...16 I......1...............1..........................3.........................1............ Genèse de la microscopie confocale..............................................6...Table des matières Table des matières Introduction.......2............17 I.................................

......2....................2............... Construction des graphes à partir des images..............................................................1..... La cytologie ............ Opérations de visualisation .............................2................ 95 III...... 63 II.............................5..................2.................................2.......................................................2...............................5.... Résolution du problème...................... 62 II... Arrêt « a posteriori » de la croissance...1........................................................................................................................ 152 IV......4................. Méthodologie de conception.................3........ Opérations de caractérisation......4......1... 147 IV.......................................................6........................................ 88 III..........................................4..............................................5......4................2................4.......2. Échantillonnage ..... 92 III...................................................1.... 78 III.... 83 III...............2....................................... 149 IV...................... 104 III....3.... Construction de composantes homogènes ......................................6..................................... Discussion ....................... Graphes et morphologie mathématique.................1............................................................................1.........2..... 73 III.....................................................................4.......................5.................2.......................... Délimitation des massifs de cellules tumorales ..........1.......................................... Partition de populations .................6................................................................................ Croissance par optimisation globale .....................2......................................................2........................................... Visualisation des graphes ................2..................... 61 II............................ 116 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale ................................................................................................... Topographie du marquage.................3.....3...............4................................................................................................................................... Ligne de partage des eaux .................. Caractérisation de l’architecture dans des coupes histologiques.................. Caractérisation d’architectures ...............2......................... Étiquetage des composantes connexes ......................... Caractérisation . 91 III...5..........5.............................2...................................................................2......3.................... 88 III...............................................................1..................................... La troisième dimension ...............1...2................................. Caractérisation géométrique ............................................2.... Caractérisation de populations..........3........................2............................ Croissance dans les grilles de points ...1..5...................... 58 II...2................................. Graphes et champs de Markov.................................................................................................................6.....................................................................5...........2............ Applications de traitement d’images ........ 122 IV.........................................................................2.........................................................2...................................................... 122 IV.........4.............. Un exemple d’application en 2D............................ 63 II............. Exploitation des résultats.... 138 IV................. 63 II........... Décomposition du problème...........1..........................................................4........2.......2........... Caractérisation des histogrammes de niveaux de gris ... 106 III...................................................................................... 66 II...........................................................................1............................... Spécificités de la bibliothèque PANDORE ...........2.............................................. 71 Chapitre III : Implantation des outils de traitement d’images . Partition de graphes......... 140 IV.................... 56 II... Les objectifs de l’étude.. Critère local d’arrêt de la croissance.................................................................... Matériel............................................................................................................................... Principe ......................... 112 III...........2............6..................... 80 III...................................................1...............................3............. 76 III................................................ 85 III.................. 98 III......1....... 64 II........3.... 60 II.......................................5....................... Croissance dans les graphes de voisinage.......... 105 III..........2.......................... Morphologie mathématique.1..............4.............................................2.. Environnement de développement d’applications ...................... 81 III.............2...................3.1........... Quantification de la présence de contacts focaux ..3............................ 94 III............3...................3...................................................2......................................6.................. 78 III....4........1........................................... Caractérisation géométrique...................................1.........5......................1.............. 68 II...... 146 IV........1.........................................................2...........3........1.................5................. 144 IV.Table des matières II.....................................................................4..........................2.................................. Quantification des objets.....2..... 125 IV..... 84 III.................................3. Ligne de partage des eaux ....... 124 IV.......5.............................................. 66 II....4..1......................... L’histologie................................................................. Opérations faisant intervenir le voisinage .....................4...... 89 III..............................1.....................3.................. Image et objets...2...................... Filtres de lissage...................1.................................................................. 92 III....................1.5......4.....4...................................... 145 IV......................... Localisation des objets . Visualisation des grilles de points. 119 IV................................................. Traitements point par point ..... 61 II............................... 105 III.......1....................1. 82 III...................4...2............................. Illustration .................... 152 .....................................2.........3...3........... 62 II..........3....... 134 IV........................................ 123 IV..1...2...................... Extrapolation à la troisième dimension............. Détection de contours........ 101 III........1..................................2....................... Stratégies de traitement des images 3D........................................ Exemples de traitements 2D ½................................. 144 IV............

.....................................................................................................................................209 ..........................................................3....................................................................................... Les formats d’images ZEISS ........................................................................................... Architecture de transformation cellulaire : test SHE ...................................................... Images de reliefs...........................................................191 1.......................................................................... Préparation des cultures cellulaires ..................4............2................................................3.......171 Publications .............................................199 2.......................................................185 Annexes.........................................206 4............................................ Liste des opérateurs PANDORE 2D...................................................168 3..3..................................Table des matières IV...................................... Traitement des images..157 IV....................................... Traitement des images ...............................................................................................................1.................................. Acquisition des images...............................................................................158 IV........................194 2......... Liste des opérateurs PANDORE 3D.............................................................................165 1....................................3.............2..............................................................................1.........................3........2........................... Structure de graphe..................................................................................................................................................... Contexte biologique...................................................5................................................................. Perspectives..................194 2....191 1............................................................................ Images de volumes ...........................................................168 Références ......................... Résultats ...... La bibliothèque PANDORE.........195 2................................................. Structure des fichiers images ..................................................................................157 IV.......................193 2..................................................... Exemple d’opérateur PANDORE ...............................................197 2................3...............................................................................................2..........203 3...........................................168 2........................162 Conclusion ...............................................................................................................155 IV.189 1........ Applications...1................................... Exemple de plan de résolution de problème ...................5...

.

Introduction .

.

Ce procédé est notamment mis en œuvre dans des appareils comme le microscope confocal. de l’astrophysique. Il nécessite de nombreux calculs afin de reconnaître les objets dans les deux images 2D et de déterminer leurs positions relatives dans l’espace 3D. le traitement et l’analyse d’images se sont développés sur des thèmes aussi variés que les images aériennes. Cette approche automatique a également autorisé le traitement de grandes quantités d’informations et la réalisation de tests à grande échelle en réduisant l’intervention des biologistes et des pathologistes. afin de déduire des caractéristiques volumiques des objets présents dans cette scène. Pour atteindre un tel objectif. le traitement automatique des images et leur caractérisation quantitative proposent une réponse à des besoins nouveaux : établir des diagnostics fiables et objectifs. des télécommunications.Introduction 3 Depuis une vingtaine d’années. l’information que l’on cherche à extraire peut être obtenue sur une image en deux dimensions (2D) mais un nombre grandissant de problèmes nécessitent d’appréhender la scène observée en trois dimensions. de la médecine. ces domaines ont cependant de nombreux points communs en termes de traitement d’images. Généralement. etc. etc. Le plus souvent. contrôler l’action d’une thérapie. les images biomédicales. un grand nombre de techniques d’acquisition d’images ont été mises au point et peuvent se répartir en deux grandes catégories. de l’imagerie. Le premier type d’acquisition consiste à reconstruire une image 3D à partir d’une vision stéréoscopique de la scène. En particulier. . Bien que très différents. Dans le contexte de l’imagerie biomédicale. Le second type d’acquisition d’images permet d’obtenir des informations sur chaque point de l’espace observé et de construire une image 3D de la scène. les progrès constants des techniques mathématiques et des moyens informatiques de calcul ont eu de nombreuses répercussions sur les avancées dans les domaines de l’acoustique. les scènes ou les objets observés dans des images proviennent du monde tridimensionnel (3D) qui nous entoure. les images industrielles ou artistiques. tels que la localisation et la caractérisation des objets présents dans les images.

c : image d’une coupe fine du volume . Si on choisit de réaliser une coupe très fine du volume. .) et l’analyse quantitative d’images de microscopie cellulaire. b : image de la projection du volume . incluant le code informatique des opérations à effectuer et les informations nécessaires à leur sélection et leur exploitation. a : volume présentant deux objets disjoints. qui regroupe d’autres laboratoires et établissements impliqués dans le traitement d’images. les entités observées (tissus. IRMf. Le GREYC est une composante du pôle Traitement et Analyse d’Images de Basse-Normandie. si on imagine (figure 1a) un volume dans lequel deux objets de même taille sont présents l’un au-dessus de l’autre. de l’architecture tissulaire. etc. l’image obtenue présente deux objets dont les tailles ne correspondent pas à la taille des objets de départ (figure 1c).4 Introduction 1. non-respect de la taille des objets. la collaboration avec le Centre Régional de Lutte Contre le Cancer (Centre François Baclesse de Caen) a permis le développement d’applications d’analyse quantitative d’images 2D de tissus biologiques : caractérisation des cellules et de leur contenu. l’un au-dessus de l’autre. cellules. Parmi les images étudiées. etc. Cependant. une des grandes limitations de l’imagerie 2D est de ne pouvoir fournir que l’image d’une projection de l’échantillon observé. de même taille. Image et Instrumentation de Caen (GREYC) étudie la segmentation d’images dans le but de constituer une base de connaissances sur les opérateurs de traitement d’images. noyaux. a b c Figure 1 : limitation de l’imagerie 2D pour l’observation d’un volume 3D.) sont tridimensionnelles et les images 2D ne permettent pas toujours de rendre compte de la réalité. Ainsi. Dans l’observation d’objets 3D. une projection de l’ensemble du volume laisse apparaître un objet qui n’a rien à voir avec la réalité (figure 1b). La troisième dimension dans le contexte du pôle TAI de Basse-Normandie L’équipe Image du Groupe de Recherche en Informatique. etc. coupes histologiques. apparition d’un objet inexistant. En particulier. deux domaines sont particulièrement développés : la segmentation et le recalage multimodalité d’images cérébrales (IRMa.

Après l’étude du microscope confocal utilisé au sein du pôle Traitement et Analyse d’Images de Basse-Normandie. Dans un deuxième temps. depuis l’acquisition jusqu’à la quantification. de l’atténuation de l’intensité de fluorescence en fonction de la profondeur des images. Dans un premier temps. Nous montrons donc que la très grande variabilité des images de microscopie confocale rend leurs traitements difficiles et que leurs caractéristiques nécessitent la mise au point des stratégies de traitement d’images adaptées. 2. Nous participons pour cela à la conception d’une bibliothèque d’opérateurs de traitement d’images adaptée à l’expérimentation : la bibliothèque PANDORE. nous enrichissons cette définition en proposant une représentation complémentaire sous forme de graphes d’objets. Nous abordons notamment les problèmes de la résolution d’un microscope confocal. De l’acquisition à l’analyse des images Afin d’effectuer le traitement complet d’une image.Introduction 5 L’imagerie 3D permet alors de conserver toute l’information volumique et d’appréhender la véritable structure d’un tel volume. Nous détaillons enfin notre approche du traitement des images tridimensionnelles dans le cadre d’un environnement de développement d’applications de traitement d’images. La microscopie confocale est par conséquent un outil puissant pour l’acquisition d’images 3D à l’échelle cellulaire. et en particulier dans les images de microscopie cellulaire. Nous présentons ensuite les grandes catégories de problèmes de traitement d’images ainsi que les solutions déjà proposées dans la littérature. Dans un troisième temps. nous exposons les principes de la microscopie confocale et en particulier les techniques liées à la microscopie confocale à balayage laser utilisée en fluorescence. différentes étapes sont nécessaires. nous soulignons que ce type d’acquisition peut également présenter certaines limitations. Pour cela. nous présentons l’implantation de quelques outils généraux de traitement et d’analyse d’images. Nous détaillons les différents aspects de l’acquisition d’images 3D et nous présentons les avantages théoriques de la microscopie confocale. Afin de répondre à la nécessité de manipuler des informations relationnelles entre les différents objets présents dans les images. nous commençons par définir les images numériques comme des signaux multidimensionnels. Nous détaillons en particulier certains types d’opérations adaptées au traitement des images de microscopie cellulaire. Nous distinguons plusieurs . de la fonction d’étalement du point (« point spread function » ou PSF). nous évoquons les méthodes de développement de programmes de traitement d’images.

Nous présentons d’abord une étude de l’architecture de l’immunomarquage dans des coupes histologiques 2D. Nous présentons ensuite un travail visant à quantifier la présence de contacts focaux à la périphérie de cellules de culture. réalisées en collaboration avec les équipes de recherche du Centre Régional de Lutte Contre le Cancer. obtenues par microscopie photonique et par microscopie confocale de fluorescence. les opérations de manipulation point par point. et dans le contexte de la théorie des graphes de voisinage. Nous montrons ainsi qu’un grand nombre d’opérations simples de manipulation des images peuvent être généralisées aux graphes mais aussi que ces derniers offrent de nouvelles possibilités. les opérations faisant intervenir la notion de voisinage. Dans ce travail. . en deux dimensions et en trois dimensions. la quantification d’images. Nous proposons des exemples. Nous illustrons ainsi les possibilités du microscope confocal et l’efficacité de notre méthodologie de développement d’applications de traitement d’images. Pour chacune de ces catégories. nous présentons l’application de ces principes de traitement et d’analyse d’images à quelques problèmes de quantification d’images de microscopie cellulaire. Il s’agit alors d’une nouvelle approche de l’analyse de tests in vitro. les opérations de caractérisation. d’analyses d’images biologiques. Nous présentons enfin une étude tridimensionnelle de l’architecture de colonies cellulaires transformées. l’implantation des opérations de traitement d’images sous forme d’une bibliothèque. nous examinons donc les différentes étapes nécessaires pour l’analyse d’images de microscopie cellulaire 3D : l’acquisition des images grâce au microscope confocal. en tant que grilles de points. La troisième dimension facilite ici la sélection des informations utiles. les stratégies de traitement d’images. nous comparons les opérations applicables aux images vues sous un angle classique. Dans un quatrième temps. Ce travail fait appel à l’intégration des graphes de voisinage dans la manipulation d’une collection d’objets : des noyaux de cellules tumorales.6 Introduction catégories d’opérations. en fonction de leur mode d’accès aux données manipulées : les opérations de visualisation.

Chapitre I : Microscopie confocale .

.

l’information est sélectionnée de manière à ne conserver que l’information lumineuse émise par le point éclairé. une étude de l’acquisition des images par microscopie confocale. Nous montrons qu’un grand nombre de phénomènes apportent des limitations et des déformations au sein des images acquises et nous tentons de les comprendre afin de les corriger. I. nous présentons les possibilités d’acquisition d’images tridimensionnelles de microscopie.1. un objet ponctuel donne une image ponctuelle.4 dans toutes les directions. largement présentés dans [PAWLEY 1990a]. nous exposons les principes théoriques. Au niveau de la détection. et nous détaillons les particularités de la microscopie confocale à balayage laser et de la microscopie de fluorescence. Marvin Minsky [MINSKY 1957] propose en 1957 le premier microscope utilisant le principe de confocalité. principalement les propriétés des objectifs. Cette parfaite mise en correspondance de l’éclairement et de l’observation se fait sur cet appareil par le positionnement de deux diaphragmes (ou « pinholes ».1. l’amélioration est d’un facteur 1. un par un. I. compte tenu de ces caractéristiques. et les particularités du microscope confocal du pôle Traitement et Analyse d’Images de Basse-Normandie. Elle autorise également . Dans un premier temps. La lumière provenant de la source est concentrée en un point précis de l’échantillon à observer et ainsi. dans un troisième temps. Principe de la microscopie confocale de fluorescence Genèse de la microscopie confocale Alors que la microscopie classique existe depuis le XVIIème siècle. L’échantillon est monté sur une platine mobile qui permet d’en observer tous les points. Enfin.Chapitre I : Microscopie confocale 9 Dans ce chapitre. Nous proposons. nous expliquons pourquoi il est nécessaire de développer des stratégies de traitement adaptées aux images de microscopie confocale. Cette technique permet d’améliorer la résolution par rapport aux autres microscopes optiques . Selon [BRAKENHOFF 1985].1. Dans un deuxième temps. nous présentons les caractéristiques générales des microscopes. les autres points de l’échantillon ne sont que très faiblement illuminés. avec un microscope confocal. trous d’épingle) sur le trajet optique : un diaphragme d’excitation et un diaphragme de détection. On l’appelle « stage scanning confocal microscope » (figure 2).

situés le long d’une spirale d’Archimède. une verticale de l’échantillon est illuminée (DE) et renvoie de la lumière. Le disque utilisé par Petráñ présente deux spirales de trous.10 Chapitre I : Microscopie confocale l’observation d’objets épais selon plusieurs plans optiques indépendamment . et la mise en correspondance de l’illumination et de la détection. . permettant le balayage d’un objet par un point de lumière (figure 3a). Un point source de lumière (diaphragme A) est focalisé par une lentille (C) sur un point (D) de l’échantillon (S). Il utilise une amélioration du disque décrit par Paul Nipkow en 1884. le balayage de tous les points de cet échantillon. il est possible d’éliminer les informations provenant de points hors du plan focal de l’appareil. Figure 2 : pouvoir séparateur du microscope confocal mis au point par Minsky (1957). Mojmir Petráñ [PETRÁÑ 1968] met au point un système permettant de réaliser en même temps. On parle à ce moment de « tandem scanning confocal microscope ». Pour un point donné. En 1968. Un point de l’échantillon éclairé à travers un trou du disque est observé à travers le trou symétrique. L’objectif (O) concentre cette information au niveau du diaphragme d’acquisition (B) qui ne laisse passer que la lumière provenant du plan focal (D) vers le détecteur (P). un disque opaque percé de trous fins. symétriques par rapport à l’axe de rotation. Ce principe sera adapté par Gordon Kino en 1987 pour que l’observation se fasse à travers le trou servant à l’éclairement (figure 3b). sur un échantillon immobile.

b : amélioration faite par Kino en 1987 dans son microscope confocal. Le principe optique du microscope confocal à balayage laser est présenté sur la figure 4.Chapitre I : Microscopie confocale 11 a b Figure 3 : a : disque mis au point par Nipkow en 1884 pour effectuer le balayage d’un échantillon. il s’agit du premier microscope à balayage. Brakenhoff (1979) utilise l’idée de balayage pour mettre au point une nouvelle solution pour l’illumination des points d’un échantillon. Young et Roberts réalisent le « flying spot UV microscope ». I. mis au point par Zworykin (chez RCA) en 1934. . La lumière est ensuite focalisée par un diaphragme d’illumination et par l’objectif. Ils utilisent le principe de balayage électronique. Microscope confocal à balayage laser En 1951. dans son idée d’écran pour la télévision.1. Chaque point de l’échantillon illuminé fournit alors une réponse lumineuse vers l’objectif et ce signal est dirigé vers un détecteur (photomultiplicateur) à travers un diaphragme d’acquisition. La source lumineuse est constituée d’un faisceau laser et deux miroirs mobiles dévient ce faisceau afin de balayer l’échantillon selon deux axes (X et Y). C’est la naissance du microscope confocal à balayage laser (« confocal laser scanning microscope » ou CLSM). Les points de lumière permettant l’éclairement de l’échantillon sont émis grâce au balayage d’un faisceau d’électrons.2. La réponse de chaque point permet de constituer l’image plane d’une coupe optique de l’échantillon. Dès le début des années 1980.

Microscopie de fluorescence La fluorescence est un phénomène atomique qui peut se résumer de la manière suivante : • excitation des atomes par des photons de longueur d’onde λ1 . Biorad. I.1. passage de S1 à T1. mais ils ont le défaut d’être plus lents. • dissipation d’énergie au sein de l’atome .3.12 Chapitre I : Microscopie confocale Figure 4 : trajet simplifié de la lumière dans un microscope confocal à balayage laser. Leitz. Le rayon laser est émis au niveau du diaphragme d’illumination. l’atome passe d’un état d’énergie S0 à un état S1. De tels microscopes ont alors été commercialisés par des compagnies comme Sarastro. passe à travers un miroir semi-réfléchissant et est concentré sur un point de l’échantillon par l’objectif. Pour construire une image 3D de l’échantillon. . La réponse optique du point illuminé est dirigée vers le détecteur par l’objectif et le miroir. Zeiss. Olympus. tous les plans sont positionnés dans les mêmes conditions sous l’objectif du microscope et aucun recalage des images les unes par rapport aux autres n’est nécessaire. le processus d’acquisition d’une coupe optique est répété pour chaque position de l’échantillon par rapport au plan focal du microscope. Contrairement à l’acquisition faite à partir de coupes physiques disjointes. Le microscope confocal à balayage laser apporte enfin un autre avantage par rapport aux autres microscopes confocaux : la possibilité d’utiliser le phénomène de fluorescence. Ils sont plus faciles à réaliser et à entretenir que les microscopes construits autour d’un disque de Nipkow.

• le laser argon (Ar) à 488nm (bleu). Dans le domaine de l’imagerie microscopique. L’atome excité par un photon de longueur d’onde λ1 passe de l’état S0 à l’état S1. • le laser multi-raies argon-krypton (Ar-Kr) à 488nm. les entités que l’on veut observer sont marquées par des agents spécifiques. Le développement récent des techniques de « chromosome painting » a amené de nombreux fluorochromes sur le marché mais les plus utilisés sont : • le Hoechst 33342. Nous pouvons ainsi exploiter en microscopie confocale les principaux types de fluorescence utilisés pour l’observation d’objets biologiques [BRYON 1995] : • le laser argon (Ar) proche UV à 365nm. Il est fréquemment illustré par la figure 5.Chapitre I : Microscopie confocale 13 • émission d’un photon de longueur d’onde λ2>λ1 par l’atome . 568nm et 647nm. dissipe de l’énergie et se désexcite en émettant un photon de longueur λ2 pour passer de l’état T1 à l’état S0. • le laser hélium-néon (He-Ne) à 543nm (vert). passage de T1 à S0 . . Figure 5 : principe atomique de la fluorescence. sur lesquels des molécules fluorescentes (fluorochromes) se fixent facilement [TSIEN 1990]. excité à 350nm (bleu) et émettant autour de 470nm (bleu). • le DAPI. Les faisceaux laser permettent d’éclairer l’échantillon avec une longueur d’onde bien particulière. excité à 340nm (proche UV) et émettant autour de 450nm (bleu).

excitée à 540nm (vert) et émettant autour de 570nm (rouge). • le Texas Red.14 Chapitre I : Microscopie confocale • le rodhol green. • l’iodure de propidium. deux filtres sont ajoutés sur le trajet optique afin d’optimiser la détection des photons émis par fluorescence au niveau de l’échantillon (figure 6). . En utilisant ce phénomène. Divers fluorochromes peuvent alors être excités donc la lumière émise par l’échantillon est à nouveau filtrée pour éliminer les contributions des fluorochromes émettant à une longueur d’onde différente de λ2. la lumière de la source est sélectionnée afin de n’envoyer que la raie d’excitation λ1. excité à 488nm (bleu) et émettant autour de 570nm (rouge). excité à 580nm (rouge) et émettant autour de 615nm (rouge profond). • la TRITC (isothiocyanate de tétraméthylrhodamine). • la rhodamine. Comme on veut détecter la lumière émise à la longueur d’onde λ2 suite à une excitation λ1. excitée à 555nm (orange) et émettant autour de 620nm (rouge profond). les images obtenues présentent des objets clairs (présence d’un signal) sur un fond sombre. l’observation en lumière blanche transmise). excité à 518nm (jaune) et émettant autour de 610nm (rouge). Lors de l’acquisition au microscope. • la FITC (isothiocyanate de fluorescéine). excité à 540nm (vert) et émettant autour de 625nm (rouge profond). • le bromure d’éthidium. Cette technique permet en particulier de distinguer des objets qui ne seraient pas séparables par d’autres types d’observation au microscope (par exemple. excitée à 490nm (vert) et émettant autour de 520nm (jaune).

En épifluorescence classique. c’est ce qu’on appelle le photo-bleaching ou le photoblanchiment. la disparition du phénomène de fluorescence est ralentie mais le bruit augmente dans les images acquises. ce phénomène est accentué puisque entre l’acquisition du premier plan et l’acquisition du dernier plan. le phénomène de fluorescence n’est pas uniforme et s’amenuise dans le temps . En particulier. tous les points illuminés renvoient un signal lumineux et sont vus par le détecteur. même les points en dehors de la zone de mise au point. ces agents sont malheureusement coûteux. Grâce au microscope confocal. • utilisation de fluorochromes à forte émission afin d’augmenter le rapport signal sur bruit de d’acquisition. Il apparaît alors un flou sur les images. toute la zone est illuminée et émet de la fluorescence. • utilisation d’agents anti-blanchiment associés aux fluorochromes . les informations sont sélectionnées et chaque image 2D est nette. . Dans le cas de la microscopie confocale. L’utilisation de la fluorescence pour la visualisation de substances particulières pose cependant certains problèmes.Chapitre I : Microscopie confocale 15 Figure 6 : positionnement de deux filtres de fluorescence sur le trajet optique du microscope. Plusieurs solutions sont proposées pour atténuer ce phénomène de photo-blanchiment : • atténuation de la puissance lumineuse mise en jeu lors de l’excitation et augmentation de la sensibilité des capteurs .

I.1.4.1.52 pour l’huile).1.2. I.33 pour l’eau. n = 1.2. Nous allons rapidement décrire les caractéristiques des objectifs pour microscopes. I. L’étude de l’ensemble d’un tissu ou d’une colonie peut nécessiter un faible grandissement (5× ou 10×) alors qu’on préférera un grandissement plus élevé (63× ou 100×) pour une étude intracellulaire. Milieu d’immersion Chaque milieu rencontré sur le chemin optique possède un indice optique noté n ( n = 1 pour l’air.1.2. Grandissement Il représente le facteur multiplicatif apporté entre la taille de l’objet observé et celle de l’image obtenue.1. Pour limiter les déformations apportées par les changements d’indices rencontrés aux passages entre les différents milieux. L’ouverture numérique d’un objectif est donc représentative de la quantité de lumière que l’objectif est capable de capter. Ce critère peut être dominant dans le choix d’un objectif. Matériel utilisé Caractéristiques des objectifs Que ce soit en microscopie optique conventionnelle ou en microscopie confocale. c’est-à-dire l’angle de convergence des rayons lumineux reçus par l’objectif. Nous verrons plus loin que l’ouverture numérique d’un objectif fixe également sa résolution. certains objectifs sont dits à immersion et sont directement en contact avec un liquide (eau ou huile) dont l’indice est proche de celui du milieu de la préparation. I. I. en particulier dans le cas d’utilisation aux limites comme avec une illumination en ultraviolet proche (350nm). en microscopie de fluorescence. Le grossissement d’un microscope est en général la combinaison du grandissement de l’objectif et du grossissement de l’oculaire.2. où α représente l’ouverture angulaire de l’objectif. en lumière transmise ou en lumière réfléchie.2.2. Ouverture numérique L’ouverture numérique (« numerical aperture » ou NA) a une grande influence sur plusieurs des qualités d’un objectif.1.16 Chapitre I : Microscopie confocale I. Elle est définie par NA = n ⋅ sin (α ) . Transmittance La transmittance représente le pourcentage de lumière transmise à travers l’objectif et elle peut varier en fonction de la longueur d’onde de la lumière. un élément fondamental d’un microscope est l’objectif.2. n = 1. .3.

L’astigmatisme (dissymétrie du grossissement selon les deux directions du plan focal) ou la distorsion (modification du grossissement en fonction de la distance à l’axe optique) sont des défauts géométriques dus à une mauvaise fabrication ou à une mauvaise mise en place des lentilles.1. La correction de ces aberrations permet de s’approcher des caractéristiques théoriques des objectifs. Distance frontale La distance frontale (ou distance de travail) est la distance entre l’extrémité physique de l’objectif et son plan focal. Corrections La sphéricité des lentilles constituant les objectifs apporte un certain nombre de défauts appelés aberrations. Universalité L’universalité d’un objectif représente sa capacité à être utilisé en combinant plusieurs types d’observation (multimodalité) : transmission.1. contraste interférentiel. Enfin. contraste de phase.5. Une grande distance frontale permet de travailler avec des échantillons épais mais elle est antagoniste avec l’ouverture numérique et les corrections des aberrations. Le microscope confocal du pôle TAI Le pôle Traitement et Analyse d’Images de Basse-Normandie dispose depuis l’automne 1995 d’un microscope confocal à balayage laser. L’aberration sphérique est un défaut de concentration des rayons lumineux par la lentille.2.1. I.7.2.2. Les points image d’un même point objet se regroupent sur l’axe de l’objectif mais pas en un même point. Nous présentons ici un certain nombre de ses caractéristiques. .2. Contrairement aux aberrations sphériques et chromatiques. I. caractéristiques fixées par les lois de la physique et de l’optique.Chapitre I : Microscopie confocale 17 I. Les objectifs « planachromat » sont en plus corrigés contre l’aberration sphérique. les objectifs « planapochromat » sont des objectifs « planachromat » corrigés pour la couleur verte. L’aberration chromatique provoque une focalisation différente des points selon leur couleur. I.2. fluorescence.6. Les objectifs « achromat » ont intégré une correction de l’aberration chromatique pour les couleurs bleue et rouge. ils peuvent être évités.

d’un lecteur de disques magnéto-optiques d’une capacité de 2×281Mo et d’une connexion au réseau local et à Internet. 10×/0.2. L’illumination de l’échantillon peut être assurée par une source de lumière blanche stabilisée. il permet principalement de déterminer la zone à observer mais il n’autorise pas d’acquisition de bonne qualité.18 Chapitre I : Microscopie confocale I. La visualisation est effectuée sur un écran 15” pour le contrôle du fonctionnement et sur un écran 20” à haute définition pour la visualisation des images.11. à ses nombreuses corrections et à son milieu d’immersion (l’huile) adapté aux préparations biologiques. • LD-epiplan ZEISS.2 water.30 .90 water.1. Il fonctionne sous le système d’exploitation MS-DOS avec l’interface graphique Microsoft-Windows 3. 63×/0. 50×/0.09mm . . 100×/0.2.2. Il est équipé d’un disque dur de 700Mo. • achromat ZEISS.40 oil. 40×/1. il permet des acquisitions de très bonne qualité grâce à sa grande ouverture numérique. • epiplan-neofluar ZEISS.2.2.2.2. Objectifs Plusieurs objectifs sont disponibles afin de répondre aux contraintes de grossissement et de milieu de préparation : • epiplan-neofluar ZEISS. Ordinateur L’ensemble du microscope est connecté à un micro-ordinateur de type PC construit autour d’un processeur Intel Pentium cadencé à 75MHz. I.3. Germany). • c-apochromat ZEISS. • planapochromat ZEISS.50. Il est construit autour d’un bloc principal constitué d’une platine porte-lames motorisée dans les trois directions. I. par une lampe à vapeur de mercure (lampe HBO) ou par des sources laser (Argon 488nm ou Hélium-Néon 543nm). 0. d’une tourelle d’objectifs motorisée et d’oculaires pour l’observation directe. 63×/1. Microscope Le microscope est un modèle LSM 3 de la société ZEISS (Oberkochen.9.

Selon la dimension des images (256×256 pixels. le microscope peut ne pas utiliser la propriété de confocalité. Dans son second mode de fonctionnement. le microscope possède un jeu de miroirs internes qui définit un zoom optique (de 0. par exemple.) et le zoom opéré. deux types d’acquisition sont possibles : la réflexion (pour des objets métalliques par exemple) et la fluorescence (qui est en fait une sorte de réflexion améliorée).1µm2 à 50×50µm2. Il permet de travailler en fond clair. Ce mode est utile pour une localisation rapide de la zone à étudier. Cette particularité permet de modifier la fréquence d’échantillonnage des images acquises. de manière physique. Il fournit également la possibilité d’acquérir des images de reliefs. afin de reconstruire une image volumique. le logiciel de commande autorise l’acquisition d’une série de coupes optiques.8 à 8). en épifluorescence. de déplacer la platine porte-lames.2. la surface d’échantillon représentée par chaque pixel varie. 63×.1×0.Chapitre I : Microscopie confocale 19 I. Ce logiciel permet de modifier le mode de fonctionnement et les caractéristiques du microscope. Enfin. 512×512 pixels. parallèles au plan focal du microscope. C’est le fonctionnement le plus utilisé dans le cas d’échantillons épais contenant des objets. Bien entendu. et non de manière logicielle. Le micro-ordinateur acquiert alors des images correspondant au mode conventionnel. en détectant automatiquement le point de plus fort signal sur une verticale donnée. de changer d’objectif. En mode confocal. Le microscope peut ainsi fonctionner selon deux modes : le mode conventionnel (observation dans les oculaires) et le mode LSM (acquisition d’images par balayage laser). etc.4. le logiciel permet d’acquérir des images perpendiculaires au plan focal.96. Cependant. l’illumination de l’échantillon est assurée par des sources de lumière stabilisées (lumière blanche ou vapeur de mercure). . Logiciel de commande L’ensemble du microscope est contrôlé par le logiciel de commande ZEISS LSM 310 version 3. En complément des objectifs. en contraste de phase ou en contraste interférentiel. des coupes transversales des échantillons. l’objectif utilisé (10×. etc.). afin d’obtenir. en réflexion. etc. On retiendra qu’elle est de l’ordre de 0. plusieurs types d’acquisition d’images sont possibles. Dans le premier mode. constituée de voxels. Les images ainsi obtenues sont des images 2D dans lesquelles chaque pixel contient l’altitude de l’échantillon à cet endroit précis (Annexe 1).2.

I. en utilisant un système optique.3. Mathématiquement.3. . Point Spread Function (PSF) Dans l’idéal. h( x) .3. zoom=5. on peut représenter cette transformation par la convolution de l’objet avec la fonction du système optique [DELORME 1997] : i (x) = o( x) ⊗ h( x) + n( x) Les fonctions o(x).30. Il s’agit de transformer un objet en une image.20 Chapitre I : Microscopie confocale I. Acquisition des images Caractéristiques et « problèmes » Un grand nombre de phénomènes interviennent au cours de l’acquisition d’une image au microscope confocal. la réponse du système. Objectif 10×/0. un point objet devrait donner naissance à un et un seul point image. lors de l’acquisition de petits objets globalement sphériques au microscope confocal.1. l’image présente des objets étalés et déformés. Cependant. Les cellules ont dans l’image une épaisseur apparente d’environ 40µm. I. Figure 7 : projection latérale d’une image 3D contenant des cellules d’un diamètre d’environ 6µm. Les principales composantes de la fonction de transformation h peuvent alors être détaillées. n( x) et i ( x) représentent respectivement l’objet observé.1. Nous avons constaté cette déformation sur l’image à faible grossissement d’une préparation contenant des cellules biologiques (figure 7).1. le bruit d’acquisition et l’image acquise. grâce au principe de confocalité.

Cette déformation de l’image est appelée « fonction d’étalement du point » (ou « point spread function ». PSF en anglais). Objectif 63×/1. dans des conditions expérimentales bien particulières. On retiendra que pour réduire la déformation des objets dans les images acquises. Delorme [DELORME 1997]. On peut également effectuer la correction en n’utilisant que les informations contenues dans l’image acquise. et sont résumées par R. De nombreuses études ont été menées pour quantifier et corriger ce problème [PAWLEY 1990b]. Chaque bille est déformée et laisse une trace sur une hauteur d’environ 20µm.4 oil. [WILLIS 1993]. En utilisant un grossissement moyen (63×) nous pouvons mesurer une hauteur apparente de 20µm et une déformation des billes. [WILSON 1990]. La seconde méthode consiste à estimer la fonction de transfert grâce à la mesure. il faut limiter l’ouverture du diaphragme du microscope. La première méthode consiste à la déterminer de façon théorique. [VAN DER WOORT 1990].Chapitre I : Microscopie confocale 21 Pour mesurer ce phénomène. travailler de préférence à des faibles longueurs d’ondes. de petits objets (plus petits que la résolution du microscope). nous avons utilisé une préparation contenant des billes fluorescentes calibrées : des billes de polystyrène de 10µm de diamètre (figure 8). Elle provient du fait que l’illumination n’est pas faite de manière ponctuelle mais que la lumière est émise à l’intérieur d’un cône (dont la taille est liée à l’ouverture angulaire de l’objectif). grâce à un modèle géométrique [FRISKEN-GIBSON 1990]. B. Par exemple. Figure 8 : projection latérale de l’image de deux billes de polystyrène fluorescent d’un diamètre de 10µm. choisir des objectifs de forte ouverture numérique. Le principe général est de déconvoluer l’image acquise par la fonction de transfert du microscope [KHOSLA 1992]. dont la taille et la fluorescence sont calibrées [BRAKENHOFF 1985]. . [MCNALLY 1994]. Avinash [AVINASH 1996] présente une méthode itérative de déconvolution aveugle pour déterminer la PSF et l’image restaurée. Deux méthodes permettent de disposer de cette fonction de transfert. [DE GRAUW 1997]. G.

le cône de lumière se projette selon des anneaux concentriques (disques d’Airy). Dans le cas de l’ œ il.22 Chapitre I : Microscopie confocale I. Deux objets distincts doivent former leurs images sur deux éléments différents de l’ œ il (séparés de 4. Cette distance définit la résolution radiale et correspond au diamètre du disque concentrant la majeure partie de l’information : ∆r = 1.3.22 ⋅ λ 0. on parle de pouvoir séparateur. deux termes de résolution ont été définis : la résolution radiale qui fait référence à des objets situés dans le même plan (plan focal de l’objectif) et la résolution axiale qui s’intéresse aux objets d’une même verticale (axe optique de l’objectif). L’axe vertical représente l’axe optique de l’objectif et l’axe horizontal correspond au plan focal.2.61 ⋅ λ = .5 µm). etc. Plusieurs paramètres influent sur ces résolutions (ouverture du diaphragme. Placés à la distance minimale de l’ œ il (25mm). Dans le cas du microscope confocal. On peut tracer la courbe de l’intensité lumineuse selon un diamètre de ces anneaux (figure 9) et la caractériser. Dans le plan focal de l’objectif.1. 2n ⋅ sin α NA . Figure 9 : courbe de l’intensité lumineuse transmise par un objectif. Il consiste à mesurer la distance entre le maximum de la courbe et son premier zéro.) et plusieurs critères existent pour les quantifier. Résolution La résolution d’un appareil optique est définie comme la distance minimale devant séparer deux objets pour que leurs images soient distinctes. ces objets doivent alors être séparés d’au moins 60µm. Un premier critère est le critère de Rayleigh. longueur d’onde.

α correspond à l’ouverture angulaire de l’objectif et NA = n ⋅ sin α est son ouverture numérique. on 2 2 À partir de ces formules. 2 n ⋅ sin α NA2 α 1 ≈ sin α . les ordres de grandeur de la résolution radiale et de la résolution axiale sont respectivement 0.1.50µm. les billes profondes semblent être moins fluorescentes.32 ⋅ λ et ∆z = .37 ⋅ λ 0. pour plusieurs longueurs d’ondes et plusieurs ouvertures numériques. la qualité des images diminue avec l’augmentation de la profondeur de la coupe 2D acquise : luminosité. de la même manière. α n ⋅ sin α n ⋅ sin 2 2 I. sur une projection latérale. la résolution axiale : ∆r = 0. Pour de petites ouvertures angulaires. Les billes sont identiques et pourtant. Atténuation de la définition Lors de l’acquisition 3D d’un échantillon épais. R. . Elle permet de caractériser la résolution radiale et. Pour une longueur d’onde moyenne (530nm. Delorme [DELORME 1997] propose les valeurs théoriques des résolutions radiales et axiales.2). Une deuxième mesure est fournie par la largeur de la courbe à mi-hauteur (« full width at half maximum » ou FWHM en anglais).3.3. contraste. vert-jaune) et une ouverture numérique raisonnable (NA=1. Nous avons illustré ce problème à partir d’une préparation contenant des billes fluorescentes de 10µm de diamètre (figure 10). Le critère de Rayleigh permet également de décrire la résolution axiale : ∆z = λ 2n ⋅ sin 2 α 2 .25µm et 0. λ représente la longueur d’onde de la lumière d’excitation. en faisant l’approximation sin obtient une écriture plus simple : ∆z ≈ 2λ 2nλ = . n indique l’indice de réfraction du milieu de préparation.Chapitre I : Microscopie confocale 23 Dans cette formule.

Des méthodes plus avancées ont donc été proposées. D’une part. Elle résulte principalement de la combinaison de deux phénomènes. D’autre part. on a I z = I0 ⋅ 1  z 1+   Z ζ La formulation logarithmique permet de déduire expérimentalement les deux constantes Z et ζ : I −I  log 0 z  = ζ ⋅ log ( z ) − ζ ⋅ log (Z )  I   z  . les fluorochromes utilisés se décolorent sous l’effet de l’excitation. Pour corriger cet effet. L’atténuation observée a été modélisée par plusieurs formules exprimant l’intensité observée I z d’un point à une profondeur z en fonction de cette profondeur et de l’intensité idéale I 0 qu’il devrait avoir. et dans une moindre mesure. et sur le trajet inverse.30. Ce n’est visiblement pas le cas de l’image de la figure 10. la lumière d’excitation et la fluorescence sont atténuées lors de la traversée de l’échantillon. entre le plan focal et l’objectif. Selon J.24 Chapitre I : Microscopie confocale Figure 10 : projection latérale d’une image de billes fluorescentes de 10µm de diamètre. Les billes des deux couches paraissent ne pas avoir la même intensité. c’est à dire une image dont chaque plan possède le même type d’information (la même quantité d’objets et la même portion de fond). Cette technique n’est malheureusement valable que pour des images dont les plans sont statistiquement identiques. Plusieurs propositions ont été faites pour expliquer cette atténuation.-P. il a été proposé de tracer la courbe de l’intensité moyenne de chaque plan en fonction de la profondeur et de corriger chacun de ces plans pour supprimer la décroissance de cette courbe. Rigaut [RIGAUT 1991]. entre l’objectif du microscope et le plan focal. Objectif 10×/0.

-P. plusieurs images sont prises en compte pour déterminer une intensité moyenne I z à une profondeur z. J. En conséquence. Cependant. I 50 Z Une autre formulation a été proposée par A. Enfin. on localise plusieurs types d’objets clairs sur un fond sombre : le fond. l’intensité moyenne I z de chaque plan est prise en compte. Pour chaque couple de plans voisins. Czader [CZADER 1996] : I z = I0 ⋅ k z . cette intensité dépend du contenu de l’image et ne peut donc pas fournir de résultat valable dans le cas général. Sur la figure 11. plusieurs valeurs de I 0 sont utilisées dans la recherche des coefficients donnant la meilleure approximation linéaire. les objets présents dans un seul des plans et les objets présents dans les deux plans.Chapitre I : Microscopie confocale 25 Pour déterminer ces coefficients. Pour une image d’une cinquantaine de microns d’épaisseur. Liljeborg [LILJEBORG 1995] et M. Pour s’abstenir de la variation de contenu des différents plans d’une image 3D. les auteurs proposent une méthode (« histostack ») comparant deux à deux les plans adjacents. Rigaut a déterminé la valeur du rapport entre I z et I 0 : I0  50  = 1+   ≈ 3 . un histogramme 2D des niveaux de gris des points est calculé. ζ .

Roerdink utilise une déconvolution (transformée de Fourier) pour restaurer l’image [ROERDINK 1993]. Margadant intègre la contribution de nombreux cônes très fins issus du point observé [MARGADANT 1996].26 Chapitre I : Microscopie confocale Niveau de gris dans le plan supérieur Objet présent dans le plan supérieur Objet présent dans les deux plans Fond de l’image dans les deux plans Objet présent dans le plan inférieur Niveau de gris dans le plan inférieur Figure 11 : exemple d’histogramme 2D des points dans deux plans successifs d’une image 3D.3. associés à plusieurs fluorochromes. les objets présents dans l’image se projettent le long d’une courbe dont les caractéristiques fournissent le coefficient k.1. En considérant la pile de tous les histogrammes construits pour tous les plans de l’image. on est en général amené à utiliser plusieurs marqueurs biologiques.4. Chaque fluorochrome possède sa propre bande d’excitation mais il se peut que ces bandes d’émission de plusieurs fluorochromes se recouvrent. F. Recouvrement des spectres de fluorescence Lorsqu’on veut observer la présence de plusieurs éléments caractéristiques dans une préparation. . D’autres auteurs ont proposé des solutions plus complexes en modélisant le faisceau lumineux (d’excitation ou d’émission) comme une onde sphérique contenue dans un cône. Les objets présents dans deux plans voisins sont projetés sur l’histogramme dans une zone au-dessus de la bissectrice puisque les points sont moins intenses dans le plan inférieur. I. La portion du cône de lumière perçue par l’objectif dépend alors de la profondeur du point observé. C’est à dire que l’on ne peut pas déterminer quelle substance est à l’origine des signaux détectés.

on peut s’interroger sur la précision de certaines mesures. etc. Dans ce cas. En effet. Il est difficile de savoir a priori ce que vont contenir les images. il est indispensable que la motorisation de la platine du microscope soit totalement fiable. Lors d’acquisitions au microscope optique équipé d’une caméra. Une autre interrogation concerne la linéarité des informations entre les objets à observer (molécules. de coupes histologiques. le microscope confocal offre une large gamme de possibilité. Selon l’objectif visé (analyse des cellules.Chapitre I : Microscopie confocale 27 Afin d’éliminer cette incertitude. de l’ensemble des tissus) le grossissement et le mode d’acquisition pourront varier et donner des images différentes en terme d’intensité ou de contraste : objets clairs ou sombres. nous n’avons pas constaté de telle dérive au cours du temps. on cherche à utiliser des fluorochromes dont les spectres d’émission ne se recouvrent pas. il est nécessaire d’évaluer la stabilité de l’illumination et de la détection au cours du temps. plusieurs facteurs biologiques interviennent (température.3. etc. I. Nous avons choisi de ne signaler que deux points importants. il a été proposé d’observer des sources fluorescentes calibrées ou d’intercaler des filtres d’atténuation sur le trajet optique et de mesurer les niveaux de gris correspondants. etc. Autres problèmes d’acquisition Au cours de l’acquisition. petits ou grands. . et en particulier d’une caméra couleur. pH. etc.25µm en x et en y et de 0. les fluorochromes qui leur sont associés. Si cela n’est pas possible. Dans le cas du microscope confocal à balayage laser. des colonies.75 µm en z.5. Pour le second point. La seule variation entre plusieurs acquisitions successives vient du bruit qui représente environ 4% de fluctuation dans les niveaux de gris. Il peut s’agir de colonies de cellules de culture. Différents aspects ont été présentés par R. la montée en température des lampes et des composants électroniques provoque une dérive des intensités dans les images. et de ce fait. fournit des images d’une très grande variabilité.2. Au niveau du degré de fixation des fluorochromes sur les molécules étudiées. de cellules isolées. et le niveau de gris dans l’image acquise. Delorme [DELORME 1997].).) et rendent l’évaluation difficile.1. il est préférable d’effectuer des acquisitions successives (une pour chaque fluorochrome) plutôt qu’une acquisition simultanée des réponses de tous les fluorochromes. I.3. Nous avons constaté que le déplacement se fait avec une incertitude de 0. Exemples d’images obtenues Contrairement à d’autres appareils d’acquisition d’images biomédicales.

La figure 12 correspond à deux images d’une même préparation selon ces deux modes. on peut tout de même acquérir des images et les exploiter selon les modes de fonctionnement et de visualisation du microscope utilisé. . il est facile d’obtenir une série de coupes optiques cohérentes (dans lesquelles les pixels de chaque image se correspondent exactement). Le microscope confocal est capable de fonctionner en mode confocal ou en mode classique. En déplaçant l’échantillon observé par rapport au plan focal du microscope. On voit que la netteté de l’image est améliorée par le fonctionnement en mode confocal. Figure 12 : gain de netteté des images entre une acquisition optique classique (à gauche) et une acquisition confocale (à droite). pour un échantillon d’environ 30µm d’épaisseur. Sur un exemple de préparation biologique. on peut voir les avantages de la microscopie confocale par rapport à la microscopie optique classique. La figure 13 représente 16 coupes optiques séparées de 1µm.28 Chapitre I : Microscopie confocale Malgré les limites de la microscopie confocale.

Le logiciel de commande du microscope permet enfin de visualiser des coupes orthogonales des séries d’images acquises.Chapitre I : Microscopie confocale 29 Figure 13 : acquisition d’une série d’images cohérentes (représentation sous forme de galerie). Figure 14 : visualisation de l’image 3D selon les trois coupes orthogonales. . La figure 14 est un exemple d’une telle visualisation. Les lignes de couleur indiquent la position des plans de projection.

C’est une possibilité satisfaisante quant à l’isotropie des voxels mais l’information contenue dans l’image n’est plus identique à l’information contenue dans l’échantillon observé. • Les images sont déformées. Une première solution consiste à réduire l’échantillonnage radial afin de le faire correspondre à l’échantillonnage axial. il est nécessaire de tenir compte de certains détails afin de mettre au point des stratégies de traitement de ces images. la manipulation des images de microscopie confocale ne peut pas faire appel à des techniques et des stratégies tridimensionnelles directement généralisées à partir des approches bidimensionnelles connues.4. Il nous faut alors choisir la correction des images entre l’acquisition et les traitements ou la prise en compte de cette inhomogénéité au sein de traitements. En effet. • Les images ne sont pas homogènes. La différence entre la résolution radiale et la résolution axiale du microscope ne permet pas d’acquérir les images sous forme de grilles de voxels cubiques réguliers. Nous sommes par conséquent contraints de développer des méthodes adaptées à ce type d’acquisition. Cependant. il faut tenir compte de l’atténuation de l’intensité en fonction de la profondeur. Les voxels sont cubiques mais nous perdons l’apport de résolution du microscope confocal sur les microscopes optiques classiques. Il est nécessaire de choisir rigoureusement les milieux de préparations et les objectifs utilisés pour chaque type d’application afin de réduire le plus possible ce phénomène au moment de l’acquisition. . Pour des images comportant un grand nombre de plans. • Les images ne sont pas isotropes. les objets présents dans les préparations ne forment pas une image de forme identique dans les acquisitions. En effet. le principe et les caractéristiques de l’acquisition impliquent de porter une attention particulière au traitement des images. Pour toutes ces raisons. Une deuxième solution se présente sous la forme de l’interpolation des images dans la direction axiale. Conséquences sur le traitement des images de microscopie confocale Le microscope confocal à balayage laser semble donc apporter un avantage incontestable au niveau de l’acquisition des images tridimensionnelles : les coupes optiques obtenues peuvent être rassemblées pour construire de véritables images en volume.30 Chapitre I : Microscopie confocale I.

en deux dimensions et en trois dimensions. .Chapitre I : Microscopie confocale 31 Nous présentons dans les chapitres suivants des opérations de traitement et d’analyse d’images. ainsi que des stratégies adaptées au traitement des images de microscopie confocale.

.

Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse .

.

nous avons privilégié la structure de graphes de voisinage. de façon à constituer un environnement d’expérimentation de techniques de traitement d’images. Nous souhaitons disposer d’une large palette d’opérateurs. nous avons implanté. Au début de ce travail. que l’on peut indifféremment considérer en 2D ou en 3D. Pour répondre à nos premières préoccupations. nous présentons les principales approches de la segmentation d’images. . Afin d’étudier une image à différentes échelles (au niveau des points ou au niveau des objets). nous avons généralisé. Dans un deuxième temps. quand cela a un sens. implicitement utilisés par les biologistes pour sélectionner les entités remarquables. les opérateurs de traitements usuels ainsi que d’autres opérateurs plus adaptés aux images de microscopie cellulaire. Dans un premier temps. • sélectionner les objets ou les cellules sur lesquels on veut faire des mesures. les opérateurs habituellement définis sur les images vues comme des grilles régulières. le laboratoire disposait d’une bibliothèque d’opérateurs de traitements bidimensionnels. Nous nous intéressons plus particulièrement aux opérations de traitement d’images adaptées au traitement des images de microscopie cellulaire.Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse 35 Ce chapitre a pour but de présenter les concepts des traitements d’images que nous avons mis en place dans le contexte de la microscopie cellulaire tridimensionnelle. nous présentons les différentes représentations adaptées à la manipulation et au traitement de nos images de microscopie. Les structures de données et les traitements présentés dans ce chapitre répondent à ces deux préoccupations. en exploitant leur organisation au sein des tissus. Sur cette structure. en trois dimensions. nous abordons la représentation classique d’une image par une grille régulière de points et nous la complétons en détaillant la possibilité de manipuler les images par l’intermédiaire des graphes de voisinage. Les problèmes auxquels nous voulons apporter une réponse sont de deux ordres : • utiliser la troisième dimension pour approcher au mieux la réalité biologique et effectuer des mesures volumiques. adaptées en particulier à la biologie cellulaire. l’étude des regroupements perceptuels. Pour le second type de problèmes.

nous exposons plusieurs stratégies de traitement d’images tridimensionnelles. II. organisés les uns par rapport aux autres en fonction de la nature de l’échantillon biologique observé. convexes). exploitant la structure de graphe. Le résultat de cette analyse est constitué de l’enchaînement d’opérateurs. Cependant. Cette approche repose sur la décomposition hiérarchique des problèmes. • Les images tridimensionnelles que nous manipulons sont obtenues par microscopie confocale. Nous montrons dans un premier temps que ce mode d’acquisition impose le type d’échantillonnage. nous avons développé une représentation complémentaire des images. sur leur contraste (frontières aux transitions lentes) ou sur leur contenu (texture. de caractériser l’architecture de populations de cellules vues à un grossissement plus faible. nous exposons notre méthodologie de développement de programmes de traitement d’images. . les objectifs sont très variables : il peut s’agir de localiser des noyaux cellulaires à fort grossissement. • Chacun des objets présents dans les images étudiées possède une réalité biologique. Enfin.). Nous présentons plus loin les différentes catégories d’opérations de traitement adaptées à ces propriétés. • Une image contient une ou plusieurs populations d’objets. Afin de tenir compte de ces relations entre les différents éléments d’une image. La représentation des images Lors du traitement d’images de microscopie cellulaire. etc. en trois dimensions. dans un quatrième temps.1. difficiles à manipuler de façon isotrope. Cette réalité fournit des connaissances a priori sur la forme des objets (réguliers. nous avons mis en évidence certaines caractéristiques générales influant sur le choix de la représentation des images et sur le choix des catégories de traitement à appliquer. etc.36 Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse Dans un troisième temps. Nous proposons alors une démarche générale pour traiter les images de microscopie confocale. choisis dans la bibliothèque PANDORE. Nous présentons dans cette section les différentes représentations des images répondant à nos besoins.

Les dégradés de gris ou les nuances des trois composantes rouge. Cependant. [MEYER 1992]. 8. 6. a : structure cubique. nous avons choisi de parler de points et non de pixels ou de voxels.1. seul le cube permet de paver l’espace de façon isotrope (figure 15a). Le problème n’est pas simple et de nombreuses grilles d’échantillonnage ont été mises au point et comparées pour les images 2D et 3D [SRIHARI 1981]. Les figures 15 et 16 illustrent respectivement les améliorations de la maille cubique et les positions relatives de voisins équidistants d’un point. La numérisation consiste à représenter la couleur du point observé par une grandeur quantifiée. pour ne pas faire référence à une dimension particulière des images (2D ou 3D) lorsque les approches sont équivalentes. De la même façon qu’en imagerie bidimensionnelle un élément d’image est appelé pixel (« picture element » en anglais). L’échantillonnage d’une image consiste à représenter par un point une information non ponctuelle.Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse 37 II. Deux aspects interviennent dans la définition d’une image numérique en tant que signal discret multidimensionnel : la numérisation et l’échantillonnage. a b c Figure 15 : représentation des structures régulières pour l’échantillonnage des images 3D.1. Parmi les polyèdres réguliers (tétraèdre. prisme hexagonal). cube. les maillages carré.1. .1. 12 et 20 faces). dodécaèdre et icosaèdre comptant respectivement 4. verte et bleue sont en général codés sur 256 niveaux. Images numériques tridimensionnelles Définitions II. et la maille cubique à faces centrées qui en compte douze. D’autres structures ont alors été développées en s’inspirant de structures atomiques cristallines : la maille cubique centrée qui permet de passer à huit voisins équidistants. octaèdre. En deux dimensions. prisme triangulaire. le gros reproche fait au maillage cubique est son faible nombre de voisins équidistants d’un point donné : seulement six (figure 16a). b : structure cubique centrée. l’élément de volume est dénommé voxel en imagerie tridimensionnelle. triangulaire ou hexagonal sont utilisés et ont été étendus à la troisième dimension de manière non isotrope (parallélépipède. De manière générale. c : structure cubique à faces centrées.1.

des opérations de morphologie mathématique nécessitant un élément structurant isotrope). Il faut cependant garder à l’esprit la possibilité de changer de grille pour effectuer des traitements particulièrement précis (par exemple. même si la complexité des traitements reste inchangée. 18 ou 26 . il faut déterminer la taille des voisinages à considérer autour des points. b : 8voisinage de la maille cubique centrée. Nous avons choisi de conserver cette grille d’échantillonnage parallélépipédique proposée par le matériel d’acquisition. chacun de ces plans est échantillonné par une grille carrée et l’image 3D est composée de parallélépipèdes rectangles (plutôt que de cubes à cause de l’anisotropie de l’acquisition). En raison du balayage laser.38 Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse a b c Figure 16 : positions relatives des voisins équidistants dans les structures de la figure 15. un point est relié à ses voisins par des traits épais. Taille et codage des voisinages Dans un premier temps. Par exemple. c : 12-voisinage de la maille cubique à faces centrées. une image 3D est construite en rassemblant plusieurs plans 2D. En complément. Pour une grille cubique. il est possible de reconstruire une grille tridimensionnelle régulière et isotrope en interpolant les données acquises sous forme de coupes 2D [MEYER 1992]. le voisinage d’un point peut être constitué de 6. Le nombre de voisins influe directement sur la qualité des résultats obtenus lors des traitements et sur le temps d’exécution nécessaire. Au centre des huit cubes en trait fin. d’autres choix doivent être effectués avant de pouvoir manipuler des images de points en trois dimensions. a : 6-voisinage de la maille cubique.2. Le choix de la grille d’échantillonnage étant en général fixé par les appareils utilisés lors de l’acquisition. II. Dans le cas du microscope confocal.1.1. des solutions ont été proposées pour passer d’une grille à une autre et pour disposer d’un maillage régulier et suffisamment dense. Le parcours de cette structure de voisinage est en outre le plus rapide à mettre en œuvre au cours de traitements informatisés.

Le meilleur compromis entre la rapidité des traitements et la ressemblance à une sphère (qui constituerait le voisinage isotrope idéal) est obtenu avec le 18-voisinage. parcours des deux voisins dans les 13 directions. Pour étendre ce codage à la troisième dimension. les voxels de numéros consécutifs sont voisins en 6-connexité.25] seront vus après. Nous disposons ainsi d’une représentation d’une image sous la forme d’une grille régulière de points. . Figure 17 : numérotation choisie pour les 26 voisins d’un voxel. • les voxels vi pour i ∈ [0. En 2D. nous avons choisi certaines propriétés afin de définir une numérotation des 26 voisins d’un voxel : • le voxel vi et le voxel v25−i sont symétriques par rapport au voxel central. le parcours en 3D des premiers points ne se fait pas dans le sens trigonométrique.). Les deux premières propriétés ne sont pas vérifiées par le codage de Freeman. comme c’est le cas en deux dimensions.12] sont vus avant le voxel courant dans un balayage 3D de l’image et les voxels vi pour i ∈ [13. Nous définissons ainsi une numérotation (figure 17) particulièrement intéressante pour l’accès aux voxels lors des traitements (masques de balayage pour l’étiquetage. En conséquence. la numérotation des 8 voisins d’un pixel possède la propriété suivante : des pixels de codes consécutifs sont voisins en 4connexité. Dans un second temps.Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse 39 voxels. il faut remarquer l’absence en 3D d’un codage analogue au codage de Freeman afin de numéroter les voisins d’un point. etc. avec une identification invariable des voisins d’un point. • pour ces deux ensembles pris séparément.

1.2.40 Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse II. Nous avons donc G = (S. est une relation d’équivalence. on souhaite appréhender une image de façon plus globale que par le voisinage régulier des points qui la composent. Cette structure est particulièrement adaptée à la manipulation de relations entre objets : • des relations « intra-image ». extrémités d’une même arête. q ∈ S tels que k = ( p. • des relations « inter-image ». entre des objets de plusieurs images (mémorisation des étapes de fusion. j } où ki .). il n’est plus suffisant de travailler au niveau des points de l’image (pixels ou voxels) mais il est utile de manipuler des objets plus grands (primitives visuelles comme des régions ou des portions de contours) par l’intermédiaire d’une autre représentation. En effet. Dans de nombreux cas. A) avec A ⊂ S × S . q ) . etc.2. les arêtes lorsqu’ils sont non orientés. lorsque les objets d’une scène ne sont pas connectés entre eux. j = ( p i . Les points de S sont les sommets (ou n œuds) du graphe.2. entre des objets d’une même image (relations de proximité.1. p j ) . Une image doit alors être considérée comme une collection d’informations organisées dans un espace à plusieurs dimensions (2 ou 3 en général). De même.1. nous avons développé une représentation des images basée sur les graphes de voisinage. les relations de voisinage entre les différents points sont implicitement données par la grille. etc. Ceci peut également s’écrire S = {pi } et A = {ki .2. les éléments deA en sont les arcs lorsqu’ils sont orientés.1. Elle est à la base de tous les .). c’est à dire k ∈ A ⇔ ∃p. Afin de pouvoir manipuler les images à l’échelle du point comme à l’échelle de l’objet. il faut considérer des relations de voisinage plus larges que la grille d’échantillonnage de l’image. la relation de voisinage entre deux n œuds pi et p j . lors de la manipulation d’images présentant des collections d’objets. et un sous-ensemble A de S × S [VOSS 1993]. Pour un graphe non orienté. de similarité. La représentation des images par les graphes Intérêt de la structure II. II. L’objet mathématique Un graphe G est un objet mathématique défini par deux ensembles mis en correspondance : un ensemble S de points. Dans le cas des images représentées par une grille régulière.

nous avons présenté l’analogie entre les graphes et les images au niveau de la notion de voisinage. l’accès aux voisins d’un sommet se fait toujours aussi directement. Par conséquent. considérer un graphe comme une image simplifie le passage de la deuxième à la troisième dimension. En suivant la même analogie. 3D. Nous verrons que la plupart des opérateurs de traitement d’images peuvent alors être étendus à ces graphes. Nous étendons cette analogie aux informations associées aux points (niveau de gris. Une image est un ensemble de points associé à des règles de passage d’un point à un autre : la grille d’échantillonnage. l’accès aux huit voisins d’un pixel est codé différemment de l’accès aux 18 voisins d’un voxel.Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse 41 traitements sur les graphes. Un attribut numérique est alors associé à chaque sommet de l’ensemble S. Cette dimension n’a pas d’influence sur la structure de voisinage du graphe. les composantes connexes d’un graphe sont comparables aux régions d’une image. les nœ u ds peuvent appartenir à un espace de dimension quelconque. que les sommets appartiennent à un espace à deux ou à trois dimensions. . Vincent [VINCENT 1990] dans son étude sur les opérateurs de morphologie mathématique. etc. Le graphe et les sommets sont alors dits « attribués » (ou « valués ») par une fonction V (fonction de valuation) : V: S →ℜ p a v( p ) Cette fonction est une généralisation de la fonction utilisée par L. C’est aussi la source de la définition des arbres (graphes sans cycle). un graphe permet de représenter simplement une image dont la grille est irrégulière. Dans le cas d’un graphe. qui pose parfois des problèmes. Les n œuds d’un graphe sont alors analogues aux points d’une image et les arêtes remplacent la grille.). On peut alors signaler que la dimension d’une image est donnée par la grille d’échantillonnage : 2D. En effet. Grâce à ces définitions. Dans un graphe. Jusqu’à présent. étiquettes.

w(k ) = v( p ) − v(q ) . ∀k = ( p. on peut inclure l’ensemble S dans un espace métrique. la liste des arêtes issues de chaque sommet. q ) Dans tous les cas. D’une part.42 Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse Dans le cas des images 2D. q ) . La combinaison de la définition structurelle d’un graphe ( G = (S. Dans le cas des graphes.V . r ) . Annexe A]. Nous avons choisi de manipuler un graphe comme une structure regroupant l’ensemble des sommets. r ) ≥ d ( p. A. q ) . Deux fonctions de pondération sont fréquemment utilisées. nous utilisons une fonction de pondération des arêtes de A afin de rendre la structure la plus générale possible : W: A→ ℜ k a w(k ) Un graphe ainsi associé à une fonction de pondération est parfois appelé graphe valué [COCQUEREZ 1995. Nous parlerons plutôt de graphe « pondéré » pour éviter la confusion avec la fonction de valuation présentée précédemment. Il pourra s’agir d’une distance métrique (distance géométrique définie dans l’espace des sommets) ou d’une distance plus générale caractérisant la « différence » entre les sommets.2). les relations de voisinage ne sont pas limitées dans l’espace. les valeurs associées aux sommets et les poids des arêtes (Annexe 2. D’autre part. d ( p. s ∈ S . la différence entre leurs attributs. p ) = 0 . la grille d’échantillonnage introduit le 4-voisinage. d ( p. q. A) ) et de son association à des fonctions V et W permet de se rapprocher des graphes étiquetés utilisés par Messner [MESSNER 1998] : G = (S. w(k ) = d ( p. La pondération des arêtes correspond alors à la distance définie sur les sommets : ∀p. . q ) + d (q. q ) ≥ 0 . le 8-voisinage et des voisinages plus larges. le voisinage hexagonal. d ( p.W ) . En complément de cet aspect géométrique. la pondération canonique consiste à définir le poids d’une arête comme la différence des attributs de ses extrémités : ∀k = ( p. nous considérons le poids d’une arête comme une distance entre ses extrémités.

une structure importante peut être déduite d’un graphe : l’arbre de recouvrement minimal (« minimum spanning tree » ou MST).3. Grâce à la fonction de pondération. Pour chaque triangle formé par les arêtes du graphe. a b Figure 19 : a : exemple de graphe. Le MST d’un graphe est l’arbre de recouvrement dont la somme des poids des arêtes est minimum. Les différentes structures de graphe Pour une population de points répartis dans un espace à deux dimensions. . Si ce cercle ne contient aucun autre point de la population.Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse 43 II. alors les trois arêtes reliant les trois points sont ajoutées au graphe.2. Un exemple de graphe de Delaunay est présenté sur la figure 18. b : arbre de recouvrement associé. le cercle exinscrit ne contient aucun autre point que les extrémités des arêtes. Il est obtenu par triangulation : pour chaque triplet de points. on détermine un cercle passant par ces trois points. Un exemple de graphe et de l’un de ses arbres de recouvrement est présenté sur la figure 19. Deux algorithmes efficaces construisent le MST : l’algorithme de Prim procède par croissance de l’ensemble des n œuds alors que l’algorithme de Kruskal fait croître l’ensemble des arêtes [GONDRAN 1979]. Figure 18 : exemple de graphe de Delaunay construit à partir d’une population de points. le graphe le plus complet et le plus couramment utilisé est le graphe de Delaunay (GD).1.

L’un des principaux intérêts du MST est que la suppression de n arêtes de l’arbre permet de séparer la structure en n + 1 sousstructures. l’arête est conservée. la situation est inversée. Le graphe d’influence (GI) est obtenu en considérant des sphères (des cercles pour un espace à deux dimensions) centrées sur les sommets du graphe et dont le rayon est égal à la distance à leur plus proche voisin.4) que cette propriété est particulièrement efficace pour la mise en évidence de regroupements dans une population d’objets. Si nous considérons une arête k = ( p1 . Ces graphes fournissent des informations sur la répartition externe des arêtes du graphe et ne présentent qu’un faible intérêt pour l’étude de l’architecture d’une population d’objets.2} par 1 β β  β ci = 1 −  pi + p3 − i et ri = w(k ) . nous disposons de son poids w(k ) . En fonction de ce paramètre. Il reflète l’aspect général de la répartition des sommets. l’arête est supprimée. À chaque extrémité ( p1 et p2 ). Pour les points B et C. Les α-graphes [WORRING 1992] constituent une série de graphes dépendant d’un paramètre de densité α.44 Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse Cette structure. B et C. Si les sphères ont une intersection non vide. d’autres structures peuvent être déduites d’un graphe. Nous verrons (section II. Grâce à la fonction de valuation. ne contient que les arêtes entre les sommets les plus proches au sens d’une distance quelconque. Un graphe d’influence ne possède alors que des arêtes entre un point et ses plus proches voisins. Les β-graphes sont plus adaptés car ils caractérisent l’organisation interne des sommets du graphe d’origine. 2 2 2  . moins dense que le graphe d’origine. Dans le cas contraire. p2 ) du graphe G.2. Les deux premières sphères sont disjointes donc l’arête [AB] doit être supprimée dans le graphe d’influence. B C A Figure 20 : sphères d’influence de trois sommets A. On étudie alors les sphères deux par deux : celles correspondant aux extrémités de chaque arête (figure 20). seules certaines arêtes du graphe d’origine sont conservées. nous associons une sphère Si dont le centre ci et le rayon ri sont donnés pour i ∈ { .

Ces deux derniers graphes sont présentés dans [VINCENT 1990] et [RAYMOND 1993] mais nous proposons ici une définition plus générale puisque toutes les valeurs de β sont utilisables. β =0. l’arête est supprimée. ces différentes structures respectent une propriété d’inclusion illustrée sur la figure 22 : MST ⊂ GVR ⊂ GI ⊂ GD. La densité des β-graphes décroît avec le paramètre β et certaines valeurs particulières ont été mises en évidence : • pour β = 0. nous avons la limite inférieure de contact entre les sphères. l’intersection est le milieu du segment [ p1 p2 ] .5 β =1 β =2 Figure 21 : intersection des sphères pour les β-graphes. • pour β = 1 . les arêtes sont conservées en fonction de l’intersection des sphères (figure 21). .5 .Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse 45 Comme pour le graphe d’influence. Si l’intersection contient un autre nœud que les extrémités de k. • pour β = 2 . il s’agit du graphe des voisins relatifs (GVR). En raison de leur densité (leur nombre d’arêtes). le graphe obtenu est le graphe de Gabriel (GG).

la fonction de valuation et la fonction de pondération complètent la possibilité de considérer les graphes de voisinage comme des images numériques dont la grille d’échantillonnage est irrégulière. L’intérêt de notre approche est d’inclure les graphes au c œur même des traitements et de les manipuler comme des images. Pour atteindre de tels objectifs. fusion d’informations multimodales. .4) que les graphes de voisinage ont déjà été utilisés pour la représentation et la caractérisation d’images. La structure de graphe est donc particulièrement adaptée à la manipulation d’une collection d’objets répartis de manière non uniforme dans un espace quelconque. il est toujours délicat d’expliciter toutes les informations utilisées et tous les raisonnements mis en œuvre. Le principe général correspond en fait à un changement de représentation pour passer d’une image à un graphe. Les problèmes de traitement d’images Dans le domaine de l’imagerie numérique. De plus. de localisation de primitives visuelles. Nous verrons ultérieurement (section II. L’automatisation du traitement des images est un problème difficile pour plusieurs raisons.2. Les applications qui en découlent présentent également une grande variété : détection de modifications entre images. II. a : population de points. b : graphe de Delaunay (GD). même si un observateur semble parvenir simplement au résultat escompté. etc. Des études théoriques ont montré que les graphes permettent en particulier de mettre en évidence des regroupements perceptuels au sein de telles populations [MAZILLE 1994].46 Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse a b c d e Figure 22 : propriété d’inclusion des différentes structures de graphe pour une population d’objets. et à la déduction d’une nouvelle image utilisée pour la suite des traitements. les objectifs du traitement des images sont multiples. etc. c : graphe d’influence (GI).2. visualisation volumique et dynamique. d : graphe des voisins relatifs (GVR). de codage et de compression. En particulier. d’extraction de caractéristiques de forme (morphométrie) ou de texture. e : arbre de recouvrement minimal (MST). à l’application de traitements sur les graphes. un certain nombre de transformations sont nécessaires afin d’obtenir un résultat exploitable à partir d’une image initiale. Il peut s’agir d’amélioration des images acquises. suivi de mouvement dans des séquences.

). • Le niveau intermédiaire correspond à ce qu’on appelle la segmentation. etc. Cette segmentation est généralement abordée selon deux approches. géométriques. l’analyse consiste à caractériser ou à quantifier la présence de certains objets dans les images étudiées. Les opérations de traitement d’images référencées dans la littérature sont nombreuses et plusieurs classifications ont été adoptées : • en fonction de l’objectif qu’elles visent (élimination du bruit. opérations arithmétiques. Il consiste à décomposer des scènes complexes en éléments individuellement identifiables ou plus facilement analysables. amélioration du contraste. . de convolution. etc. Dans certains cas.Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse 47 On distingue généralement plusieurs niveaux dans le traitement des images. Nous utilisons la première classification afin de présenter les grandes catégories d’opérations de traitement et d’analyse d’images. C’est une phase d’interprétation des données qui fait souvent appel à une étape de reconnaissance de forme. de morphologie mathématique. localisation de certaines primitives visuelles.). • Le bas niveau consiste à améliorer les images avant la recherche d’éléments particuliers. les étapes doivent être contrôlées par des opérations de visualisation. et en particulier pendant la recherche de la solution d’un problème de traitement d’images. Nous revisitons ici certaines opérations de traitement d’images au travers des besoins liés à nos images de microscopie cellulaire et à nos objectifs de segmentation. Il permet de corriger certains défauts dus à l’acquisition : amélioration du contraste. D’autres travaux ont présenté les nombreuses opérations développées pour répondre aux questions posées par l’analyse d’images biomédicales [AYACHE 1998]. Au cours du traitement. atténuation du bruit. • en fonction des techniques qu’elles mettent en jeu (traitements point par point. souvent complémentaires : l’approche « frontières » et l’approche « régions ». Les opérations de visualisation sont donc fondamentales mais en général. etc.2). Nous reviendrons ultérieurement sur ce point (section III. • Au plus haut niveau. logiques. leur réalisation pose davantage de problèmes techniques que de problèmes méthodologiques. le niveau d’analyse est inexistant et la visualisation de la segmentation constitue l’objectif principal.

48 Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse De manière générale. • un regroupement des régions appartenant à un même objet pour supprimer une sur-segmentation. D’autres méthodes de restauration d’images procèdent par filtrage. égalisation d’histogrammes. filtrage par diffusion anisotropique [OSHER 1988]). Des opérations de rehaussement des intensités peuvent réduire leur influence : expansion de la dynamique de l’histogramme des intensités. cette étape consiste à améliorer les images que l’on veut segmenter. gaussien) qui se comportent indépendamment des valeurs des points considérés. Les principaux défauts des images acquises sont la présence d’un biais et d’un bruit d’acquisition. • une régularisation des contours des objets localisés. etc. Ces modifications sont globales et ne tiennent pas compte du contenu de l’image en terme de variation locale des niveaux de gris.1. Le bruit d’une image est en général atténué par l’utilisation de filtres passe-bas. C’est par exemple le cas de la restauration par filtrage inverse. les filtres adaptatifs (filtre sigma. indépendante du contenu de l’image. etc. On peut distinguer plusieurs catégories dans les opérations de lissage : les filtres linéaires (moyenneur. . le traitement d’une image contenant des objets biologiques se fait par l’enchaînement de plusieurs catégories d’opérations : • une étape de prétraitements pour corriger l’image. • une détection grossière des objets par une approche « régions ». le biais correspond à une irrégularité de l’intensité lumineuse. Dans une image. C’est seulement après cette segmentation que l’on s’intéresse à la caractérisation des images et des objets. par les moindres carrés. filtre de Nagao [NAGAO 1979]) qui modifient la taille et les poids de leurs masques de convolution en fonction de la portion d’image étudiée. provenant d’un défaut dans l’éclairement ou l’excitation de la préparation observée.2. Prétraitements Parfois appelée « restauration ». modification de l’échelle. [KUNT 1993]. II. les filtres non linéaires (filtres d’ordre.

Ri I Rj = ∅ . De même que le choix des germes. on distingue deux approches.2.1. Pour une autre catégorie d’opérations de croissance. ∀i . pour Ri et R j connexes. Plusieurs approches de la localisation des régions ont déjà été abordées dans la littérature et fournissent de bons résultats pour la détection d’objets tels que des noyaux cellulaires vus à un faible grossissement ou faiblement texturés. P (Ri ) est vrai. Les opérations de croissance d’une première catégorie consistent à faire croître des objets (à partir des germes) tant qu’un critère est respecté et à stopper la croissance dès que ce critère est mis en défaut. La croissance peut ainsi se terminer alors que certains points de l’image ne sont affectés à aucune région. On procède donc par regroupement des points adjacents dont les attributs sont comparables. Approche « régions » de la segmentation D’un point de vue mathématique [MONGA 1987].2. l’objectif est de constituer une segmentation de toute l’image. etc. des maxima locaux d’intensité). • Dans un premier cas. II. Tous les points de l’image doivent dans ce cas être affectés à une région. la croissance consiste à agglomérer des points aux germes en utilisant un prédicat d’homogénéité. segmenter une image I selon un prédicat P consiste à créer une partition de cette image en régions Ri telles que I = U Ri et ∀i ≠ j . Le prédicat permet de formaliser cette notion d’homogénéité (complémentaire de la notion de contours que nous abordons plus loin).Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse 49 II.2. L’approche « régions » de la segmentation consiste donc à localiser des ensembles homogènes de points connexes au sein des images. P (Ri U R j ) est faux. Ces opérations sont alors comparables à des méthodes variationnelles utilisant des contours actifs (modèle de la bulle. Croissance de régions À partir de certains points de l’image (des germes) possédant des caractéristiques particulières (par exemple. l’ordre dans lequel est effectuée la croissance est déterminant quant au résultat. On . la propagation est purement géométrique et les attributs des points ne sont pris en compte que pour vérifier le prédicat d’homogénéité.).2. Même si la croissance est effectuée en parallèle autour de chaque germe.

Plusieurs méthodes ont été proposées. la représentation des régions de l’image par un graphe d’adjacence s’avère très efficace pour optimiser les étapes de fusion. Par exemple. Division et fusion de régions Il arrive très souvent que le résultat d’une segmentation par croissance de régions soit en fait une image sur-segmentée. • Dans le second cas. Cette opération intervient dans une stratégie plus globale qu’est la segmentation par division et fusion de régions. le principe consiste à diviser chaque région tant que le prédicat n’est pas respecté. [MATHIEU 1995]. Une fois obtenue une segmentation pour laquelle chaque région vérifie P.2. la croissance est gérée par une priorité dépendant d’un potentiel associé à chaque point de l’image. par rapport à leurs voisins. il est courant des choisir les germes comme les minima de la fonction gradient et de trier les points selon ce gradient au cours de la croissance. pour la recherche de la ligne de partage des eaux [COSTER 1989] lors de la localisation d’objets homogènes. Cette solution a été adaptée en proposant une première segmentation dans l’environnement des partitions de Voronoï : c’est la partition de Voronoï d’une collection de germes qui sert de segmentation initiale [BERTIN 1994]. C’est à dire que des régions voisines peuvent avoir des caractéristiques communes telles que la réunion des régions respecte toujours les prédicats de segmentation utilisés. est la plus faible. II. Il est alors facile de représenter la décomposition des régions par une . En ce qui concerne les méthodes de division de régions.2.50 Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse peut citer en exemple l’opération d’étiquetage qui affecte un même numéro à tous les points d’un ensemble connexe homogène. Il est alors nécessaire de fusionner certaines régions. on cherche à fusionner les régions dont la réunion respecte encore P. Une solution simple mais coûteuse consiste à considérer chaque point de l’image comme une région de départ pour la phase de fusion.2. tant au niveau de la division qu’à celui de la fusion [MONTANVERT 1993]. Dans le cas des images de microscopie cellulaire. il est fréquent de procéder à une découpe systématique des régions en 2n portions de tailles égales (où n est la dimension de l’espace : 2 ou 3). À partir d’une segmentation initiale et d’un prédicat P donné. [MATHIEU 1993]. les cellules et le fond de l’image sont des régions homogènes que l’on peut obtenir par croissance autour des points dont la variation d’intensité. Il est clair que dans ce cas.

Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse

51

structure d’arbre quaternaire (« quadtree » en anglais). La figure 23 propose un exemple de telle structure pour une image en deux dimensions.

Figure 23 : structure d’arbre quaternaire permettant de représenter la décomposition systématique d’une région en quatre parties de même taille. On remarque ici l’intérêt des graphes de voisinage pour représenter les opérations de division et de fusion de régions. II.2.2.3. Analyse multi-échelle et analyse multi-résolution

L’analyse multi-échelle d’une image permet d’en extraire des objets dont la taille n’est pas un critère discriminant de segmentation. C’est par exemple le cas des images de microscopie cellulaire dans lesquelles les différentes catégories de cellules à détecter possèdent des noyaux de tailles très variables. L’application d’opérateurs locaux nécessite de mettre en correspondance la taille de la fenêtre d’étude avec la taille des objets recherchés. Ici, le principe est de traiter l’image par une famille d’opérateurs ne différant que d’un facteur d’échelle et de combiner les différents résultats pour extraire les informations pertinentes. L’analyse multi-échelle permet ainsi de lisser, de simplifier les images. Mathématiquement, une analyse multi-échelle Tt est un opérateur qui, à une image I 0 , associe une suite d’images {I t } [MARR 1982]. L’image I t est le résultat du traitement à l’échelle t de l’image I 0 : Tt (I 0 )[ p ] = I t [ p ] . Le principe de l’analyse multi-résolution est légèrement différent : il s’agit d’appliquer la même opération à différentes versions de l’image [KUNT 1993]. Pour une image I 0 , une famille d’images {I t } est obtenue par réduction progressive de la résolution. L’analyse multirésolution permet ainsi d’accélérer un certain nombre de traitements en travaillant sur des images plus petites. Cette analyse a été structurée par l’utilisation d’architectures représentant le passage d’une image à une image I t +1 . C’est en particulier le cas de la représentation par est associé à un point père dans l’image

une structure pyramidale. Chaque point de l’image

52

Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse

I t +1 et chaque point de l’image I t +1 possède des fils dans l’image

. Dans la pyramide

gaussienne régulière [WILSON 1984], les relations fils→père sont bien définies et le père est affecté d’une moyenne pondérée des attributs des ses fils. Réciproquement, en redescendant la hiérarchie vers les résolutions les plus fines, les relations père→fils associent les attributs du père à chacun de ses fils. D’autres structures existent comme la pyramide reliée [MOTT 1986] dans laquelle plusieurs structures sont imbriquées. Un n œud de la pyramide est alors associé à plusieurs pères et la meilleure relation père→fils est sélectionnée pour déterminer les attributs du fils. On peut encore citer la pyramide reliée pondérée [HONG 1984] dans laquelle les attributs d’un n œ ud sont déduits d’une combinaison des attributs de ses différents pères. II.2.3. Approche « frontières » de la segmentation

L’approche « régions » de la segmentation fournit en général une détection correcte des différentes composantes présentes dans une image. Cependant, si ces composantes connexes ne sont pas particulièrement homogènes, le bord des régions n’est pas localisé de façon très précise. C’est le cas dans les images de microscopie : les objets (noyaux cellulaires, etc.) ne sont pas toujours homogènes mais leurs contours doivent être réguliers. L’approche « frontières » de la segmentation permet de préciser la localisation du bord des régions. L’extraction de contours en 2D ou de surfaces en 3D est un problème difficile pour lequel deux grandes catégories de solutions sont proposées : • l’approche locale basée sur la détection et la localisation de points de contours ou de surface, suivie d’une opération de fermeture pour disposer de structures continues, • l’approche globale utilisant des connaissances géométriques et photométriques a priori sur les objets à détecter. Cependant, il n’existe pas d’algorithme unique de détection de frontières. II.2.3.1. Détection locale de points de contours

Les contours dans une image numérique apparaissent comme un changement brusque de l’intensité des points. Ces changements sont souvent modélisés par des discontinuités de différents ordres dans un contexte modélisé par le flou et le bruit. Cette modélisation conduit à l’utilisation des opérateurs différentiels du premier et du second ordre : gradient, laplacien, dérivée seconde selon la normale au contour, etc. Or, la différenciation étant une opération instable, la présence de bruit nécessite de régulariser l’image par des opérations de lissage linéaire ou non linéaire.

Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse

53

La détection de points de contours ou de surfaces se fait classiquement selon deux techniques : • le calcul du gradient de l’image et l’extraction des extrema locaux dans la direction du gradient, • le calcul du laplacien de l’image et la détermination des points de passage par zéro. Les méthodes locales d’extraction de points de contours procèdent par convolution de l’image avec un masque estimant les dérivées partielles des signaux. Souvent, ces masques combinent l’opération de lissage et de différentiation. Le gradient est une grandeur vectorielle représentée par une norme et des directions. Le laplacien est une grandeur scalaire plus simple à manipuler. La détection locale de points de contours s’avère efficace dans le cas de transitions franches entre le fond de l’image et les objets. Cette technique est donc bien adaptée à la segmentation d’images artificielles ou d’images d’objets manufacturés. Pour des objets dont les variations de niveaux de gris sont moins nettes, il est préférable d’utiliser des informations sur la forme des objets. II.2.3.2. Modèles géométriques de contours

Afin de segmenter au mieux des objets dont les contours ne sont pas francs (en particulier, des objets naturels comme des noyaux cellulaires), une approche globale de la détection de contours est proposée par la théorie des modèles déformables. Plusieurs études ont été menées et présentent des méthodes différentes (snakes, approches géométriques, etc.) mais le principe général peut être décrit simplement : il s’agit de faire évoluer une courbe ou une surface en lui apportant des modifications géométriques. À partir d’une forme initiale, la forme en évolution doit respecter deux critères : la régularité et l’attache aux données. On peut mentionner deux types de modèles déformables : les modèles paramétriques basés sur la minimisation d’une fonction d’énergie globale (snakes classiques) et les approches géométriques basées sur certaines équations d’évolution des courbes planes et des surfaces. L’une des premières techniques inspirées de ce principe a été proposée sous le nom de « snakes » [KASS 1988], [BOUDIER 1997]. Celle-ci utilise une énergie globale, associée à la courbe en évolution, qu’il s’agit de faire décroître pour faire coïncider la courbe avec les contours de l’objet étudié. En général, cette énergie possède un terme d’énergie externe, déformant la courbe en fonction des valeurs de l’image (intensité ou gradient des points

54

Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse

voisins de la courbe), et un terme d’énergie interne, lié à la forme de la courbe (utilisant la longueur ou la courbure de la courbe). La technique des snakes fait appel à des calculs matriciels connus et simples et donne des résultats très proches des véritables contours de l’objet. Cependant, elle nécessite une bonne initialisation de la courbe et ne peut changer de topologie ; c’est à dire qu’une courbe initiale ne peut détecter qu’un seul objet. Il est clair que la méthode des snakes peut être généralisée à la troisième dimension où les bords des objets sont des surfaces. Cette extension a été introduite par Terzopoulos [TERZOPOULOS 1988] sous le nom de modèles de surfaces déformables et utilisée par d’autres auteurs [COHEN 1992]. Comme en deux dimensions, on part d’une surface initiale à proximité des frontières de l’objet et on essaye de faire évoluer cette surface en minimisant l’énergie. Une seconde technique plus générale de segmentation d’objets par modèles déformables utilise le principe d’évolution des courbes planes décrite par des équations aux dérivées partielles (EDP) [CASELLES 1993], [MALLADI 1995]. À une courbe initiale C0 décrite par un paramètre s, on fait correspondre une famille de courbes C dépendant d’un paramètre temporel : C : [0,1]× [0, +∞[ → ℜ 2 . À chaque instant t, la courbe est déformée dans la direction du vecteur normal en chaque point, selon l’équation suivante : r ∂C (s, t ) = f (C (s, t )) ⋅ N . ∂t La fonction f représente un champ de vitesses dépendant de deux paramètres : la régularité interne de la courbe et une force de déformation externe liée à l’image. Ainsi, en utilisant la courbure κ de la courbe en un point de l’image I, la notation la plus générale est r ∂C (s , t ) = g (I ) ⋅ {κ + ν }⋅ N . ∂t

l’approche par les courbes de niveaux reste inchangée : p ∈ S (r . On utilise en général p = 1 ou p = 2 . Ainsi. ∃s tel que p = C (s. La première concerne l’initialisation de l’évolution : la détection des frontières sera améliorée si la forme de départ est localisée suffisamment près. Pour étendre ces modèles géométriques à la troisième dimension. t ) ⇔ u ( p. t ) = 0 . t ) ⇔ u ( p. Cependant. à la différence des snakes. La valeur du paramètre p est choisie pour moduler l’influence des niveaux de gris de l’image sur l’évolution de la courbe. Malgré la généralité de cette approche. Ainsi. Dans la formulation eulérienne de l’évolution des courbes planes proposée par Osher [OSHER 1988]. le contraste des contours est suffisant mais peut ne pas s’avérer suffisant si les objets sont caractérisés en termes de niveaux de gris moyens. t ) = 0 . Une expression courante en est g (I ) = 1 1 + grad (I1 ) p . Le rôle de la fonction g est de ralentir l’évolution de la courbe au voisinage des fortes variations de niveaux de gris. s. L’un des intérêts de cette formulation est qu’une courbe de niveau n’est pas forcément connexe. on cherche à utiliser une correspondance entre la courbe en évolution et une courbe de niveau sur l’ensemble de l’image : à l’instant t. il suffit de considérer une famille de surfaces biparamétrées (r et s) évoluant dans le temps à la place des courbes planes. Il faut alors faire référence à la courbure moyenne H d’une surface en un point. etc. de texture. cette approche géométrique accepte les modifications de topologie : fusions et divisions de courbes au cours de l’évolution. . Dans la plupart des cas. il est courant d’utiliser l’approche « régions » de la segmentation pour initialiser cette approche « frontières ». L’image I1 résulte ici d’un filtrage passe-bas de l’image I.Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse 55 L’utilisation du terme constant ν permet d’initier l’évolution de la courbe dans le cas d’une courbure nulle. La seconde difficulté réside dans le choix du facteur d’arrêt (la fonction g). les contours et les surfaces actives présentent deux difficultés.

Il propose une description des scènes tridimensionnelles utilisant trois approches successives : 2D. Plusieurs approches de l’extraction de propriétés perceptuelles pertinentes pour la reconstitution d’objets sont présentées dans le travail de F. C’est à ce niveau qu’on fait appel à l’étude des phénomènes de regroupement. l’ œ il constitue des lignes virtuelles de séparation entre des groupes homogènes. La théorie de la Gestalt est un modèle de la perception visuelle humaine énoncé par Wertheimer dans les années 1920. C’est le cas des représentations pyramidales manipulées lors de divisions et fusions de régions ou lors des analyses multi-échelles que nous avons déjà abordées [BERTIN 1994].2. Au sein d’une population d’objets. les graphes et les arbres ont servi à représenter les structures internes de certaines stratégies de traitement d’images. 2D1/2 et 3D.4. les a naturellement impliqués dans l’étude de l’architecture de telles populations. Enfin.1. ont déjà été utilisés pour optimiser plusieurs types d’opérations de traitement d’images. Certaines opérations de traitement d’images ont alors été adaptées aux cas où les points possèdent un nombre quelconque de voisins. Segmentation dans le contexte de la théorie des graphes. Les graphes de voisinage et les structures qui en sont déduites. à une position quelconque dans l’espace. Dans un premier temps. C’est en particulier le cas des images biologiques où de nombreuses cellules sont organisées les unes par rapport aux autres. leur efficacité à représenter des populations d’objets répartis dans une image. En complément. en deux ou trois dimensions. en particulier les arbres de recouvrement minimal (MST pour « minimum spanning tree »). les graphes présentent une structure de voisinage qui permet de généraliser la notion d’image en tant que collection structurée de points.56 Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse II. La première étape repose sur les caractéristiques intrinsèques de primitives géométriques (les points ou les lignes) et sur leur distribution au sein de l’image. selon quelques règles génériques : . Partition de populations Le système visuel humain est capable de détecter des frontières au sein des images en se basant sur d’autres propriétés que l’intensité des niveaux de gris. Elle formalise le regroupement d’objets dans une scène. Cette section présente les développements les plus fréquents. Les principes de regroupements ont été largement étudiés et utilisés dans la vision par ordinateur et le traitement d’images. II.2. Mao [MAO 1995]. La théorie la plus complète de la vision humaine a été élaborée par David Marr [MARR 1982].4.

• symétrie. regroupement de lignes ayant des extrémités proches et des directions voisines. sur la figure 24. si µ et σ sont la moyenne et l’écart type des distances entre les points et leur plus proche voisin. regroupement d’objets symétriques par rapport à un axe quelconque. l’arête [AB] est déclarée inconsistante puisque son poids (32) est supérieur à la moyenne des autres arêtes liées à A (11) et à la moyenne des autres arêtes liées à B (12. Un autre exemple proposé est de ne construire que les arêtes d’un sommet à ses 3 plus proches voisins. • similarité.33).Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse 57 • proximité. regroupement de points proches les uns des autres. Une autre technique proposée par Zahn est d’utiliser l’arbre de recouvrement minimal des points et de supprimer certaines arêtes. La suppression de n arêtes dans un MST permet ainsi de constituer n+1 composantes connexes. Une première technique consiste à construire un graphe de voisinage des points en n’insérant que certaines arêtes.33). Ainsi. des orientations. • familarité. il est proposé de ne pas créer les arêtes de longueur supérieure à µ + 3σ . • continuité. 9 10 12 11 8 32 11 A B 12 14 9 Figure 24 : illustration de la notion d’inconsistance. . • fermeture. regroupement de lignes formant des contours fermés. On obtient ainsi plusieurs graphes représentant les regroupements. Par exemple. regroupement d’objets ayant des formes. L’arête [AB] est inconsistante puisque sa longueur (32) est largement supérieure à la moyenne des autres arêtes liées à A (11) et à la moyenne des autres arêtes liées à B (12. regroupement d’objets que l’on a l’habitude de voir ensemble. Pour cela. La règle de proximité des objets est par exemple utilisé par Zahn [ZAHN 1971] pour mettre en évidence des regroupements de points. des textures voisines. Zahn utilise la notion d’inconsistance : une arête est déclarée inconsistante si son poids (sa longueur dans ce cas) est largement supérieur aux deux moyennes des poids des autres arêtes partant de ses extrémités.

une méthode proposée par C. afin d’obtenir un couple de descripteurs (m. . la suppression de certaines arêtes dans un arbre ou dans un graphe permet de mettre en évidence des regroupements de points en fonction de leur proximité. les valeurs tendent vers m=0.33 (figure 25).66 et s=0. V est la mesure de l’enveloppe convexe de la population. En procédant par seuillages successifs de la matrice de similarité [d (i. Caractérisation d’architectures Différentes techniques utilisant les graphes de voisinage et les arbres associés ont permit d’analyser l’organisation d’objets dans des structures [MAZILLE 1994]. Dussert a calculé que pour une population parfaitement aléatoire d’un grand nombre de points (N=700).2.4. II. un indice de similarité d (i. s ) : m= µ N −1 (N n −1 V ) 1 n et s = σ N −1 (N n −1 V ) 1 n . on forme des groupes d’objets. n correspond à la dimension de l’espace (2 ou 3). Dans ces formules. Par exemple. La partition d’une population d’objets s’effectue également par rassemblement des sommets selon un indice de similarité [TOET 1991]. H représente la surface de l’enveloppe convexe et f est son nombre de côtés : V= H ⋅N . La moyenne µ et l’écart type σ de ces longueurs sont normalisés vis-à-vis du nombre de points et du volume qu’ils occupent.2.58 Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse Ainsi. Dussert [DUSSERT 1987]. j )]i . N représente le nombre de sommets du MST (le nombre de points dans la population à caractériser). C. N− f Ce couple de valeurs permet de classer différentes structures régulières et d’évaluer l’homogénéité d’une population quelconque. j ) est associé à chaque arête. Sur le graphe de voisinage des objets. Dans la définition de cette mesure. En deux dimensions. j . [DUSSERT 1989] utilise la longueur des arêtes de l’arbre de recouvrement minimal d’une population de points. La difficulté consiste à choisir la bonne propriété des objets pour définir cet indice qui doit être plus grand entre deux objets d’un même groupe qu’entre deux objets de deux groupes distincts.

On peut par exemple citer le calcul de la longueur totale du MST (somme des .Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse 59 Figure 25 : quantification de la dispersion d’une population de points grâce à la longueur des arêtes du MST. Pour cela. ces deux grandeurs permettent de comparer des populations de points sur un diagramme à deux entrées. [PALMARI 1997]. s ) vus précédemment. Une autre approche du désordre intrinsèque à un nuage 2D de points utilise la caractérisation des régions de Voronoï associées [ MARCELPOIL 1991]. Pour une distribution aléatoire. on utilise la moyenne RFav et l’écart type σ RF des facteurs de forme et la moyenne Aav et l’écart type σ A de l’aire : RFH = 1 1 et AD = 1 − . On retrouve par exemple l’utilisation de cette caractérisation dans la caractérisation de colonies de cellules en prolifération [PALMARI 1996]. on dispose de son aire A . σ σ 1 + RF 1+ A RFav A av De la même manière que les descripteurs (m. Chaque région de la partition est considérée comme une forme représentative de l’individu qui lui est associé. 2 Li La méthode proposée consiste à calculer deux paramètres afin de décrire la population : l’homogénéité du facteur de forme et le désordre de surface.33. les descripteurs tendent vers m=0. Les MST ont apporté d’autres caractérisations de l’homogénéité d’une population de points. de son périmètre Li et de son i facteur de forme RFi : RFi = 4π ⋅ A i . Pour chaque polygone de Voronoï vor (i ) .66 et s=0.

[VAN DIEST 1992]. 3 voisins ou plus [MEIJER 1992].4. II.3. manipulent des éléments structurants qu’il s’agit de translater en chacun des points de l’ensemble et de mettre en correspondance avec le voisinage des points considérés afin d’y appliquer des opérations ensemblistes. [COSTER 1989]. 2. On peut aussi tracer l’histogramme du nombre de sommets à 1. la recherche d’extrema locaux et de bassins versants. l’érosion et la dilatation morphologiques d’un ensemble de points. n ) ⇔ d G (s . Ces opérations s’appliquent à des images binaires afin de supprimer ou de mettre en évidence certains objets en fonction de leur taille ou de leur forme. Elles s’appliquent également à des images de niveaux de gris afin de traiter des objets que l’intensité fait ressortir sur le fond des images. maximale et moyenne des longueurs des arêtes. s′) ≤ n . s′) = inf {l (Cs . Graphes et morphologie mathématique Les opérations déduites de la morphologie mathématique utilisent pleinement la notion de voisinage [SERRA 1982]. de la longueur minimale.60 Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse longueurs de toutes ses arêtes) [VAN DIEST 1992]. D’autres études théoriques sur l’application des opérations de morphologie mathématique aux graphes ont été faites en reprenant ces définitions.2. La distance entre deux sommets du graphe est le nombre d’arêtes du plus court chemin entre ces sommets : dG (s. L’application des opérations de morphologie mathématique à des graphes a été proposée par Luc Vincent [VINCENT 1990]. Il est ainsi possible de lisser les valeurs des sommets ou d’extraire les squelettes des structures de graphes par recherche d’érodés ultimes [TOET 1991]. L’élément structurant est une boule de centre s et de rayon n définie par s′ ∈ B(s. de l’écart type de ces longueurs [DARRO 1993]. Chaque sommet s ∈ S d’un graphe morphologique G = (S. [SCHMITT 1994]. A) est associé à une valeur de niveau de gris. . s ′ )}. etc. de taille n par composition. Les opérations élémentaires. Ces définitions permettent d’étendre de nombreuses opérations de morphologie mathématique aux graphes : l’érosion et la dilatation de taille 1.

mais aussi en termes de forme pour ces objets. . l’image est composée d’une collection d’objets qui peuvent être caractérisés. Toutefois. Dans le cas d’un graphe quelconque.2. sur les points de chacun des objets. une image peut être caractérisée de manière globale. pour un graphe planaire en 2D. etc. Graphes et champs de Markov L’approche markovienne de la segmentation d’images est une solution efficace pour l’extraction de primitives visuelles à partir d’observations [GEMAN 1984]. Caractérisation Avant d’être segmentée. Nous verrons dans le chapitre suivant que de nombreuses autres opérations peuvent être adaptées au traitement des graphes irréguliers.4. À l’issue de la segmentation. il est important de s’interroger sur la validité de la quantification d’une image vis à vis du contexte dans lequel elle a été acquise. [GÉRAUD 1998]. Le principe est de construire un graphe en associant un n œud à chaque région d’une partition de Voronoï. on ne peut faire la liste des configurations possibles des cliques (liste que l’on peut faire pour des grilles régulières). Dans notre approche du traitement des images par l’intermédiaire des graphes de voisinage. L’histogramme des niveaux de gris fournit en général des renseignements sur l’ensemble de l’image. Elle permet notamment la classification de textures. s′) ∈ S 2 . II. On peut cependant préciser certaines propriétés. Le voisinage vs d’un site s ∈ S est défini par s ∉ vs et ∀(s .Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse 61 II. s ∈ vs ′ ⇔ s′ ∈ vs . l’intérêt des champs de Markov est d’utiliser des définitions de voisinages et de cliques adaptées à la manipulation de graphes irréguliers [MARCHAND 1997].2. Par exemple. indépendamment les uns des autres. Le principal avantage de l’utilisation d’une structure de graphe est de réduire le nombre de sites manipulés lors de la résolution d’un problème et ainsi d’optimiser les traitements. la détection de contours. Une proposition de l’exploitation des champs de Markov dans l’environnement des graphes de voisinage a été faite par Bertin [BERTIN 1994]. Une clique c d’ordre n est alors définie comme un ensemble de n points tels que deux points quelconques de c sont voisins. Ceci peut être fait en termes de niveaux de gris. Chaque n œud est alors considéré comme un site du champ de variables. On voit ainsi les diverses possibilités d’utilisation de la structure de graphe de voisinage dans les opérations de traitement d’images.4. on sait qu’il ne peut exister de clique d’ordre strictement supérieur à 3.5.

1. Pour caractériser l’inhomogénéité locale d’une image ou d’une partie d’image.2) que nous avons choisi d’étendre ces attributs à la troisième dimension.2. L’élément de base n’est pas le point de l’image mais une entité plus grande parfois appelée « texel » par analogie au pixel.5. Nous verrons dans le chapitre suivant (section III. Elle ne présente pas de motif élémentaire et seule une approche probabiliste permet de la quantifier. Cependant. Caractérisation géométrique Dans le cas d’une image segmentée. .5. la moyenne et la variance sont les mesures les plus utilisées.62 Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse II. Pour la texture microscopique. La définition de la texture d’une image est assez subjective et varie d’un domaine d’application à un autre. nous devons faire référence à la notion de texture. les objets peuvent être caractérisés par les niveaux de gris des points qui les composent. • La texture macroscopique correspond à la répétition spatiale d’un motif graphique. caractérisée par une forte granularité. Malgré cette possibilité de caractériser chacun des objets d’une image. la représentation des images sous forme de grilles régulières ne permet que très difficilement l’analyse de la répartition de ces objets. • La texture microscopique correspond à l’organisation des niveaux de gris des points de l’image. II. la texture est plutôt d’ordre macroscopique. mais ils peuvent également l’être par leur forme. on cherche à caractériser chacun des objets qui la composent. Il existe un certain nombre d’attributs géométriques mesurables sur des objets 2D [ELMOATAZ 1990]. Pour en fournir une caractérisation plus précise.2. Nous verrons que l’utilisation des graphes apporte une réponse à ce problème. Pourtant. Comme nous l’avons vu. Dans le domaine de la microscopie cellulaire. ces grandeurs ont l’inconvénient de n’apporter qu’une caractérisation globale de l’ensemble de points : aucune information n’est fournie à un niveau local.2. on peut toujours appréhender la texture à deux échelles. un bon outil de caractérisation est la matrice de cooccurrence.6. Image et objets L’aspect visuel d’un histogramme de niveaux de gris permet d’avoir une idée générale de l’ensemble de points qu’il représente.

dans le domaine de la microscopie confocale. nous avons également présenté les études déjà menées sur cette structure et leur utilisation. sur le volume complet. l’image ne représente en général qu’une petite partie de l’information contenue dans l’échantillon. Il s’agit en fait d’opérer des traitements sur chacun des plans d’une image et de regrouper les informations afin d’obtenir un traitement sur l’ensemble de l’image 3D.3. les images acquises ne sont que rarement isotropes : les voxels d’une image n’ont généralement pas la même taille dans les trois dimensions de l’espace. peut fournir des renseignements sur l’ensemble de ce territoire. Stratégies de traitement des images 3D La troisième dimension Au premier abord. De la segmentation à la caractérisation. régulièrement échantillonnées sur un large territoire. il peut sembler simple de traiter des images tridimensionnelles lorsque l’on est habitué à manipuler des images en deux dimensions.3. il est prudent de déterminer dans quelle mesure la quantification d’une collection d’images.1. nous avons présenté les principes des opérations adaptées au traitement des images de microscopie cellulaire. En utilisant une approche purement tridimensionnelle. Cependant. Les techniques de stéréologie ont montré dans quelles conditions des informations topographiques 3D peuvent être déduites de mesures 2D [COSTER 1989]. la nature des images 3D à manipuler ne permet pas toujours d’utiliser de telles opérations.2.3. Le voisinage considéré autour d’un point est alors un voisinage du type du 6-voisinage ou du 18-voisinage de la grille cubique. le traitement d’une image se fait de manière isotrope. Dans ce cadre. dans le but de représenter et de traiter les images par l’intermédiaire des graphes de voisinage. Il pourrait suffire de généraliser à la troisième dimension des opérations connues de traitement d’images 2D. .Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse 63 II. II. Cependant. il est nécessaire d’être attentif à la signification de ces descriptions vis-à-vis de l’ensemble de l’échantillon observé. En particulier. En effet. Afin de prendre en compte les inhomogénéités des images de microscopie confocale. nous avons complété l’utilisation d’opérations tridimensionnelles par la mise au point de plusieurs stratégies de traitement 2D½. Ces principes sont en général applicables aux images en deux et en trois dimensions. II. nous avons distingué deux méthodes. [HOWARD 1998].5. Échantillonnage Il est donc possible de déterminer des descripteurs pour l’ensemble d’une image et des objets qu’elle contient. Selon le même principe. De plus.

64 Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse • La première consiste à considérer les plans de l’image indépendamment les uns des autres. Le premier concerne le calcul de la norme du gradient de l’image. l’influence du gradient dans la direction z se révèle beaucoup trop importante pour donner des résultats exacts. Au sein d’une image de microscopie confocale obtenue par fluorescence. Une fois que tous les plans de l’image ont été traités. deux plans voisins possèdent une intensité différente malgré la continuité des objets présents. En effet. Le gradient 2D est plus représentatif des variations au niveau des objets alors que le gradient 3D est plus uniforme. à toutes les images obtenues par reconstruction d’acquisition de plusieurs plans. Ces deux stratégies permettent de mettre au point des opérations de traitement des images mieux adaptées à nos images de microscopie confocale et en général. Il s’agit de choisir un plan de l’image comme plan de départ et d’utiliser la segmentation de ce plan pour initialiser la segmentation des deux plans voisins. y et z). C’est en fait un véritable traitement en deux dimensions. Nous avons donc choisi de ne faire intervenir que les directions x et y dans le calcul du gradient (gradient 2D). . En quelque sorte. la segmentation de l’image se propage de plan en plan. la composante du gradient dans la direction z est très importante devant les autres composantes et les effets des bords des objets sont atténués. nous proposons ici deux exemples de traitements non isotropes sur des images 3D. La méthode classique de calcul du gradient en un point consiste à prendre en compte les trois gradients directionnels (en x.3. En utilisant cette méthode. II.2. La figure 26 montre la différence entre le calcul d’un gradient 3D (figure 26b) et d’un gradient 2D (figure 26c). • La seconde est basée sur un principe de croissance et s’applique plus précisément à la segmentation des images. on considère l’ensemble des plans comme une image 3D traitée globalement. Exemples de traitements 2D½ Afin d’illustrer ces stratégies. en raison de la décroissance globale de l’intensité dans les différents plans.

Sur une projection axiale de l’image (dans la direction z). b : norme du gradient calculé en 3D pour ce même plan. nous opérons une première croissance de la partie du fond segmentée. Les contours des objets sont beaucoup mieux localisés. Sur l’ensemble de l’image 3D.Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse 65 a b c Figure 26 : illustration de deux types de calcul du gradient sur une image 3D de microscopie confocale. Les objets peuvent alors être localisés dans ce plan. tous les objets de tous les plans apparaissent et le fond se trouve réduit par rapport à sa taille réelle dans chaque plan. Dans le cas où le fond de l’image est connexe. La localisation des régions correspondant à ces objets peut se réaliser par croissance mais il convient de disposer de points de départ (des germes) pour initialiser la croissance. Nous utilisons cette segmentation pour initialiser la croissance selon le principe suivant. la segmentation de la projection axiale de l’image (figures 27c et 27f) est utilisée pour initialiser la segmentation du plan central de l’image et la segmentation est propagée jusqu’aux plans des figures 27a et 27b (respectivement figures 27d et 27e). • Sur le plan présentant le plus d’objets (plan dont l’intensité moyenne est la plus élevée). c : norme du gradient calculé en 2D sur le plan considéré. Comme les objets sont continus et qu’ils ne présentent pas de très grandes variations de taille entre deux plans voisins. a : un plan d’une image contenant des cellules dissociées. • Une forte érosion de la segmentation d’un plan est alors utilisée comme point de départ pour une croissance dans ses plans voisins non encore segmentés. les objets à détecter. nous avons mis au point une méthode faisant croître la région correspondant à ce fond. cette érosion est suffisante pour obtenir une approximation du fond. Une grande partie de l’information provient de la variation globale d’intensité d’un plan à un autre. Sur la figure 27. . cette technique de segmentation permet de localiser le fond de l’image et par complément. Le second exemple de traitement 2D½ d’une image 3D concerne la localisation d’objets sur un fond.

II. C’est un travail qui se situe à la frontière entre le monde de l’application (biologie. etc. science des matériaux. . d et e : résultat de la propagation de la segmentation de la projection dans deux des plans de l’image.) et le monde du traitement d’images. • Dans un deuxième temps.1. II. a et b : deux plans distants de 7µm dans une image de cellules. f : segmentation de la projection et mise en évidence d’une partie du fond de l’image. Il s’agit de déterminer une suite d’opérations permettant de passer d’une image brute. Environnement de développement d’applications Applications de traitement d’images La mise au point d’une application de traitement d’images est un processus compliqué. il s’agit de définir les objectifs à atteindre et de cerner les caractéristiques invariantes des images à traiter. c : projection axiale de l’image 3D.66 Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse a b c d e f Figure 27 : exemple de segmentation 3D par propagation de segmentations 2D. Plusieurs types de difficultés se présentent au cours des étapes du développement d’une application. • Dans un premier temps. issue de l’acquisition.4.4. il faut expliciter les connaissances mises en jeu dans le raisonnement permettant d’extraire la bonne information. Cette partie résulte d’une négociation entre les experts des différents domaines. Il est nécessaire de structurer le savoir-faire des traiteurs d’images. à un résultat qui met en évidence une information sous la forme d’une image ou d’une série de valeurs numériques.

Ainsi. Elle doit alors diagnostiquer et corriger les imperfections dans l’approche adoptée. il a été montré [ZHANG 1995] que l’utilisation d’une bibliothèque d’opérateurs de traitement d’images est particulièrement efficace. dans un quatrième temps. Les environnements de développement doivent donc être capables de piloter des bibliothèques d’opérateurs de traitement d’images. le partage d’une bibliothèque d’opérateurs par plusieurs utilisateurs apporte enfin l’avantage de pouvoir rapidement valider chacun de ces composants. le développement d’un programme de traitement d’images se fait par le choix des opérations à effectuer et par le choix de l’ordre dans lequel elles doivent être effectuées. dont les n œuds sont des opérateurs de traitement d’images et où les arcs représentent les flux des paramètres et des données de ces opérateurs.) utilisées au cours de l’enchaînement. tests. un tel graphe doit également représenter les structures de contrôle (boucles. dans le cas où une correction serait apportée au fonctionnement d’un opérateur. • Enfin. l’expert en traitement d’images peut alors enchaîner différentes opérations et évaluer le résultat du traitement sans avoir recours au codage des algorithmes et sans se soucier des types de données manipulées. entre la formulation du contexte et des objectifs d’une part et l’évaluation des résultats d’autre part. Dans l’élaboration de la solution à un problème particulier. etc. Pour être complet. C’est par exemple le cas de la bibliothèque KHOROS et de son interface de programmation graphique CANTATA [RASURE 1992] qui permet de définir un graphe orienté. L’utilisation d’une bibliothèque permet d’optimiser facilement chacune de ces tâches et d’enchaîner ces solutions partielles pour résoudre le problème complet. Le lien avec le matériel ne se fait qu’au moment de l’exécution de l’enchaînement. Cette évaluation concerne la fiabilité et la robustesse de la méthode sur un grand nombre d’images. D’un point de vue technique. On doit alors faire le lien entre la conception du programme et le codage informatique des opérations.Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse 67 • Dans un troisième temps. . En effet. La figure 28 illustre les possibilités d’enchaînement d’opérateurs dans l’interface CANTATA de KHOROS. Au cours de cette mise au point. En particulier. Le partage d’une bibliothèque d’opérateurs permet de plus de s’affranchir de l’architecture matérielle utilisée : il suffit de décrire le traitement à réaliser par l’enchaînement d’opérations standardisées. il faut évaluer les résultats. plusieurs tâches indépendantes peuvent également être distinguées et traitées individuellement. tous les utilisateurs en profitent directement. on doit choisir les stratégies à utiliser ainsi que les opérations à appliquer.

Ce choix offre l’avantage de pouvoir facilement développer de nouveaux opérateurs et de pouvoir en assurer la maintenance. Nous avons choisi d’utiliser l’environnement de développement proposé par R. Associé à cette notion d’analyse descendante. II. le niveau fonctionnel qui correspond au choix des méthodes de résolution. La difficulté consiste à expliciter ces connaissances dans un vocabulaire indépendant du domaine d’application. L’enjeu est de proposer un plan de résolution d’un problème en tirant parti de l’expérience acquise lors de l’analyse d’autres problèmes et en réutilisant des portions de plans conservés dans une base de problèmes déjà résolus. Méthodologie de conception Au sein de l’équipe Image du GREYC. .68 Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse Figure 28 : exemple de graphe d’opérateurs de traitement d’images construit dans CANTATA.2. Clouard [CLOUARD 1994]. afin qu’elles soient compréhensibles par l’expert de traitement d’images et utilisables par un système de résolution automatique de problèmes. il est nécessaire de modéliser les connaissances impliquées [CLOUARD 1998]. nous avons abordé le développement d’une application de traitement d’images en adaptant l’analyse descendante classique préconisée en génie logiciel [TARDIEU 1994]. et le niveau opérationnel qui assure la correspondance entre les méthodes choisies et les outils à appliquer.4. La programmation nécessite donc une connaissance des opérateurs disponibles dans la bibliothèque. Dans le but d’aider l’expert de traitement d’images dans sa démarche d’élaboration de programmes. Afin de favoriser l’explicitation de ces connaissances. l’objectif de « l’atelier logiciel d’intégration de connaissances en traitement et interprétation d’images » est de fournir un cadre pour la modélisation et la réutilisation de stratégies mises au point pour résoudre des problèmes de traitement d’images. nous utilisons trois niveaux d’abstraction : le niveau intentionnel qui consiste à formuler les objectifs.

chaque tâche est effectuée par une méthode adaptée. Au niveau fonctionnel de notre approche. . une méthode correspond au choix d’une catégorie de traitement et de l’opération la plus adaptée. le problème à résoudre peut être décrit dans l’approche « tâchesméthodes-outils » de Valérie Ficet-Cauchard [FICET-CAUCHARD 1998]. [FICET-CAUCHARD 1999]. Localiser des noyaux cellulaires dans une image de cytologie Séparer le fond de l’image et les objets Segmenter les régions en objets Sélectionner le fond de l’image Étiqueter les régions Figure 29 : exemple de décomposition d’un problème de traitement d’images. La figure 29 illustre la décomposition hiérarchique d’un problème au niveau intentionnel de notre approche. Le niveau intentionnel de la conception est décrit par l’enchaînement de tâches communes à d’autres problèmes. La figure 30 illustre le choix des méthodes adaptées à la résolution du premier sous-problème de l’exemple de la figure 29. La décomposition d’une tâche complexe en sous-tâches permet de résoudre un problème par l’enchaînement de stratégies déjà utilisées pour résoudre d’autres problèmes.Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse 69 Au niveau intentionnel. En fonction de la description de l’image à traiter et du but à atteindre.

. exposym valvarmax binarisation étiquet age inversion lpe maxima distance inversion Figure 31 : exemple d’enchaînement d’opérateurs PANDORE pour la localisation de noyaux cellulaires dans une image de cytologie. C’est ce niveau opérationnel que nous avons enrichi par l’ajout de nouveaux opérateurs et c’est à ce niveau que nous avons développé les applications de traitement d’images présentées dans le chapitre IV. La bibliothèque PANDORE [CLOUARD et al. 1997] constitue le c œur opérationnel de notre environnement de développement. la conception d’une application de traitement d’images consiste à produire un graphe d’opérateurs tel que ceux décrits précédemment. un tel enchaînement se réalise par la constitution d’un « script » : par l’appel successif des différents opérateurs. Du point de vue de l’exécution.70 Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse Sélectionner le fond de l’image Passer un filtre de lissage Calculer un seuil de binarisation Binariser Lissage exponentiel symétrique Maximisation de la variance interclasse Binarisation Figure 30 : exemple de choix de méthodes pour une tâche de la décomposition précédente. La figure 31 présente l’enchaînement des opérateurs permettant de résoudre le problème proposé en exemple. Au niveau opérationnel.

dont les sorties sont des images ou des valeurs numériques et dont le comportement peut être modifié par des paramètres (valeurs numériques). chaque type reconnu est considéré comme une image. • Chaque opérateur est polymorphe : il peut travailler sur différents types d’images sans que l’utilisateur n’ait à spécifier quelle structure de donnée est manipulée. Il correspond à une opération non décomposable. Ils peuvent ainsi être assemblés pour mettre au point des réponses à des problèmes de traitement d’images. Spécificités de la bibliothèque P ANDORE Nous avons enrichi la bibliothèque PANDORE pour la manipulation des images tridimensionnelles et des graphes de voisinage. Il peut ainsi. les opérateurs de la bibliothèque PANDORE offrent une très grande souplesse d’utilisation. • Chaque opérateur est masquable. Comme le développement de la bibliothèque a été fait grâce à un langage orienté objets (C++). en fonction des domaines d’applications ou des stratégies adoptées pour traiter les images. Une opération complexe est réalisée par l’enchaînement de plusieurs opérateurs atomiques. Ainsi définis. • Chaque opérateur est atomique. et de rediriger les résultats grâce aux « pipes » de communication. Cette possibilité favorise donc le contrôle au sein des graphes d’opérateurs en complétant l’enchaînement des opérateurs par une focalisation des traitements sur certaines parties des images. Le système d’exploitation UNIX fournit un langage de programmation (SHELL) qui permet de contrôler l’enchaînement de ces nouvelles commandes (tests. selon les besoins. Les opérateurs PANDORE peuvent ainsi manipuler différents types d’objets en deux ou trois dimensions : images de points (niveaux de gris ou couleurs).4. etc. Un opérateur se présente sous la forme d’un programme exécutable dont les entrées sont des images. boucles conditionnelles. la bibliothèque reste ouverte vis-à-vis du développement de nouveaux opérateurs. .3. travailler sur l’ensemble des images ou seulement sur certaines parties spécifiées par un masque. la fonction à appliquer est automatiquement sélectionnée en fonction du type des images d’entrées de l’opérateur. graphes d’objets.). De plus. etc. En fait. Les opérateurs PANDORE possèdent trois caractéristiques principales.Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse 71 II. images d’étiquettes.

sur les grilles régulières de points et sur les graphes de voisinage. . Dans le chapitre suivant. d’un certain nombre d’opérateurs utiles à la segmentation et la quantification d’images de microscopie cellulaire.72 Chapitre II : Images de microscopie cellulaire et méthodologie d’analyse Nous disposons donc d’un environnement de développement d’applications de traitement d’images et d’une bibliothèque d’opérateurs de traitement. nous nous plaçons dans ce contexte pour présenter l’implantation.

Chapitre III : Implantation des outils de traitement d’images .

.

La liste complète des opérateurs de la bibliothèque PANDORE est donnée en Annexe 2. les images 3D et les graphes de voisinage. Logique et arithmétique Croissance Différenciation Morphologie mathématique Localisation Accessoires. lissage. utilitaires. Tout d’abord. ce chapitre comporte cinq sections correspondant à différents modes d’accès aux données manipulées. La bibliothèque PANDORE Structures de données Images en niveaux de gris Images couleurs Cartes de régions Graphes d’objets Opérateurs sur les images 2D Classification. pondération Modification de structure Morphologie mathématique Fusion Caractérisation Accessoires. Nous complétons ainsi le chapitre précédent dans lequel nous avons décrit le traitement en termes d’objectifs et de stratégies générales. On y trouve la liste des principaux types de données manipulées et quelques-unes des catégories d’opérations implantées pour les images 2D. Nous abordons ici les opérations de traitement des images sous l’angle des techniques mises en jeu pour leur implantation. utilitaires.Chapitre III : Implantation des outils de traitement d’images 75 Dans ce chapitre. nous avons étendu un grand nombre d’opérateurs généraux à la manipulation des images tridimensionnelles. D’autre part. etc. Figure 32 : organisation de la bibliothèque PANDORE. etc. Opérateurs sur graphes Construction Valuation. nous avons adapté ces opérateurs afin de traiter indifféremment (de façon transparente pour l’utilisateur) les images vues comme des grilles régulières de points et les graphes de voisinage. etc. La figure 32 propose une organisation générale de la bibliothèque PANDORE. nous avons enrichi la bibliothèque PANDORE dans deux directions. nous décrivons les outils nécessaires à . Opérateurs sur les images 3D Seuillage. lissage Croissance Différenciation Logique et arithmétique Morphologie mathématique Caractérisation Accessoires. D’une part. Pour répondre aux besoins liés à nos applications. etc. nous présentons l’implantation choisie pour les opérateurs de traitement d’images dont le principe a été décrit dans le chapitre précédent. Après la présentation des méthodes d’obtention des graphes à partir des images.

) et la classe d’image considérée. les frontières correspondent aux contacts entre les régions et le graphe d’adjacence (figure 33b) représente ces contacts. caractérisation d’une population d’objets. Construction des graphes à partir des images Selon leur utilisation (segmentation hiérarchique. élongation.). sur des images de synthèse ou sur des images réelles. Nous terminons ce chapitre en proposant des opérations de caractérisation des images.76 Chapitre III : Implantation des outils de traitement d’images la visualisation de ces données. Nous étendons alors l’exploitation de ces relations de voisinage pour l’étude des opérations de croissance de régions dans les images et de composantes connexes dans les graphes. . des objets qu’elles contiennent et de la répartition des objets à l’intérieur des images. Nous montrons ainsi qu’un grand nombre d’opérations peuvent être généralisées à cette seconde représentation et que les graphes offrent la possibilité de développer de nouveaux opérateurs de traitement. Les poids des arêtes représentent les propriétés des frontières comme la différence entre les attributs des régions ou le contraste le long de la frontière. Nous présentons ensuite les opérations traitant les images point par point puis en fonction du voisinage des points. surface. Les attributs des sommets peuvent être utilisés pour enregistrer une large gamme de caractéristiques des régions comme la moyenne de niveaux de gris ou des paramètres de forme (direction. nous opérons un parallèle entre les opérations utilisant la représentation des images sous forme de grilles régulières et sous forme de graphes de voisinage. deux types de graphes peuvent être construits : le graphe d’adjacence ou le graphe de voisinage. Dans chacune de ces sections.1. III. Des méthodes de segmentation basées sur la fusion de régions peuvent être grandement simplifiées en manipulant les images par l’intermédiaire des graphes d’adjacence associés. Nous fournissons des exemples. etc. etc. Dans le cas d’une image segmentée en régions (figure 33a). afin de préciser ou de vérifier le comportement de ces opérateurs.

b : graphe d’adjacence correspondant. les relations de voisinage proviennent en général du diagramme de Voronoï (figures 34a et 34b). Le graphe dual du diagramme de Voronoï est appelé le graphe de Delaunay (DG). on parle de diagramme de Voronoï ponctuel. [BERTIN 1994] qui modifie localement la partition lors de l’ajout d’un point. d ( p. Dans le cas contraire. la méthode « divide and conquer » [BOWYER 1981]. Chaque objet oi est associé à une région vor (oi ) contenant les points plus près de oi que des autres objets : p ∈ vor (i ) ⇔ ∀j ≠ i . p j ) Plusieurs techniques ont été développées pour construire la partition de Voronoï d’une population de points. [PREPARATA 1988] procède par regroupement de plusieurs partitions. Dans ce graphe. Ces algorithmes de construction sont efficaces en deux dimensions mais non exploitables en trois dimensions parce que très complexes. Une première catégorie regroupe les algorithmes récursifs. Ce graphe est parfois appelé triangulation de Delaunay puisque les arêtes ne forment que des triangles dans . [CHASSERY 1991. Dans le cas d’une population d’objets. il s’agit d’un graphe de voisinage. même si les objets ne sont plus ponctuels. Dans le cas où ces objets sont réduits à des points. Chapitre 8].Chapitre III : Implantation des outils de traitement d’images 77 A B E D I H J F C G A B D E F K H I J C G K a b Figure 33 : a : image segmentée en régions. pi ) ≤ d ( p. quelle que soit la dimension de l’espace (2D ou 3D). il s’agit du diagramme de Voronoï généralisé [ BERTOLINO 1994]. nous avons choisi de développer une construction par croissance de régions (inspirée de [VINCENT 1990]) : la croissance isotrope des objets produit directement la partition de Voronoï. Ainsi. Le principal inconvénient d’une telle approche est d’obliger une reconstruction totale dans le cas d’ajout ou de suppression d’un point. Une solution est alors d’utiliser un algorithme de construction incrémentale [GREEN 1978]. Ce diagramme est une partition de l’espace en fonction d’une collection d’objets {oi } . chaque arête correspond à une frontière du diagramme de Voronoï et représente une relation de voisinage entre deux objets . En conséquence.

Les attributs du graphe enregistrent des informations sur les objets de la population. c : graphe de voisinage (graphe de Delaunay). Les graphes de voisinage et les graphes d’adjacence disposent alors de toutes les études faites sur les graphes et ils constituent un puissant outil de représentation des images afin d’en simplifier ou d’en accélérer le traitement.2.1. Nous utilisons pour cela divers outils développés au sein du laboratoire GREYC-IMAGE. nous utilisons un outil mis au point par Régis Clouard dans la bibliothèque PANDORE : « visu ». associés à des valeurs numériques. développé par Serge Langlois [LANGLOIS 1998]. b : diagramme de Voronoï. La figure 35 illustre l’utilisation de ce logiciel. a b c Figure 34 : a : population d’objets. III. Visualisation des grilles de points Pour visualiser une image 2D ou un plan particulier d’une image 3D. et les poids caractérisent les relations de voisinage. Ce type de visualisation est complété par le programme « SCT ».78 Chapitre III : Implantation des outils de traitement d’images un espace à deux dimensions (figure 34c). III. Opérations de visualisation La bibliothèque PANDORE manipule désormais des images 2D.2. Dans tous les cas. Nous avons besoin d’apprécier rapidement le contenu de ces différentes structures de données. qui permet d’afficher simultanément plusieurs coupes orthogonales issues d’un voxel de l’image. des images 3D et des graphes de points. . il s’agit d’une représentation d’un ensemble structuré de points.

Dans un mode de fonctionnement du logiciel « SurfTool ».Chapitre III : Implantation des outils de traitement d’images 79 Figure 35 : exemple de visualisation d’une image 3D grâce au logiciel « SCT ». la visualisation de coupes 2D n’est pas suffisante et nous avons besoin d’une véritable visualisation tridimensionnelle des images pour apprécier les positions relatives des objets. . le niveau de gris des facettes correspond à la courbure en cet endroit de l’objet et fournit une appréciation de la forme des objets (figure 36). La surface d’un objet binaire est alors représentée par le graphe des « surfels » séparant l’objet et son complémentaire. Alexandre Lenoir [LENOIR 1997] a développé l’outil de navigation 3D « SurfTool » dans le cadre de son approche surfacique des objets : chaque voxel est constitué de six facettes appelées des « surfels ». Les plans de l’image s’affichent dans la fenêtre principale. Dans certains cas. Deux fenêtres complémentaires permettent de visualiser les deux autres coupes orthogonales passant par un point quelconque.

Un exemple d’une telle représentation est donné par la figure 37. c : graphe d’adjacence des régions. . Cependant. a b c Figure 37 : graphe de voisinage associé à une collection de régions. La visualisation se limite donc au dessin des points les uns à coté des autres. Puisque les graphes que nous utilisons sont valués. Il suffit de dessiner un point pour chaque sommet et de tracer un segment de droite pour chaque arête.2. a : image étudiée (noyau de cellule). Le bord de chaque région est tracé et les frontières paraissent épaisses puisqu’elles sont constituées de deux bords de régions.2.80 Chapitre III : Implantation des outils de traitement d’images Figure 36 : exemple de visualisation d’une image 3D binaire grâce au logiciel « SurfTool ». Le premier type de visualisation de graphe que nous avons mis au point consiste à représenter la structure du graphe. nous devons tenir compte de la position des sommets du graphe dans l’espace. III. la seule information intéressante à représenter est la valeur des niveaux de gris de chacun des points. b : segmentation de l’image. nous pouvons leur appliquer le même type de représentation que les images de points. Visualisation des graphes Pour une image de points.

on trouve les opérations de modification d’histogramme (expansion de .Chapitre III : Implantation des outils de traitement d’images 81 Le deuxième type de visualisation nécessaire lors de la manipulation de graphes correspond effectivement à la visualisation d’images de points. il suffit de dessiner un objet avec le niveau de gris correspondant. Enfin. b : arêtes représentées avec leur poids (ici. La nouvelle valeur peut être décidée a priori. III. c : frontières des régions représentées avec le poids des arêtes. Dans cette catégorie. La première solution consiste à tracer chaque arête avec le niveau de gris correspondant à son poids (figure 38b). nous proposons une visualisation complémentaire : les frontières des régions sont tracées en utilisant un niveau de gris correspondant à ces informations (figure 38c). les graphes que nous manipulons sont pondérés et il est nécessaire de pouvoir visualiser les valeurs des arêtes. Pour les graphes de régions où les arêtes sont pondérées par des informations relatives aux frontières. la différence entre les valeurs des sommets). a b c Figure 38 : différents types de visualisation des informations associées à un graphe. Ces outils nous permettent donc de contrôler visuellement l’enchaînement des opérations manipulant des graphes. a : régions représentées avec les valeurs des sommets associés (ici. indépendamment des points voisins.3. en fonction du point considéré ou en fonction de l’ensemble des points de l’image. Afin d’estimer visuellement la valeur associée à un sommet. Traitements point par point Les traitements point par point modifient les images en remplaçant la valeur d’un point par une autre valeur. Le cas le plus simple est celui où nous disposons d’un graphe de régions : chaque région est affichée avec son niveau de gris (exemple de la figure 38a). le niveau de gris moyen de la région). Les frontières les plus claires correspondent aux régions les plus différentes.

OU. Opérations faisant intervenir le voisinage Un certain nombre d’opérations de traitement d’images modifient la valeur d’un point en fonction des valeurs des points qui l’entourent. etc. une précaution supplémentaire est nécessaire dans le cas des graphes.). La figure 39 propose trois exemples de masques pour des images 2D.) combinant deux images. Chaque point de l’image ou chaque sommet du graphe est affecté d’une nouvelle valeur.82 Chapitre III : Implantation des outils de traitement d’images la dynamique. Les masques permettent d’indiquer les voisins pris en compte lors du traitement d’un point. etc. Les voisins considérés peuvent être les voisins du premier ordre (4-voisinage ou 8-voisinage en 2D. Les modifications d’histogramme s’appliquent sur les graphes de voisinage de la même manière que sur les grilles régulières 2D ou 3D.4. Pour les opérations arithmétiques (addition. il faut pouvoir établir une correspondance exacte entre les deux objets. etc. mais aussi des points plus éloignés sur des voisinages éventuellement non symétriques autour du point traité. Pour pouvoir calculer le résultat d’une opération entre deux points. 18-voisinage en 3D. seuillage. etc. décidée en fonction de la valeur d’origine et d’une fonction de transformation globale.). nous avons très simplement généralisé les opérations traitant les images de points pour les adapter à la structure de graphe. Puisque les opérations de modification des valeurs des points d’une image sont indépendantes de la structure de l’image. . inversion logique. différence) ou logiques (ET.). III. Les opérateurs de la bibliothèque PANDORE effectuant ces opérations ont par conséquent été réalisés pour traiter indifféremment les grilles de pixels et de voxels et les graphes de voisinage. Il est donc nécessaire d’avoir la même structure de graphe (les valeurs associées aux sommets pouvant être différentes). Le principe est le même pour les opérations de traitement manipulant une image (binarisation. Ils permettent ainsi d’appliquer des traitements sur les images vues à différentes échelles (points et objets). les opérations classiques travaillant sur une image et les opérations utilisant simultanément deux images. Toutes les opérations traitant les points d’une image de manière isolée sont donc applicables aux grilles régulières comme aux graphes irréguliers.

deuxième ordre. les points d’un masque sont associés à un poids et la valeur du point de l’image à traiter est remplacée par le résultat d’une convolution (d’une somme pondérée) entre l’image est le masque.1. c : masque d’ordre 2 utilisé dans le filtrage de Nagao. Nous avons implanté des opérations du même type sur les graphes. a : dans le cas d’une grille 2D régulière. Dans les opérations de filtrage. b : voisinage d’ordre 2 en 8-voisinage. etc. Cependant. La figure 40 présente la différence entre un voisinage du premier ordre pour une grille carrée en 8-voisinage et un voisinage du premier ordre pour un graphe de points. Filtres de lissage Avec de tels voisinages (premier ordre. Les seuls voisinages manipulés ne peuvent être définis qu’en terme d’ordre ou de distance par rapport au point considéré.4. . nous avons adapté aux graphes les opérations de convolution. a b Figure 40 : exemple de voisinage du premier ordre. b : dans le cas d’un graphe de points.Chapitre III : Implantation des outils de traitement d’images 83 a b c Figure 39 : exemples de masques en deux dimensions. Elles sont particulièrement adaptées au traitement de graphes représentant des régions dans des images sur-segmentées. À la différence des masques utilisés sur les images pour lesquels tous les poids peuvent être distincts. les graphes ne peuvent pas fournir de masques avec des formes particulières. a : 8-voisinage. dans le cas des graphes. tous les voisins du même ordre doivent être affectés d’un même poids. III.). contrairement aux grilles de points.

C’est par exemple le cas du filtre gaussien. Dans le cas général des graphes. Pour utiliser des techniques analogues en trois dimensions. aucune direction particulière ne peut être mise en évidence.84 Chapitre III : Implantation des outils de traitement d’images Parmi les filtres linéaires. À titre d’exemple. Souvent. Cette absence interdit de généraliser l’implantation séparable des traitements. il est assez intuitif de généraliser le masque utilisé pour évaluer le laplacien d’un point.2. nous nous sommes inspiré des masques 2D de Prewitt et Sobel pour construire des masques 3×3×3 et évaluer les dérivées directionnelles d’une image. III.4. le filtre médian (filtre d’ordre) est le plus utilisé. L’objectif de cette normalisation est de ne pas modifier un signal uniforme. Sa définition est indépendante de la structure de voisinage et il est par conséquent applicable aux graphes. Il faut cependant tenir compte du nombre de voisins d’un sommet pour déterminer la valeur médiane. Les méthodes dérivatives permettent de détecter ces points particuliers de forte variation. Pour les graphes. on peut citer le lissage moyenneur uniforme pour lequel les poids du masque sont identiques et dont la somme est égale à 1. le résultat du traitement peut être obtenu en effectuant des calculs indépendants dans chacune des directions de l’image. ce masque est proposé sur la figure 41. Sur une grille régulière. les coefficients doivent être calculés en fonction de la configuration de chaque sommet (nombre de voisins). . Parmi les filtres non linéaires. Détection de contours Sur le voisinage d’un point. on essaie d’implanter les filtres de manière séparable. En terme d’images en niveaux de gris. Figure 41 : masque utilisé pour calculer le laplacien d’une image 3D. les masques servent également à détecter la présence de brusques variations dans les valeurs des points. la recherche de contours passe par la localisation des variations d’intensité. De même. comme le nombre de voisins d’un point n’est pas connu a priori.

distance moyenne aux voisins. Cependant. on préfère évaluer les variations des valeurs des sommets par des grandeurs statistiques. v ∈ I I S p } et sup{I [v]. etc. etc. L’approche est différente puisqu’il ne s’agit plus d’opérations ensemblistes. Ces opérations de morphologie mathématique peuvent également être appliquées à des images en niveaux de gris. on note Sx le translaté de S par un point x de X. Ces opérations permettent de supprimer ou de mettre en évidence certains objets présents dans une image. la forme de l’élément structurant peut être choisie . Le principe général de ces opérations est de déplacer un élément structurant sur l’image et de calculer l’image transformée en fonction d’opérations ensemblistes entre l’élément structurant et l’image. Leur implantation est simple puisqu’il s’agit de chercher les valeurs maximale et minimale de l’image sur un voisinage donné. Pour un point p d’une image I. en se basant sur des critères de taille.Chapitre III : Implantation des outils de traitement d’images 85 Dans le cas des graphes. [SCHMITT 1994].4. . Les graphes morphologiques proposés par Luc Vincent [VINCENT 1990] sont traités par de telles opérations mais ils ne contiennent que des valeurs de niveaux de gris. [COSTER 1989]. nous pouvons valuer les sommets des graphes avec n’importe quel type d’informations (surface. Sx ∩ X ≠ ∅}. on travaille toujours sur le voisinage du point traité.) et nous pouvons opérer les mêmes transformations. v ∈ I I S p }.3. Sx ⊂ X} et d S ( X ) = X ⊕ S = {x ∈ X . Dans notre cas. le calcul de dérivées directionnelles n’a pas de sens. l’érosion et la dilatation remplacent respectivement la valeur I [ p ] par inf {I [v]. Selon le résultat souhaité. III. En conséquence. Par exemple. on peut estimer la variation autour d’un sommet par le calcul de la variance sur son voisinage. Nous avons aisément généralisé ces opérations aux graphes en modifiant la notion de voisinage et d’élément structurant. L’érosion et la dilatation de X par S sont alors définies par eS ( X ) = XΘS = {x ∈ X . il s’agit en fait de choisir la forme du voisinage pris en compte. De plus. Pour un ensemble X (une image binaire) et un élément structurant S. de forme. leur application à des images binaires donne un résultat conforme aux opérations ensemblistes définies précédemment. Morphologie mathématique Le voisinage d’un point intervient dans les opérations déduites de la morphologie mathématique [SERRA 1982]. d’orientation.

d n (G )( p ) = sup{v(q ). c : dilatation d’ordre 1 du graphe. b : érosion d’ordre 1 du graphe. Le graphe utilisé (figure 42b) est le graphe d’adjacence d’une collection de régions polygonales (figure 42a). b : graphe d’adjacence des régions. a : graphe binaire représenté par des polygones noir pour les sommets à la valeur logique vrai et par des polygones blancs pour les sommets à la valeur faux. q ∈ Vn ( p )}. . a : collection de régions polygonales. La figure 43 montre un exemple d’érosion et de dilatation pour un graphe binaire. La figure 44 illustre l’ouverture et la fermeture morphologique sur le même graphe binaire.86 Chapitre III : Implantation des outils de traitement d’images L’érosion en et la dilatation d n d’un graphe G se font sur un voisinage d’ordre n : en (G )( p ) = inf {v(q ). q ∈ Vn ( p )}. a b Figure 42 : structure utilisée pour l’illustration des opérations de morphologie mathématique sur les graphes. a b c Figure 43 : opérations morphologiques sur un graphe binaire. On utilise ces régions pour visualiser la valeur des sommets. Nous avons alors adapté l’ouverture et la fermeture morphologique aux graphes en combinant une érosion et une dilatation.

la reconstruction peut également être appliquée aux graphes de voisinage. Nous n’avons pas implanté la lpe en tenant compte de cette définition. Sur une image binaire. La combinaison des érosions et dilatations conduit à d’autres opérations utiles. L’implantation la plus simple de la reconstruction par dilatation consiste à enchaîner des dilatations de l’objet X. Ce type de localisation est souvent utilisé pour initialiser un processus de croissance de régions ou de déformation de contours. Nous avons par exemple implanté la reconstruction morphologique par dilatation. Puisqu’elle peut être réalisée par la répétition d’opérations morphologique de base. [BELHOMME 1996]. indifféremment sur les grilles régulières et sur les graphes. Nous verrons dans la section suivante (III.Chapitre III : Implantation des outils de traitement d’images 87 a b Figure 44 : opérations morphologiques sur un graphe binaire.5) que la croissance de régions permet de calculer la lpe de manière efficace. elle élimine les petits objets. cette opération permet de supprimer les maxima régionaux d’intensité. b : fermeture d’ordre 1 du graphe de la figure 43a. Sur une image en niveaux de gris. tout en conservant les contours exacts des plus grands (au contraire de l’érosion qui réduit également les grands objets). a : ouverture d’ordre 1 du graphe de la figure 43a. Nous avons ainsi la possibilité d’extraire des maxima régionaux sur les graphes. Reconstruire un objet X dans un objet Y tels que X ⊂ Y revient à opérer des dilatations de X tant que le résultat reste inclus dans Y. La morphologie mathématique est enfin à l’origine de la définition de la ligne de partage des eaux (lpe) [COSTER 1989]. contraintes à l’intérieur de Y. La répétition d’amincissements morphologiques utilisant des éléments structurants bien choisis permet de localiser la séparation des zones d’influences de différents germes (ponctuels ou non). . jusqu’à ce que la transformation soit stable. L’utilité de la lpe sera présentée dans la même section que son implantation.

le second utilise les 13 derniers points (numéros 13 à 25).4. Deux balayages opposés sont effectués successivement en utilisant deux demi-masques (4 des 8 voisins en deux dimensions). Dans le cas des grilles régulières. Nous .88 Chapitre III : Implantation des outils de traitement d’images III. à lui affecter une nouvelle étiquette et à affecter cette même étiquette à tous ses voisins non encore étiquetés. nous avons adapté cette technique en utilisant la numérotation des voisins d’un point définie sur la figure 17.5. la connexité d’un graphe peut être incomplète : un graphe peut être constitué de plusieurs sous-graphes non connectés. Cependant. Étiquetage des composantes connexes L’objectif de la segmentation est d’affecter une étiquette à chacun des points de l’image : le numéro de la région à laquelle il appartient. En trois dimensions. III. Par exemple. D’une part. la structure de graphe nous permet de mettre en place d’autres méthodes de numérotation.4. Il est alors immédiat de numéroter les composantes définies par leur véritable structure de voisinage. La technique la plus classique d’étiquetage repose sur le parcours séquentiel de l’image. il suffit de ne prendre en compte que les arêtes dont le poids est inférieur à un seuil pour distinguer plusieurs composantes. La méthode générale consiste à choisir un point non encore étiqueté dans l’image. Dans le cas des graphes. Construction de composantes homogènes Nous généralisons dans cette section la notion d’étiquetage présentée précédemment. à la différence d’une grille régulière. Ces différentes techniques permettent donc de généraliser à la structure de graphe les opérations d’étiquetage mises au point sur les grilles de pixels et de voxels et ainsi de mettre en évidence plusieurs groupes d’objets dans une image. tous les points sont connectés et la notion de voisinage doit être nuancée en ne tenant compte que des voisins dont les valeurs sont égales. nous pouvons utiliser la même notion de voisinage et affecter le même numéro de composante à deux sommets voisins dont les valeurs sont égales. L’objectif est encore de numéroter des composantes connexes mais nous souhaitons utiliser d’autres critères d’homogénéité que la stricte égalité entre les valeurs des points voisins. plutôt que d’utiliser la fonction de valuation des sommets d’un graphe. D’autre part. Le premier demimasque est constitué des 13 premiers voisins (numéros 0 à 12). nous pouvons faire appel au poids de ses arêtes pour modifier fictivement la connexité d’un graphe.

Croissance dans les grilles de points Dans une grille de points. consiste à utiliser une file d’attente. selon un critère d’homogénéité choisi. Ce procédé a été proposé par Luc Vincent et nous l’avons généralisé à nos différents types d’images.5. applicables aux grilles régulières et aux graphes de voisinage. par généralisation de la technique d’étiquetage.1. Cependant. l’implantation la plus générale. dans lequel les germes peuvent être composés d’un ou plusieurs points (pixels. permettant de manipuler indifféremment une grille de points ou un graphe de voisinage. la croissance de régions peut être effectuée en utilisant des masques. • La croissance de composantes connexes s’effectue à partir de germes (ponctuels ou constitués de plusieurs points connexes) et consiste à affecter chacun des points à la composante de l’un de ses voisins. • La partition de la population de points en plusieurs composantes se fait en supprimant toutes les relations de voisinage entre les points ne respectant pas le critère d’homogénéité. III. Nous présentons successivement la croissance dans les grilles de points et dans les graphes de voisinage puis la partition de graphes.Chapitre III : Implantation des outils de traitement d’images 89 proposons pour cela deux approches complémentaires. Nous avons réalisé cette implantation grâce à l’algorithme suivant. voxels ou sommets d’un graphe) : Initialisation : Les germes sont numérotés (ils constituent l’état initial des composantes en expansion) Pour chaque point p de l’image Si p est un germe ou fait partie d’un germe Alors insérer p dans la file d’attente Fin du test Fin de la boucle d’initialisation Tant que la file d’attente n’est pas vide Extraire un point p de la file d’attente Soit n le numéro de la composante de p Pour chacun des voisins q de p Si q n’est pas encore affecté à une composante et si q respecte le critère d’homogénéité avec la composante n Alors Affecter q à la composante n .

À chaque instant. Chaque point est alors associé à un potentiel et la file d’attente est maintenue triée selon ces potentiels. appartenant à un germe numéro n Alors insérer le couple (p.90 Chapitre III : Implantation des outils de traitement d’images Insérer le point q dans la file d’attente Fin du test Fin de la boucle Fin de la boucle La structure utilisée ici est une simple file d’attente (FIFO pour « first in first out ») contenant des points déjà affectés à une composante. le point le plus approprié (par exemple. dépendant uniquement de l’ordre de parcours des voisins d’un point. Un exemple d’une telle croissance est proposé sur la figure 45. autorisant des insertions à n’importe quel endroit de la file d’attente. les points sont examinés dans un ordre quelconque. b : frontières des trois régions obtenues à l’issue de la croissance. à chaque itération. à la recherche de partitions de Voronoï. la file contient ici des points susceptibles d’être affectés à une composante en croissance. le point de plus faible potentiel) : Initialisation : Les germes sont numérotés (ils constituent l’état initial des composantes en expansion) Pour chaque point p de l’image Si p ne fait pas partie d’un germe et si il existe un voisin q de p. Dans ce cas. Il s’agit donc d’une croissance géométrique. bien adaptée au calcul de cartes de distance. a b Figure 45 : exemple de croissance géométrique autour de germes. Afin de gérer une croissance prioritaire.n) dans la file d’attente. a : trois germes dans une image bidimensionnelle. et par extension. L’algorithme précédent est modifié pour manipuler. selon le potentiel de p Fin du test Fin de la boucle d’initialisation . nous avons choisi d’utiliser une structure plus complexe.

1. c : frontières des trois régions obtenues à l’issue de la croissance. Dans ce cas. En fonction de ce principe général.n) de la file d’attente Si p respecte le critère d’homogénéité avec la composante n Alors Affecter p à la composante n Pour chacun des voisins q de p Si q n’est pas encore affecté à une composante Alors insérer le couple (q.5. . Ligne de partage des eaux Dans le contexte de cette croissance prioritaire. nous avons mis en place plusieurs cas particuliers de croissance. Par exemple. Les germes considérés sont ceux de la figure 45a.n) dans la file d’attente. b : amplitude du gradient de l’image. utilisée comme potentiel pour la priorité. a : image d’origine (noyaux de cellules). le troisième germe est dans le fond de l’image. l’algorithme de recherche de la ligne de partage des eaux d’une collection de germes devient un simple cas particulier. sur la figure 46. le potentiel utilisé est l’amplitude du gradient de l’image. III.Chapitre III : Implantation des outils de traitement d’images 91 Tant que la file d’attente n’est pas vide Extraire le meilleur couple (p.1. sur les grilles de points ou sur les graphes de voisinage. Il suffit de choisir les germes et la fonction de potentiel pour localiser les objets présents dans l’image. Deux germes sont à l’intérieur des objets. a b c Figure 46 : exemple de croissance prioritaire autour de germes. en fonction du potentiel de q Fin du test Fin de la boucle Fin du test Fin de la boucle Ce type de croissance permet donc de tenir compte du contenu de l’image sur laquelle elle est appliquée.

Nous avons également utilisé un critère d’homogénéité global pour chaque région. que les points des bords des régions en croissance. le niveau de gris moyen de celle-ci est modifié en fonction du point ajouté et la croissance continue avec cette nouvelle valeur. Nous utilisons pour cela une file d’attente prioritaire dans laquelle ne sont présents. Seul le potentiel des points est utilisé pour fixer l’ordre dans lequel ils sont affectés à la région d’un de leurs voisins. Pour des régions dont les niveaux de gris ne sont pas uniformes.3. Critère local d’arrêt de la croissance Dans le cas général de la croissance. Un point v est affecté à une région Ri si sa valeur laisse la moyenne de la région à l’intérieur d’un intervalle défini d’avance. La ligne de partage des eaux est largement utilisée pour localiser des objets contrastés sur un fond ou pour séparer des objets collés. La croissance de chacune des régions se termine en général lorsque le critère d’homogénéité choisi n’est plus respecté. card (Ri ) + 1 À chaque fois qu’un point est affecté à une région. s2 ] . nous avons développé un opérateur calculant a posteriori le meilleur moment pour arrêter la croissance.5. Nous utilisons ici un critère de la forme moyenne(Ri ) − moyenne( Ri ) × card (Ri ) + I [v] ∈ [s1 . Un inconvénient est que l’arrêt est déterminé au cours de la croissance et qu’il s’agit d’un critère local d’arrêt. Ce n’est qu’au moment où les régions se rencontrent qu’une indétermination peut apparaître. La croissance se fait sans restriction (sans utiliser de critère d’homogénéité) par la suppression . ce critère est plus efficace que le précédent. III.2.92 Chapitre III : Implantation des outils de traitement d’images aucun critère d’homogénéité n’est utilisé. les germes sont les érodés ultimes ou les maxima de la distance à l’intérieur de l’amas d’objets et le potentiel est l’inverse de cette fonction de distance. Dans le second cas.1. III. Pour un seuil s fixé. le voisin v d’un point p sera affecté à la même région que p si I [ p ] − I [v] ≤ s . les extrema de niveau de gris (pour les objets et pour le fond) constituent les germes et la norme du gradient de l’image sert de potentiel.1. à chaque instant. Dans le premier cas.5. le critère local d’homogénéité peut être la ressemblance des points voisins en terme de niveaux de gris. Arrêt « a posteriori » de la croissance En complément.

Lorsque tous les points de l’image ont été numérotés. Elle est donc adaptée aux images dont le fond est connexe. la fonction de contraste présente une forte variation à chaque fois que les bords des régions en croissance sont en correspondance avec les contours des objets de l’image. Il suffit de faire croître une région qui correspond au fond de l’image pour localiser le bord des objets. On cherche alors la plus forte variation du coût en fonction du nombre d’itérations. En raison de la priorité. et nous utilisons le gradient de l’image (figure 46b) comme potentiel pour la priorité et pour le calcul du contraste. un coût est calculé : il s’agit par exemple de la moyenne des potentiels des points de la file. Chacun des maxima correspond au moment où la région en croissance passe de l’extérieur vers l’intérieur des objets à localiser . Nous initialisons la croissance avec une partie du fond de l’image (bord de l’image sur la figure 48a). Sur cet exemple. Le grand intérêt de ce type de croissance par rapport aux principes présentés précédemment est qu’il n’est pas nécessaire de disposer de germes à l’intérieur et à l’extérieur des objets à localiser. la phase de simulation est terminée. On évalue ainsi un contraste sur le contour des objets.Chapitre III : Implantation des outils de traitement d’images 93 du premier point de la file et par l’insertion de ses voisins non encore traités. À chaque itération. la courbe est globalement croissante : on commence par croître autour des faibles potentiels. selon le second algorithme présenté au début de la section (III. Figure 47 : évolution de la fonction de coût calculée lors de la croissance. En choisissant le module du gradient de l’image comme potentiel.5). il s’agit de la moyenne de l’amplitude du gradient sur les points de contour de la région en croissance. chaque frontière correspond à un maximum de gradient donc de contraste. La courbe de la figure 47 illustre l’application de ce principe à l’image de la figure 46a (deux noyaux de cellules). .

Nous disposons donc d’une panoplie de méthodes de croissance permettant de localiser des objets dans des grilles de points. etc. l’arrêt au niveau du premier maximum de la fonction de coût. d : après le second maximum. Cependant. a b c d Figure 48 : différentes étapes de la croissance correspondant à la courbe de coût de la figure 47. cette détection est effectuée visuellement pour chaque image traitée et correspond au premier maximum local d’amplitude suffisante. a : initialisation avec une partie du fond de l’image (les pixels du bord). si plusieurs sommets sont susceptibles d’être affectés à la même composante en croissance. Actuellement. l’ordre dans lequel sont parcourus les sommets d’un graphe peut modifier le résultat de la croissance de composantes connexes. les deux objets sont remplis. En effet.2.5. cette détection pourrait certainement être effectuée automatiquement. la suite de la croissance avant et après le second maximum. Croissance dans les graphes de voisinage Comme pour les opérations de croissance dans les grilles de points. III. le choix d’un de ces sommets va avoir une influence sur la suite de la croissance : les autres sommets risquent d’être affectés à d’autres composantes avant d’être à nouveau considérés. La région en croissance est ici représentée en blanc. En particulier. le critère d’homogénéité peut ne plus être respecté. on choisira de rechercher la ligne de partage des eaux ou de faire croître une portion du fond de l’image. la région pénètre à l’intérieur d’un des objets de l’image. .94 Chapitre III : Implantation des outils de traitement d’images Lorsque la croissance est terminée. b : arrêt de la croissance lors du premier maximum de contraste. on détecte sur la courbe le nombre d’itérations donnant la meilleure correspondance avec les objets recherchés et on recommence la croissance en s’arrêtant dès que ce nombre d’itérations est atteint. selon que l’on dispose ou non de germes à l’intérieur des objets. c : après le premier maximum de la fonction de coût. La figure 48 présente différentes étapes de cette croissance : l’initialisation.

Sur la figure 49b. La figure 49 illustre ce type de croissance sur un graphe artificiel : des points sont positionnés aléatoirement dans un espace à deux dimensions et le graphe de voisinage est calculé par l’intermédiaire de la partition de Voronoï.2. Ligne de partage des eaux Le tri des sommets d’un graphe en fonction de leur potentiel permet de généraliser le recherche de ligne de partage des eaux déjà présentée sur les grilles de points.5. Il s’agit de préciser l’ordre de sélection des sommets à examiner. nous avons choisi d’appliquer l’opération de croissance sur des informations géométriques : le potentiel de chaque sommet est donné par la distance euclidienne à son plus proche voisin (la méthode laisse cependant la possibilité d’utiliser tout autre potentiel).Chapitre III : Implantation des outils de traitement d’images 95 Nous présentons ici quelques cas particuliers de la stratégie générale de croissance dans les graphes. on voit grâce aux couleurs que la croissance ne fournit pas le résultat auquel on pouvait s’attendre en termes de proximité. En effet. On constate donc que la recherche de ligne de partage des eaux sur un graphe ne peut pas être simplement généralisée de la recherche sur une grille de points. les germes sont donc les sommets les plus proches de leur premier voisin.1. Comme pour la recherche de la ligne de partage des eaux sur une grille de points. l’affectation d’un sommet à une composante dépend de l’ordre de parcours des voisins de ce sommet. Sur cet exemple. III. les sommets dont le potentiel est un minimum local sont choisis pour germes et la croissance est effectuée autour de ces germes. les sommets sont traités dans l’ordre croissant de leurs potentiels mais dans le cas où plusieurs possibilités se présentent. Dans ce cas. cet ordre de parcours correspond à l’ordre de construction du graphe. . Ici. la croissance s’opère de manière parallèle autour des différents germes. Puisque le graphe ne représente ici aucune image de niveaux de gris.

b : résultat de la croissance. L’algorithme général de croissance prioritaire doit alors être modifié puisque dans ce cas. a : graphe artificiel utilisé comme support. Les germes sont les sommets dont la valeur est un minimum local. basée sur les poids des arêtes. Au moment de leur insertion dans la file d’attente.q) de la file d’attente . la file d’attente contient des couples de sommets voisins. La structure de graphe permet de mettre en œuvre une autre technique. triés selon le poids des arêtes qui les relient. l’ordre de la croissance peut utiliser le poids de l’arête entre un sommet et son voisin.q) dans la file d’attente. Ces valeurs servent de potentiels pour la croissance. en utilisant les valeurs des sommets comme critère de priorité. L’algorithme devient alors : Initialisation : Les germes sont numérotés (ils constituent l’état initial des composantes en expansion) Pour chaque sommet p affecté à une composante Soit n le numéro de composante de p Pour chaque voisin q de p non encore numéroté Insérer le couple (p. Cette première croissance utilise une parfaite analogie avec les images de points.96 Chapitre III : Implantation des outils de traitement d’images a b Figure 49 : exemple de croissance de composantes connexes à l’intérieur d’un graphe. En effet. Chaque sommet est valué par la distance à son plus proche voisin. chacun de ces couples est composé d’un premier sommet déjà affecté à une composante et d’un second qui n’est pas encore affecté. selon le poids de l’arête correspondante Fin de la boucle Fin de la boucle d’initialisation Tant que la file d’attente n’est pas vide Extraire le meilleur couple (p. plutôt que d’utiliser la valeur associée à ce voisin. Les germes sont représentés par des points plus gros que les autres sommets.

en utilisant le poids des arêtes comme critère de priorité. Figure 50 : croissance de composantes connexes dans un graphe.v) dans la file d’attente. Ce dernier type de croissance est particulièrement adapté à la recherche de regroupements perceptuels où seule la . On constate ainsi que pour certaines opérations de traitement d’images.q) de la file d’attente Fin de la boucle Soit n le numéro de composante du sommet p 97 Si le critère d’homogénéité est vérifié pour les sommets p et q et la composante n Alors Affecter q à la composante n Pour chaque voisin v de q non encore affecté à une composante Insérer le couple (q. on obtient des composantes connexes correspondant à la géométrie de la structure. une seule composante est proposée pour le sommet étudié et l’ordre de construction du graphe n’intervient pas. selon le poids de l’arête correspondante Fin de la boucle Fin du test Fin de la boucle La figure 50 montre le résultat d’une telle croissance sur le graphe de la figure 49a. La structure utilisée est le graphe de la figure 49a. En utilisant la longueur des arêtes comme paramètre de priorité. il n’est pas immédiat de passer des grilles de points aux graphes de voisinage. Les arêtes sont pondérées par leur longueur dans l’espace 2D euclidien. Les germes (minima locaux de la fonction « distance au plus proche voisin ») sont représentés par des points plus gros.Chapitre III : Implantation des outils de traitement d’images Tant que le sommet q appartient à une composante Extraire à nouveau le meilleur couple (p. À chaque itération.

En effet.98 Chapitre III : Implantation des outils de traitement d’images proximité des objets intervient. Nous avons utilisé notre algorithme de croissance prioritaire dans les graphes afin d’implanter une stratégie de fusion de régions basée sur la méthode de Mumford et Shah [ACKAH-MIEZAN 1993].… RN . M k représente la moyenne des niveaux de gris des points de la région Rk et l (∂Rk ) représente la longueur du bord de cette même région. Rj )) des frontières entre deux régions Ri et R j : E=∑ k =1 N p∈Rk ∑ I [ p] − M 2 k + 2α 1≤ i < j ≤ N ∑ l (∂ (R . On peut également écrire la formule de l’énergie en utilisant les longueurs l (∂ (Ri .5. III. R )). Croissance par optimisation globale En correspondance avec une image segmentée en régions. Il faut cependant connaître a priori le nombre de composantes et disposer d’un germe (d’un représentant) pour chacune d’elles. fusionner certaines régions voisines revient à déterminer une composante connexe dans le graphe qui représente ces régions et à fusionner les sommets qui la composent. Le paramètre α permet de donner une plus grande importance à l’intensité ou au périmètre des régions. Il s’agit d’une approche d’optimisation globale de la structure manipulée : sur une image I segmentée en N régions R1 . Nous avons donc mis au point une opération élémentaire de fusion entre deux sommets voisins et nous l’avons intégrée au cours des opérations de croissance dans les graphes. 2 k =1 N Dans cette formule. l’objectif est de faire décroître une énergie dont la forme discrète simplifiée est E=∑ k =1 N p∈ Rk ∑ I [ p ] − M k + α ∑ l (∂Rk ) . Les stratégies de fusion de régions se traduisent alors directement en stratégies de croissance. i j . le résultat d’une opération de croissance dans un graphe peut être vu comme une opération de fusion de régions.2.2.

À chaque instant. a b c d e Figure 51 : a : portion d’image de cytologie. b : segmentation initiale obtenue par lpe sur le gradient de l’image. La figure 51 présente un exemple d’application de cette opération. l’illustration est faite sur une image segmentée en régions. nous avons appliqué cette technique à la fusion dans les graphes. c : application de la fusion de régions inspirée de Mumford et Shah avec α = 0.Chapitre III : Implantation des outils de traitement d’images 99 La méthode d’optimisation de Mumford et Shah s’applique à la fusion de régions. d : fusion avec α = 2 .1 . À chaque moment. la fusion de deux régions Ri et R j est opérée si l’énergie globale est diminuée par cette fusion. En répétant cette opération jusqu’à la stabilité du nombre de sommets dans le graphe. . On y voit quelques noyaux de cellules. R j )) . La variation d’énergie peut alors être exprimée en fonction de paramètres locaux : ∆E = card (Ri ) + card (Rj ) card ( Ri ) × card (R j ) × M i − M j − 2α × l (∂ (Ri . à partir des minima locaux de niveau de gris. Les régions de la segmentation initiale sont fusionnées pour plusieurs valeurs du paramètre α . le couple de sommets offrant la plus forte diminution d’énergie ( ∆E minimum) est retenu et les sommets sont fusionnés. identique à une opération de croissance de composantes connexes. Afin de se rendre compte du résultat de la fusion de sommets dans le graphe. e : fusion avec α = 15 . Chaque région est associée à un sommet et la fusion de deux sommets se traduit au final par la fusion des régions. 2 En affectant une moyenne de niveau de gris et un périmètre (un nombre de points) à chaque sommet et un poids à chaque arête. nous obtenons une véritable opération de fusion de sommets.

. en cas de succès. b : sursegmentation obtenue par lpe. Sur les figures 51 et 52. e : fusion avec α = 22 . f : fusion avec α = 28 . les objets sont correctement localisés puisque leurs véritables contours sont présents dans la sursegmentation initiale et que les frontières les plus appropriées sont conservées par l’opération de fusion. Cependant. Le paramètre α permet de privilégier la fusion de régions ayant des intensités voisines ou la fusion de régions ayant une grande frontière commune. d : fusion avec α = 1. La figure 52 illustre le résultat de la fusion pour différentes valeurs de α. basée sur l’optimisation d’une fonction d’énergie globale.100 Chapitre III : Implantation des outils de traitement d’images Nous avons également appliqué cette technique à l’image de la figure 46 afin de pouvoir comparer le résultat des différentes approches. Il influe directement sur l’ordre des fusions.8 . L’intérêt principal de cette méthode de segmentation est d’exploiter la représentation explicite d’une collection de régions et de leurs relations d’adjacence par une structure de graphe. Nous constatons sur ces exemples que le choix du paramètre est très délicat et qu’il ne permet pas toujours d’obtenir la segmentation recherchée. c : fusion de régions avec α = 0.1 . a b c d e f Figure 52 : a : image à segmenter. Nous disposons ainsi d’un modèle général de segmentation par fusion de régions. chaque résultat correspond à la situation finale des fusions pour un paramètre α fixé et il n’est pas possible de passer directement d’un résultat à un autre. combinant divers critères locaux sur ces régions.

Partition de graphes Afin de mettre en évidence certaines propriétés d’homogénéité dans la population d’objets qu’il représente. Le principe de la partition d’un graphe consiste à supprimer certaines arêtes ne vérifiant pas ce critère d’homogénéité.3.Chapitre III : Implantation des outils de traitement d’images 101 III. Sur la figure 53. des regroupements sont facilement identifiables au sein d’un ensemble d’objets. À partir d’un ensemble d’objets. Nous avons mis en place une opération de coupure optimale permettant d’exploiter cette possibilité. un graphe peut être segmenté en plusieurs composantes connexes. Les graphes et leurs structures dérivées. [MAZILLE 1994]. l’algorithme de coupure est le suivant : Recherche de l’arbre de recouvrement minimal du graphe Exécuter n-1 fois Mise à jour des poids des arêtes de l’arbre Tri des arêtes par ordre décroissant de poids Suppression de l’arête de plus grand poids Fin de la boucle Un premier exemple de l’utilité d’une telle opération est la détection de groupes d’objets au sein d’une image. ces deux approches sont complémentaires puisqu’il suffit de supprimer les arêtes non homogènes (reliant des sommets de deux composantes distinctes) pour retrouver le résultat de la partition. . Pour mettre en évidence n groupes. nous commençons par construire un graphe de voisinage. Malgré l’apparente opposition entre la partition d’un graphe en plusieurs composantes et la construction de composantes par croissance. Ses arêtes sont alors pondérées par une grandeur caractéristique des divisions à opérer. en particulier l’arbre de recouvrement minimal. ont déjà montré leur efficacité dans l’analyse de regroupements perceptuels ou de structures complexes dans des images [ZAHN 1971].5.

d : coupure de l’arête la plus longue dans le MST. on supprime la connexion entre des régions très différentes. à partir des maxima de niveaux de gris) et un grand nombre de régions doivent être fusionnées. a : population d’objets ponctuels dans un espace 2D. b : graphe de voisinage des objets. En trois dimensions. Les arêtes du graphe sont pondérées par la différence de ces moyennes et un arbre de recouvrement minimal est déterminé. c : arbre de recouvrement minimum du graphe (MST). la fusion des régions de chaque composante connexe fournit une . dégradée par un bruit gaussien d’écart type 15. En supprimant l’arête de poids maximal.102 Chapitre III : Implantation des outils de traitement d’images a b c d e Figure 53 : exemple de coupure de graphe pour mettre en évidence des regroupements d’objets. La représentation de ce nuage par un graphe de voisinage et la partition de ce graphe en plusieurs composantes permet alors de segmenter l’image par une classification couleur des points. Chaque région est associée à un sommet du graphe et la moyenne des niveaux de gris des points de la région est affectée au sommet. Cette méthode de partition de graphe en sous-graphes permet également de reconnaître des régions semblables dans des images de niveaux de gris. verte et bleue. Cette image est segmentée par lpe (sur le gradient. Ainsi. Pour l’exemple de la figure 54. un tel nuage de points peut par exemple résulter de la représentation des pixels d’une image en couleurs dans l’espace des trois composantes rouge. déterminé sur la longueur des arêtes. e : coupure de la deuxième arête la plus longue. nous utilisons une image composée de deux régions homogènes (niveaux de gris 36 et 171).

a : image de noyaux cellulaires. b : sursegmentation de l’image. de moyennes distinctes. a b c Figure 55 : application de la méthode de partition de graphe sur une image naturelle. .1 (figures 52c et 55b). c : coupure du MST en fonction de la différence des moyennes de niveaux de gris des régions voisines. b : segmentation de l’image par lpe autour des maxima de niveaux de gris. Afin de limiter le nombre de sommets du graphe. d : fusion des régions appartenant à une même composante connexe. avec le paramètre α = 0. a : image composée de deux régions bruitées. a b c d Figure 54 : exemple de coupure de graphe pour mettre en évidence des régions homogènes. c : arbre de recouvrement minimal du graphe des régions (MST). La figure 55c présente l’arbre de recouvrement minimal (MST) du graphe de ces régions. notre segmentation initiale est ici le résultat de la fusion de régions de la section précédente. dans lequel chaque arête est pondérée par la différence de niveaux de gris moyens des régions qu’elle relie.Chapitre III : Implantation des outils de traitement d’images 103 segmentation de l’image mettant en évidence les fortes discontinuités (ici. en utilisant le gradient. nous avons à nouveau utilisé notre image de noyaux cellulaires (figure 55a). Afin d’évaluer cette méthode de segmentation sur une image naturelle. les discontinuités de niveau de gris moyen).

104 Chapitre III : Implantation des outils de traitement d’images La figure 56 montre le résultat de la suppression des trois premières arêtes du MST d e f Figure 56 : application de la méthode de partition de graphe sur une image naturelle. Pour pouvoir appliquer une telle opération de partition de graphe. III.6. a : la suppression de la première arête coupe l’image en deux régions (un objet et le fond de l’image). cette méthode fournit une bonne localisation des objets.5). Nous présentons ici ces trois types de caractérisation : • la caractérisation d’un objet ou d’une image grâce aux histogrammes du premier et du second ordre. • la caractérisation d’une population d’objets. Enfin. Toutes ces techniques ne sont bien sûr pas les seules à permettre la segmentation de telles images mais elles illustrent les possibilités apportées par les opérations sur les graphes de voisinage.2. . il est nécessaire de connaître a priori le nombre de composantes recherchées. Comme nous l’avons vu dans le chapitre précédent (section II. b : la suppression de la deuxième arête fait apparaître une troisième région (le second objet). L’histogramme permet également de caractériser les objets présents dans une image mais ceux-ci sont plus souvent analysés en fonction de leurs paramètres géométriques. c : la quatrième arête reliait deux portions du même objet. en choisissant correctement les fonctions de valuation et de pondération selon les propriétés à mettre en évidence dans l’image représentée. l’histogramme des niveaux de gris de l’image permet d’en proposer une évaluation globale. Opérations de caractérisation La caractérisation d’une image peut être effectuée selon différents points de vue. Cependant. les structures de voisinage représentées par les graphes permettent de caractériser l’organisation de populations d’objets à l’intérieur des images. • la caractérisation géométrique d’un objet.

Il est parfois nécessaire d’utiliser l’histogramme du second ordre qu’est la matrice de cooccurrence d’un ensemble de points. l’avantage des graphes est que les sommets peuvent être valués par d’autres grandeurs que des intensités et nous pouvons donc fournir une caractérisation de toutes ces grandeurs : surfaces. b ) . ∑ MCt (a . Dans ce cas. la matrice MCt associée est définie pour tout couple (a.Chapitre III : Implantation des outils de traitement d’images 105 III. orientations. b ) = card ( p. b ) : pt (a . La moyenne de l’histogramme indique sa position sur la gamme des niveaux de gris. Cette matrice est en général normalisée pour obtenir la matrice de probabilités pt (a . L’histogramme des niveaux de gris d’un ensemble de points permet de proposer une caractérisation globale de cet ensemble.1. p + t ) ∈ I 2 / I [ p ] = a ⋅ et ⋅ I [ p + t ] = b . Il peut s’agir de tous les points d’une image ou seulement des points d’une région ou d’un objet. Pour N points p1 .1. le niveau de gris moyen est µ= 1 N ∑ I [ pi ] . etc. N i =1 2 Cette caractérisation globale est par définition applicable aux ensembles de points structurés par une grille régulière ou par un graphe de voisinage. b ) b . Caractérisation des histogrammes de niveaux de gris Principe III.1. b ) = { } ∑ a MCt (a .… pN de l’image I. Pour un déplacement t. b ) de niveaux de gris par MCt (a . La caractérisation de certains objets texturés n’est cependant pas complète si on se limite à cette analyse globale. on utilise la variance v (qui est aussi le moment centré d’ordre 2) ou l’écart type σ : 1 N 2 v = σ = ∑ (I [ pi ] − µ) . N i =1 Pour quantifier l’étendue de l’histogramme ou la dispersion des niveaux de gris des points étudiés.6.6.

cette analyse peut être complétée à une échelle différente.6. où les primitives p et q sont les sommets du graphe. Nous rejoignons en ce sens la définition des matrices de cooccurrence généralisées de L. défini par • le contraste. 2 ∑ ∑ (a − b) a b t a b × pt (a .106 Chapitre III : Implantation des outils de traitement d’images De nombreuses grandeurs ont été définies pour caractériser les matrices de cooccurrence mais on en retiendra principalement trois [ELMOATAZ 1990] qui renseignent sur le degré d’homogénéité des points étudiés : • le moment d’ordre 2.2. Si l’on s’intéresse à des objets texturés. les mêmes outils de caractérisation du second degré que pour les grilles de points.V ) . q ) = vrai . définie par − ∑ ∑ p (a . .b ) . b )) . t Ces informations permettent par exemple de caractériser les points d’un objet dans une image en niveaux de gris. Davis [DAVIS 1979]. q ) / Pred( p. A. pour les graphes de voisinage. b ) = card {k = ( p. b ) . III. nous avons développé. et où le prédicat spatial est le voisinage du premier ordre : MC (a . nous avons utilisé la même définition de la matrice de cooccurrence mais nous considérons que le déplacement t correspond à une arête (le voisinage utilisé est donc ici un voisinage du premier ordre) : MC (a .⋅v( p ) = a ⋅ et ⋅ v(q ) = b} En utilisant cette généralisation. Les graphes permettent en effet de représenter le voisinage des différents éléments de texture et la caractérisation du graphe correspond à une caractérisation de la texture macroscopique. Pour un graphe valué G = (S. défini par ∑∑ a b 2 p t (a .1. q ) ∈ A/ v( p ) = a ⋅ et ⋅ v(q ) = b} . nous avons cherché à caractériser la texture de noyaux cellulaires (figure 57). Illustration Afin d’illustrer les possibilités des histogrammes du premier et du second ordre que nous venons de décrire. b) × log( p (a . • l’entropie. b ) = card {( p. S.

où vp est le 8-voisinage de p : MC (a . Visuellement. indépendamment de la matrice de cooccurrence. nous avons utilisé une définition de la matrice de cooccurrence plus proche de celle utilisée pour les graphes. on constate que la moyenne des niveaux de gris n’est pas suffisante pour quantifier la texture mais que la variance augmente lorsque la texture est plus forte. Figure 57a Niveau de gris minimum Niveau de gris maximum Moyenne des niveaux de gris Variance des niveaux de gris 101 187 146. Nous avons calculé les histogrammes de niveaux de gris des pixels de ces noyaux (le fond de l’image a été éliminé par binarisation) et nous obtenons les caractéristiques du tableau 1.10 505. nous avons calculé la variance des niveaux de gris autour de chacun des pixels et nous en déterminons la moyenne pour disposer d’une évaluation globale de la variation locale d’intensité : mv = 1 1 1 2 ∑I v( p ) avec m( p ) = 8 q∑ I [q] et v( p ) = 8 q∑ (I [q ] − m( p )) . b ) = card ( p. Dans ce cas.⋅I [ p ] = a ⋅ et ⋅ I [q ] = b .14 Figure 57b 91 200 158. Pour cela. Enfin. Nous avons également déterminé et caractérisé la matrice de cooccurrence de ces pixels. q ) ∈ I 2 / q ∈ vp . on est en mesure d’affirmer que la texture est de plus en plus prononcée du noyau a au noyau c.91 1050. card (I ) p∈ ∈v p ∈v p { } .87 Figure 57c 41 190 129.93 Tableau 1 : caractérisation de l’histogramme des niveaux de gris pour les noyaux de la figure 57.89 391.Chapitre III : Implantation des outils de traitement d’images 107 a b c Figure 57 : exemple de noyaux cellulaires texturés.

52 Figure 57b 2. nous avons mesuré l’aire maximale. le contraste et l’entropie de la matrice de cooccurrence. La figure 58 propose une segmentation obtenue par la ligne de partage des eaux. à partir des minima de niveaux de gris. Les graphes de voisinage permettent de manipuler de nombreuses grandeurs liées aux objets qu’ils représentent.15 24. On constate que ces quatre grandeurs varient de façon monotone avec l’augmentation de la texture et qu’elles fournissent un bon outil de comparaison.96 720714 2. a b c Figure 58 : segmentation des noyaux de la figure 57 par recherche de la ligne de partage des eaux. nous souhaitons utiliser les statistiques du premier et du second ordre pour quantifier d’autres aspects de la texture. Figure 57a Moment d’ordre 2 (×1000) Contraste Entropie Moyenne des variances 3.67 Figure 57c 2.84 Tableau 2 : caractérisation des matrices de cooccurrences des niveaux de gris et des variances locales pour les pixels des noyaux de la figure 57. .94 13.108 Chapitre III : Implantation des outils de traitement d’images Pour les noyaux de la figure 57.74 7. à partir des minima de niveaux de gris. sont indiqués dans le tableau 2. nous avons choisi de nous intéresser à l’aire des différentes régions issues de la segmentation d’un objet texturé. Par exemple. En complément de cette caractérisation des niveaux de gris. l’aire moyenne et la variance des aires des régions (tableau 3).01 4249294 3. le moment d’ordre 2. ainsi que les moyennes des variances autour de chaque pixel. En plus du nombre de régions. grâce à la norme du gradient.94 2060184 2.

Chapitre III : Implantation des outils de traitement d’images 109 Figure 58a Nombre de régions Aire maximum Aire moyenne Variance des aires 26 455 153. de ces grandeurs bien connues nous permet de .39 64.04 4.51 Figure 58c 50 205 68. toujours afin d’étudier les mêmes grandeurs que pour la caractérisation des niveaux de gris.52 1426.67 Entropie 2. Par analogie avec la matrice de cooccurrence des intensités des points d’une image.42 11120. Moment d’ordre 2 (×1000) Figure 58a Figure 58b Figure 58c 8.15 2. nous avons déterminé la matrice de cooccurrence des aires des régions et mesuré son moment d’ordre 2.77 Tableau 3 : caractérisation des aires des régions obtenues par segmentation des noyaux (figure 58). cette matrice est de dimension n 2 et est très largement remplie de 0. la variance des niveaux de gris des pixels qui compose cette région et nous avons calculé la moyenne de ces variances pour chaque noyau.78 1553. b ) de la matrice contient alors le nombre de régions voisines d’aires respectives a et b.77 103. les variances ne sont plus calculées sur 8 pixels mais sur un nombre variable de pixels. Nous avons cependant souhaité approfondir cette analyse pour exprimer dans quelle mesure l’aire des régions peut rendre compte de la texture.50 Tableau 4 : calcul des valeurs caractéristiques de la matrice de cooccurrence des aires des éléments de texture (figure 58). Il s’agit de la même approche que pour la caractérisation des niveaux de gris sauf que dans le cas des aires des régions.92 7. Ces résultats sont résumés dans le tableau 4. son contraste et son entropie (nous utilisons pour cela les définitions données précédemment).35 Moyenne des variances 77. Seul le nombre de régions varie uniformément avec l’importance de la texture.24 Figure 58b 31 175 81. Si la plus grande de ces régions compte n pixels. l’utilisation. on ne peut pas parler de contraste pour des aires). Nous remarquons que les mesures faites sur cette matrice n’ont plus réellement de réalité physique (par exemple. Chaque élément MC (a .05 2. Cependant. nous avons également mesuré.79 2501.25 3467.55 Contraste 20001. Cette première caractérisation ne semble pas fournir de résultat capable de rendre compte de la texture des objets. dans le contexte des graphes. Pour chaque région de l’objet étudié.

Nous avons alors utilisé la caractérisation par les graphes pour en proposer une classification automatique. . Figure 59 : échantillon de 16 noyaux cellulaires différemment texturés. 6 de ces noyaux sont qualifiés de « faiblement texturés » (figure 60a) et 6 sont « fortement texturés » (figure 60b). Nous avons donc choisi de considérer un échantillon de 16 noyaux (figure 59) donc le niveau de texture est visuellement identifiable. Il n’est cependant pas utile de distinguer un plus grand nombre de niveaux de textures dans des noyaux cellules (« faiblement » et « fortement » texturés sont en général des qualificatifs suffisants pour les applications). Dans ce contexte. 4 noyaux possèdent une texture intermédiaire et ont été affectés à une troisième catégorie (figure 61). En accord avec les experts du domaine. Afin de confirmer les résultats obtenus sur ces trois objets nous avons cherché à évaluer ce type de caractérisation sur un plus grand nombre de cas. la texture est indépendante de l’intensité moyenne de la cellule mais ne tient compte que de l’irrégularité des objets.110 Chapitre III : Implantation des outils de traitement d’images caractériser facilement une population de valeurs : nous constatons que le moment d’ordre 2 et que l’entropie des matrices ci-dessus varient de façon monotone avec la texture.

. les valeurs sont bien distinctes pour les noyaux de textures extrêmes. Nous présentons dans un premier temps une représentation graphique des moments d’ordre 2 et des contrastes des matrices de cooccurrence des niveaux de gris (figure 62). a : moment d’ordre 2. les noyaux de texture intermédiaire et les noyaux fortement texturés. a b Figure 62 : caractérisation des histogrammes du second ordre des niveaux de gris.Chapitre III : Implantation des outils de traitement d’images 111 a b Figure 60 : classification visuelle des noyaux selon leur texture. Les trois séries de noyaux correspondent aux trois séries verticales de points. Figure 61 : classification visuelle des noyaux selon leur texture. a : noyaux faiblement texturés. De gauche à droite figurent les noyaux faiblement texturés. On vérifie ainsi qu’en moyenne. b : contraste. 4 des 16 noyaux ont été affectés à une catégorie de « texture intermédiaire ». b : noyaux fortement texturés.

III. Pour cela. Nous avons choisi de mesurer ces grandeurs par des nombres de voxels. Le noyau le moins texturé (deuxième noyau de la figure 60a) n’a pas été segmenté . l’évaluation rapide de la surface ou du volume d’un ensemble nécessite une approximation. Dans le contexte échantillonné des images numériques. si on traite cette situation à part. Le moment d’ordre 2 et l’entropie sont par conséquent nuls. .112 Chapitre III : Implantation des outils de traitement d’images En appliquant la segmentation des noyaux décrite précédemment et en calculant la matrice de cooccurrence des aires des éléments de texture. Cependant. il n’est composé que d’une région. Ces deux graphiques présentent cependant un cas particulier qu’il est nécessaire de signaler. l’aire et le périmètre sont respectivement notés A( X) et P ( X) . nous avons étendu à la troisième dimension certains attributs géométriques définis sur des objets 2D [ELMOATAZ 1990]. nous obtenons les résultats présentés sur la figure 63. Ceci montre encore une fois l’intérêt des graphes pour des études qui ne peuvent être faites sur des grilles de points.2. ces résultats confirment que les valeurs du moment d’ordre 2 et de l’entropie permettent de faire la distinction entre les différentes catégories de texture. Nous mettons donc en évidence la possibilité de mesurer de nombreuses grandeurs sur des objets composés de plusieurs éléments. Le volume d’un ensemble X correspond au nombre de voxels contenus dans X. a b Figure 63 : caractérisation des histogrammes du second ordre des aires des éléments de texture. L’enveloppe convexe d’un objet X est notée co( X) . a : moment d’ordre 2. Caractérisation géométrique Comme nous l’avons annoncé dans le chapitre précédent. On obtient donc une approximation par défaut. Pour un objet en deux dimensions. nous utilisons différentes notations. son volume et sa surface sont V( X) et S( X) . b : entropie. Si l’objet provient d’un espace à trois dimensions.6. La surface est approchée par le nombre de voxels de X ayant au moins un voisin extérieur à X.

son obtention est très rapide. Pour cela.Chapitre III : Implantation des outils de traitement d’images 113 En deux dimensions. . La complexité de cette solution nous a incité à utiliser un calcul approché de l’enveloppe convexe. on conserve la valeur maximale des deux voisins du voxels considéré. la généralisation de cette méthode oblige à chercher des intersections entre un plan et un objet. Autour de chaque voxel. le comblement des concavités s’effectue en deux étapes : • pour chacune des 13 directions du 26-voisinage 3D. enveloppant l’objet initial (figure 65). Figure 65 : approximation de l’enveloppe convexe d’un objet par comblement progressif des concavités. Cette méthode construit alors un objet convexe. Figure 64 : principe de la recherche d’enveloppe convexe par la méthode des tangentes. En trois dimensions. nous procédons par itérations successives en comblant les régions concaves. • on recherche ensuite le minimum de ces 13 valeurs et on l’affecte au voxel. Le défaut de cette méthode est que l’objet obtenu est largement enveloppant mais en contrepartie. l’enveloppe convexe d’un objet est obtenue grâce à la méthode des tangentes : le contour de l’objet est parcouru jusqu’à ce que la tangente en un point intersecte l’objet en un second point (figure 64).

114 Chapitre III : Implantation des outils de traitement d’images À titre d’exemple. Dans un premier temps. nous avons très simplement généralisé l’indice de concavité (égal à 1 pour un objet convexe et inférieur à 1 pour un objet concave) : IC( X) = A( co( X)) V( X) A( X) en deux dimensions. . Pour le cube. un cube (parallèle aux axes de l’image) pour sa simplicité et sa particularité et la réunion de trois boules ressemblant à un amas de cellules. nous avons construit l’enveloppe convexe de trois objets artificiels : une boule pour simuler l’étude d’un noyau cellulaire. Figure 67 : exemple de calcul d’enveloppe convexe pour un amas. l’enveloppe est identique à l’objet de départ. Pour les boules. Grâce à la recherche d’enveloppes convexes et à la mesure de volumes et de surfaces. les résultats sont proposés sur les figures 66 et 67. Figure 66 : exemple de calcul d’enveloppe convexe rapide pour une boule. nous sommes en mesure de déterminer plusieurs caractéristiques géométriques des objets. IC( X) = V( co( X)) en trois dimensions.

Nous avons gardé les mêmes propriétés pour proposer une expression de IP ( X ) en 3D. nous indiquons la valeur théorique correspondante. l’indice d’allongement utilisant le rayon géodésique. Afin de valider notre méthode de calcul d’enveloppe convexe. Ces mesures sont à comparer avec les valeurs théoriques correspondantes.93 pour un cube : IP( X) = 1 − 9πV( X) 2S( X) 3 2 Bien d’autres grandeurs caractéristiques ont été définies en deux dimensions : l’indice d’écart au cercle inscrit (nul pour un disque et proche de 1 pour un objet allongé). En 2D. IP ( X ) est alors nul pour une boule et égal à 0. etc. Volume théorique Boule de 40 voxels de rayon Cube de 80 voxels de coté Agglomération de trois boules 268082 512000 Non déterminé Volume mesuré 243441 512000 680621 Volume mesuré de l’enveloppe 257745 512000 996455 Surface théorique 10053 38400 Non déterminée Surface mesurée 12402 38400 39520 Tableau 5 : mesures des volumes et des surfaces de nos objets de test. Lorsque celle-ci est connue (pour la boule et le cube).21 pour un carré et IP ( X ) s’approche de 1 pour des objets très irréguliers : IP( X) = 1 − 4πA( X) P ( X) 2 . Il est évident que les formules associées peuvent être transformées et adaptées à la troisième dimension. . IP ( X ) est nul pour un disque. Les mesures utilisées sont présentées sur le tableau 5 (en nombre de voxels).Chapitre III : Implantation des outils de traitement d’images 115 Nous avons également utilisé la compacité C ( X ) et l’indice de déficit isopérimétrique IP ( X ) = 1 − C ( X ) . À partir de ces mesures. nous avons calculé ces deux grandeurs (indice de concavité et indice de déficit isopérimétrique) sur nos objets artificiels. nous calculons l’indice de concavité et l’indice de déficit isopérimétrique de nos trois objets (tableau 6). égal à 0.

La figure 68 présente le graphe de Delaunay. En effet.89 Tableau 6 : étude de l’indice de concavité et de l’indice de déficit isopérimétrique pour nos objets de test. D’une part. Caractérisation de populations Afin de caractériser une population d’objets. III. les différentes structures de voisinage constituent une famille de descripteurs visuels pour l’organisation d’une population d’objets. la notion de convexité n’intervient en général que pour faire la distinction entre des cellules isolées (convexes ou faiblement concaves) et des amas de cellules (fortement concaves). le graphe des voisins relatifs et l’arbre de recouvrement minimal (calculé sur la longueur des arêtes) pour une collection de points. le graphe d’influence. Cependant. . Nous proposons ici des critères d’évaluation de l’architecture d’une population d’objets ou de la répartition d’une population d’objets au sein d’une autre.93 Entre 0 et 1 IP mesuré 0. nous constatons que les positions relatives des résultats sont en accord avec la théorie.1.93 0. en deux ou en trois dimensions.94 1 0.2 que les graphes de voisinage constituent un outil particulièrement intéressant.6.3. selon leur contenu en niveaux de gris ou selon leur forme. Nous disposons donc de différents attributs permettant de caractériser des objets.116 Chapitre III : Implantation des outils de traitement d’images IC théorique Boule de 40 voxels de rayon Cube de 80 voxels de coté Agglomération de trois boules 1 1 <1 IC mesuré 0. nous avons montré dans la section II. Ces résultats confirment que notre méthode ne fournit qu’une approximation de l’enveloppe convexe.68 IP théorique 0 0. Nous considérons alors que notre approche est satisfaisante dans le cadre de nos applications de traitement d’images de microscopie.56 0.

Chapitre III : Implantation des outils de traitement d’images 117 a b c d e Figure 68 : série de descripteurs pour une population d’objets. On remarque sur cet exemple que le graphe de Delaunay est le plus dense (il est aussi le plus simple à obtenir).4. • Le premier est le calcul de la proportion d’arêtes homogènes et non homogènes. Les proportions des ces trois types d’arêtes fournissent des renseignements sur le caractère focal ou dispersé des sommets de type A. • Le second est l’histogramme des proportions de sommets A dans le voisinage direct des sommets du même type. a : population d’objets ponctuels. b : graphe de Delaunay (GD). C’est la répartition de ces valeurs qui nous renseigne sur le caractère focal ou dispersé des sommets de type A. Afin de fournir des grandeurs normalisées.2. Chaque sommet de type A est valué par le pourcentage de sommets de type A parmi ses voisins immédiats (voisinage du premier ordre dans le graphe). Nous étudions ce problème dans l’application de la section IV. les graphes sont utilisés pour fournir des informations sur la répartition d’une population d’objets au sein d’une autre. Nous avons pour cela développé deux outils. Dans un graphe binaire. e : arbre de recouvrement minimal (MST). . A/B et B/B. Plusieurs travaux exploitant ces structures pour caractériser une population d’objets ont été présentés dans la section II.1. d : graphe des voisins relatifs (GVR). que le graphe d’influence est le plus proche des contours de la population et que l’arbre de recouvrement minimal renseigne sur la structure interne de la population. Ce problème se pose par exemple dans des images de microscopie contenant des cellules biologiquement marquées et des cellules n’ayant pas répondu au marquage. D’autre part. Les graphes de voisinage offrent une réponse efficace à ce type de question : il s’agit de caractériser un graphe dont les sommets sont de deux types (type A et type B). ces trois proportions ont été rapportées au pourcentage de sommets de type A dans le graphe. c : graphe d’influence (GI). trois types d’arêtes existent selon les valeurs de leurs extrémités : A/A.

118 Chapitre III : Implantation des outils de traitement d’images Dans les deux cas. . les voisins directs de ces sommets en gris foncé. le sommet numéro 2 de la figure 69). a : les sommets de type A sont en noir. afin de nous libérer des effets liés au bord de l’image (même s’il a été montré que celui-ci est faible pour de grandes images [MEIJER 1996]). b : les sommets qui ne doivent pas être caractérisés sont en gris clair (dont le sommet numéro 2 puisqu’il touche le bord de l’image). La forme de l’histogramme de ces distances permet alors de renseigner sur la répartition des sommets [RAYMOND 1993]. nous proposons quelques exemples d’enchaînement de ces opérateurs généraux. Dans le chapitre suivant. les autres sommets sont en blanc. Nous avons présenté l’implantation de plusieurs catégories d’opérateurs de visualisation. a b Figure 69 : représentation des différentes catégories de zones d’influences de sommets. appliqués à la quantification d’images de microscopie cellulaire. En complément de ces opérateurs. applicables aux grilles de points comme aux graphes de voisinage. ces sommets sont pris en compte s’ils font partie du voisinage (régions en gris foncé) d’un sommet à caractériser. Il s’agit d’associer à chaque sommet de type B le nombre d’arêtes le séparant du plus proche sommet de type A. la bibliothèque PANDORE regroupe de nombreux autres opérateurs (Annexe 2). La seconde approche peut être complétée par l’analyse du graphe de distance. Par contre. de traitement et de caractérisation d’images. nous avons choisi de ne pas caractériser les sommets dont la zone d’influence touche le bord de l’image (par exemple.

Chapitre IV : Application au traitement d’images obtenues par microscopie confocale .

.

1997]. En imagerie biomédicale. • L’obtention d’une information transmise après absorption partielle. L’automatisation des traitements et la reproductibilité des résultats font du traitement d’images un puissant outil d’investigation et d’analyse. de gros efforts ont été faits dans la préparation des échantillons biologiques. Le développement de nouveaux capteurs et de moyens de calcul numérique performants ont autorisé l’essor des techniques d’acquisition et de traitement d’images dans bien des domaines et tout naturellement dans celui de l’imagerie biomédicale. • La détection d’un signal émis après excitation. l’imagerie biomédicale se présente à deux principales échelles : l’échelle macroscopique pour une approche médicale et l’échelle microscopique pour une vision plutôt biologique des processus observés. Depuis 1950. On en a des exemples en imagerie par résonance magnétique (IRM) ou en microscopie de fluorescence. En effet. les objectifs sont très variables. dans la rigueur des acquisitions d’images. Selon les domaines d’application. au diagnostic ou au pronostic [HERLIN et al. les pathologistes et tous les experts en biomédecine sont aujourd’hui confrontés au besoin grandissant de fonder des diagnostics quantitatifs et objectifs sur des préparations toujours plus nombreuses et variées. l’analyse automatique d’images peut servir au dépistage. .Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 121 Les médecins. les biologistes. des connaissances liées au spécimen observé et de l’observateur lui-même. trois techniques permettent d’obtenir une image à partir d’un spécimen observé. la description de l’image d’une préparation biologique dépend de l’élaboration de cette préparation. de l’automatisation de la segmentation. Dans les deux cas. Cloppet-Oliva [CLOPPET-OLIVA 1996]. C’est le cas de la radiographie X ou du scanner en imagerie macroscopique et de nombreuses techniques en microscopie. Cependant. comme dans tous les domaines du traitement d’images. De nombreux travaux dans ces domaines ont été résumés par F. Dans l’exemple de l’étude du cancer. de la caractérisation. la reproductibilité des descriptions n’est pas totale entre plusieurs experts en pathologie. et même pour un même expert décrivant plusieurs fois la même préparation.

les organismes étudiés doivent en général être mis en évidence par des marquages adaptés. IV. provenant de coupes histologiques épaisses. En complément des caractéristiques cytologiques. en échographie mais beaucoup moins en microscopie. Dans ce chapitre. Les fluorochromes peuvent également être couplés à des sondes oligonucléotidiques qui permettent la détection de séquences spécifiques d’ADN. des traceurs radioactifs ou fluorescents. on fait réagir un anticorps spécifique avec l’entité que l’on cherche à observer. nous présentons plusieurs exemples de traitement d’images de tissus biologiques et de culture de cellules. Lorsque le spécimen observé ne possède pas les propriétés nécessaires au mode d’acquisition souhaité. Ce couplage d’un fluorochrome à un anticorps est principalement utilisé pour la détection de protéines. nous proposons un exemple de traitement d’images impliquant largement les graphes de voisinage. En conséquence.1. Elle consiste en l’analyse de l’architecture des collections de noyaux cellulaires dans des coupes histologiques. Ces exemples mettent en œuvre la méthodologie de développement d’applications de traitement d’images précédemment décrite. Ils illustrent également les stratégies et les opérateurs de traitement d’images développés pour manipuler des images en deux et trois dimensions. correspondant à l’absence d’un marquage parasite).122 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale • L’étude de la réflexion d’un signal sur l’objet à observer.1. Nous commençons par présenter le cadre général de l’histologie avant de détailler l’application réalisée sur des images bidimensionnelles. le Feulgen pour l’ADN). En « fond clair ». En microscopie. Nous abordons ensuite les possibilités d’extension de cette analyse à des images tridimensionnelles. l’histologie . L’histologie L’histologie s’attache à étudier les cellules organisées en des entités plus vastes et plus complexes que sont les tissus biologiques. des substances colorées sont connues pour réagir spécifiquement avec certaines structures (par exemple. Ce principe est utilisé en imagerie ultrasonore. Caractérisation de l’architecture dans des coupes histologiques Dans cette section. On choisit alors un fluorochrome réputé pour s’attacher facilement à l’anticorps et c’est ce fluorochrome qui sera observé. IV. En fluorescence. des produits adaptés sont ajoutés à la préparation. C’est le cas des colorants. les images de fluorescence présentent des objets clairs sur un fond noir (le plus noir possible. Elle est intimement liée à la sociologie cellulaire qui se propose d’analyser les relations existant entre les fonctions biologiques des cellules et leur organisation spatiale.1. La lumière blanche transmise est modifiée par les colorants et les images obtenues présentent des objets foncés sur un fond clair.

Il s’agit dans ce cas du taux normal de cellules en duplication. L’image contient également quelques cellules en prolifération. Un exemple d’application en 2D En collaboration avec le service d’anatomie pathologique du Centre Régional de Lutte Contre le Cancer de Basse-Normandie. L’immunohistochimie quantitative constitue par conséquent un enjeu important. nous avons mis . La pratique quotidienne en pathologie clinique aussi bien que la recherche en biologie cellulaire ont suscité le besoin d’une appréciation objective de la prolifération et de la différenciation cellulaire. standardisation et automatisation de la méthode de mesure [WEINBER 1994]. Il s’agit d’une coupe fine contenant des acini de tissu mammaire normal. impose par exemple d’être à même d’identifier et d’apprécier la proportion relative des structures marquées et non marquées. dédié à la pratique quotidienne en oncologie. La réalisation d’un outil de mesure par analyse d’images. marquées en brun par immunohistochimie. IV.2. La figure 70 propose un exemple d’image histologique 2D. mais sa mise en œuvre pose un certain nombre de problèmes méthodologiques : standardisation de la préparation des échantillons. le Centre François Baclesse de Caen.Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 123 clinique vise à apprécier les arrangements topographiques des cellules afin de caractériser la bénignité ou la malignité des lésions.1. de limiter cette analyse aux massifs de cellules tumorales en faisant abstraction du stroma nourricier et inflammatoire et enfin d’analyser la topographie du marquage. L’architecture d’un tissu normal est caractérisé par des couronnes de cellules entourant chacune une lumière. Figure 70 : exemple d’image couleur de coupe histologique de tissus mammaire.

[PALMARI 1997]. fixées au formol et incluses en paraffine. Le marquage des noyaux de cellules épithéliales est réalisé par immunodétection de molécules associées à la prolifération cellulaire (Ki67 : MiB1-Immunotech) ou à la différenciation cellulaire (récepteurs d’œstrogène: clone 1D5-Dako.8µm de côté). l’objectif des pathologistes est de limiter l’étude de la répartition de l’immunomarquage à l’intérieur des massifs tumoraux. Dans les travaux que nous présentons ici. grâce à une caméra tri-CCD (JVC KY-F30) à une résolution de 768×576 pixels (soit un pixel d’environ 0.2. L’identification automatique d’un immunomarquage nucléaire peut être effectuée grâce à des outils de morphologie mathématique [BELHOMME 1996].1. Ces images sont ensuite décomposées en trois plans couleur et réduites à 750×573 pixels pour n’en conserver que la partie significative. Ces préparations sont effectuées par les équipes de recherche du Centre François Baclesse. Cette application en deux dimensions est un exemple de l’efficacité de notre méthodologie de développement de programmes de traitement d’images. IV. De plus. Les images sont acquises au grossissement ×33 à partir d’un microscope Olympus BH2. l’identification automatique des massifs de cellules tumorales au sein du stroma n’a pas été abordée jusqu’à présent et l’analyse de la topographie du marquage a fait l’objet de peu de travaux [HAROSKE 1996]. ils peuvent être très massifs .124 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale au point une application de traitement d’images visant à caractériser la répartition des cellules en prolifération dans des coupes histologiques. les regroupements peuvent être elliptiques avec la présence éventuelle d’une lumière au centre. récepteurs de progestérone : clone 1A6-Novocastra) suivie d’une révélation par le complexe immunoperoxydase-diaminobenzidine. Elle illustre également la puissance de l’approche faisant intervenir les graphes de voisinage au cours du traitement des images. Les noyaux qui forment un regroupement ont en général des tailles voisines mais la taille moyenne peut varier d’un groupement à un autre.1. [SOUCHIER 1996]. Ceux-ci forment des objets sombres sur un fond clair et homogène. La composante verte permet d’obtenir une image en niveaux de gris proche de l’image d’origine en raison de la couleur des noyaux dans la préparation. Matériel L’étude réalisée porte sur des coupes histologiques de carcinomes mammaires (canalaire infiltrant et mixte) et de tissu mammaire normal. Les noyaux marqués sont donc colorés en brun et les noyaux non marqués contre-colorés en bleu par l’hématoxyline de Harris. À notre connaissance.

marqué au MiB1. a : travées tumorales bien différenciées d’un carcinome canalaire infiltrant du sein. ×33. Sur l’exemple de la figure 72. b : travées tumorales en files indiennes d’un carcinome canalaire mixte du sein. Délimitation des massifs de cellules tumorales Le but de cette segmentation est de réaliser une sélection de la population de cellules. ×33. uniquement à l’intérieur des massifs tumoraux. L’objectif final est de calculer la proportion de noyaux marqués par rapport aux noyaux non marqués. IV. a b Figure 71 : exemples d’images de coupes histologiques. toutes les cellules extérieures aux massifs tumoraux doivent être éliminées. etc. . En termes de traitement d’images.2.2.1. Les regroupements peuvent enfin être composés d’un nombre très variable de noyaux (figure 71). Nous présentons dans les sections suivantes les deux parties de notre travail : • la délimitation des massifs de cellules tumorales.Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 125 ou composés d’une série de noyaux rangés en lignes les uns à coté des autres. en fonction de leur appartenance à des massifs tumoraux. • l’étude de la topographie du marquage immunohistochimique. marqué au 1A6. Il est donc nécessaire de disposer d’algorithmes robustes pour tenir compte de la variabilité de cette classe d’images. nous devons réaliser un masque pour ne retenir que les objets regroupés en massifs.

choisi par expérimentation sur une dizaine d’images de cette classe). Seules les cellules intérieures à ces massifs doivent être conservées. a : segmentation initiale des cellules. cette taille est de l’ordre de 40 pixels. Nous savons a priori que les cellules possèdent une taille minimale. les pixels de l’image doivent être regroupés selon plusieurs critères pour représenter des objets correspondant aux noyaux des cellules tumorales. b : tracé manuel des contours des massifs. Nous avons choisi d’utiliser la ligne de partage des eaux sur les niveaux de gris de l’image [ELMOATAZ 1997]. Pour le grossissement utilisé sur le microscope. . Nous retenons d’une part tous les pixels du fond de l’image par une binarisation (par rapport au seuil 176. La manipulation d’un ensemble d’objets et de leurs relations de voisinage se fait idéalement en représentant l’image par la structure de graphe. un autre regroupement doit être opéré à une échelle supérieure pour associer les cellules qui constituent les massifs. Les germes sont obtenus à partir de l’image lissée par un filtre exponentiel symétrique (coefficient 0. Nous sommes contraints pour cela d’utiliser une autre représentation de l’image que la grille de pixels et de tenir compte des relations de voisinage entre des objets non strictement adjacents.126 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale a b Figure 72 : objectif de la segmentation de l’image 71b. Cette étape peut être réalisée grâce à différentes techniques. lymphocytes. Nous cherchons donc à délimiter des structures composées de plusieurs éléments plus petits : des regroupements de cellules. Deux étapes sont nécessaires à deux échelles différentes. Tous les objets de taille inférieure ne doivent pas être pris en compte (bruit d’acquisition.40). débris. • Dans un second temps. etc.). et d’autre part les centres des noyaux cellulaires par une détection des minima locaux. • Dans un premier temps.

Enfin. Nous considérons que les regroupements dont la surface totale est inférieure à 5 fois la surface d’une cellule tumorale (5×40 pixels) ne doivent pas être conservés. Chaque arête est alors pondérée par la moitié de la distance entre les deux objets correspondant à ses extrémités. deux cellules ne doivent plus être considérées comme appartenant au même regroupement perceptuel. Généralement.Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 127 D’autre part. même si ceux-ci ne sont pas adjacents. Sélectionner les cellules tumorales regroupées en massifs Sélectionner les cellules tumorales Éliminer les objets extérieurs aux massifs Segmenter tous les objets Éliminer les objets trop petits Contruire les massifs d’objets Éliminer les petits massifs Figure 73 : décomposition du problème de sélection de cellules tumorales regroupées en massifs. Ce graphe représente donc les relations de proximité entre les objets. de calculer les distances inter-nucléaires réelles plutôt que les distances entre les centres de gravité des noyaux. une première étape consiste à définir une zone d’influence pour chaque objet et à estimer ainsi les distances inter-objets. . nous avons déterminé qu’au-delà d’une quinzaine de pixels de distance. Ceci est obtenu en calculant la partition de Voronoï de l’image. Le plan de résolution correspondant à la détection des massifs tumoraux est présenté en Annexe 3. nous avons décidé de supprimer les petits regroupements d’objets correspondant par exemple aux amas résiduels de lymphocytes du stroma ou aux cellules isolées. Afin de transformer une image présentant une collection d’objets en un graphe de voisinage. Nous avons choisi de déterminer les zones d’influence des noyaux eux-mêmes et ainsi. en accord avec les pathologistes. le problème se décompose selon l’arborescence de la figure 73. pour calculer cette partition. Aux plus hauts niveaux. Les frontières entre les zones d’influence des objets permettent de construire le graphe de Delaunay. les objets sont réduits à des points et les zones d’influence sont des polygones.

2. distance inter-nucléaire maximale des noyaux à regrouper et taille minimale d’un regroupement) sont actuellement choisies par l’utilisateur en fonction de ses connaissances a priori concernant l’image. surface 1 40 m001 m002 # elimination des petits objets. Comme nous l’avons déjà signalé dans la section III.5. Dans la présente situation. gcoupe 0 8 m005 m006 # segmentation du graphe en sous-graphes. m004 est la carte de Voronoi. Le nom des images est composé de la lettre « m » (pour Massifs) et d’un numéro à trois chiffres. # le parametre 40 correspond au nombre de pixels d’une cellule # tumorale. Bien que la théorie de la Gestalt que nous avons évoquée précédemment (section II. # les aretes de poids compris entre les deux seuils sont # conservees. # le parametre 1 signifie que les regions de surface superieure # au deuxieme parametre seront conservees. Nous obtenons alors plusieurs sousgraphes correspondant chacun à un regroupement perceptuel de noyaux. 8 correspond a la moitie des 15 pixels # minimum separant des noyaux de deux massifs. Notre approche nous laisse cependant libre d’utiliser d’autres critères de séparation des regroupements. les aretes sont ponderees par la # demi-distance entre les germes. L’enchaînement des opérateurs correspondant à ce traitement est présenté sur le script cidessous. gmarquage2 m007 m008 # etiquetage des sous-graphes.4. Les valeurs critiques (taille minimale d’un noyau. Les lignes commençant par le symbole « # » sont des lignes de commentaires. gisole m010 m011 # suppression des aretes attachees aux sommets qui viennent . # m005 est le graphe. la suppression de certaines arêtes du graphe permet d’obtenir le même résultat qu’une opérations de croissance de composantes connexes. L’image m001 de départ est la carte de régions des cellules initiales.1) définisse plusieurs règles de regroupement. il est plus efficace de supprimer toutes les arêtes dont le poids est supérieur à un seuil plutôt que d’opérer une croissance contrainte aux autres arêtes. # m003 est la carte de distances. avec le principe de similarité. seuillage 200 65535 m009 m010 # suppression des petits groupes d’objets. nous avons choisi le critère de proximité puisqu’il semble être. grtaille2 m002 m008 m009 # mesure du nombre de pixels de chaque regroupement.3. gisole m006 m007 # suppression des sommets n’ayant plus de voisins.128 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale Nous avons choisi d’utiliser cette distance entre objets comme critère de coupure des arêtes dont les extrémités sont « éloignées ». le plus important. voisins m002 m003 m004 m005 # calcul de la partition de Voronoi et du graphe de Delaunay. # les composantes de taille comprise entre 200 pixels (5 objets # de 40 pixels) et la surface maximale (entiers codes sur # 16 bits) sont conservees.

a : composante verte de l’image couleur à traiter.Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 129 # d’etre supprimees. gmarquage2 m011 m012 # etiquetage des sous-graphes. d’une organisation cellulaire en files indiennes. plus difficile. b : individualisation et sélection des cellules tumorales. Les figures 77 et 78 présentent les résultats obtenus sur deux autres types d’images de cancers mammaires : celle de cordons tumoraux bien différenciés et celle. ×33. resreg m002 m012 | im2rg . marqué au 1D5. La figure 76 permet de comparer les cellules sélectionnées dans le cas de la délimitation manuelle et de la délimitation automatique des massifs. a b Figure 74 : étape de localisation des noyaux cellulaires au cours du traitement d’une image histologique de cordons massifs dans un carcinome canalaire infiltrant du sein. .m013 # construction de l’image resultat. Les figures 74 et 75 illustrent les différentes étapes du traitement réalisé à partir d’une image d’une coupe histologique dans un carcinome canalaire infiltrant dont les cellules tumorales sont organisées en groupements massifs.

a : cellules à l’intérieur des contours manuels. a : partition de Voronoï associée à la population de noyaux. a b Figure 76 : comparaison entre la sélection manuelle des cellules et la sélection automatique.130 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale a b c d Figure 75 : étape de localisation des regroupements cellulaires pour une image de carcinome canalaire infiltrant du sein. . d : utilisation de la localisation des cellules de départ (figure 74b) pour visualiser les différents regroupements. b : graphe de Delaunay correspondant. b : cellules à l’intérieur des massifs détectés automatiquement. c : segmentation du graphe.

b : résultat du traitement. marqué au MiB1. a : image initiale. b : résultat du traitement. a b Figure 78 : résultat pour une image histologique de travées tumorales en files indiennes dans un carcinome canalaire mixte du sein. ×33. ×33. a : image initiale.Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 131 a b Figure 77 : résultat pour une image histologique de travées tumorales bien différenciées dans un carcinome canalaire infiltrant du sein. marqué au 1A6. .

Les tableaux 7 et 8 présentent ces mesures pour la sélection des cellules à partir des contours manuel et automatique des massifs.132 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale Afin d’évaluer la robustesse de notre méthode.4 et 176). a b c Figure 79 : allure des images utilisées pour l’évaluation de notre méthode de localisation des massifs de cellules tumorales. Image 1 Nombre de cellules retenues Surface totale des cellules (en pixels) 558 87456 Image 2 918 149132 Image 3 965 164687 Image 4 1024 228531 Image 5 1048 177013 Tableau 8 : mesures du nombre de cellules et de leur surface totale à l’intérieur de la délimitation automatique des massifs tumoraux. en utilisant les mêmes valeurs limites de taille (40 et 200) et de distance entre les objets (8). Image 1 Image 2 Image 3 Image 4 Image 5 figure 78a figure 79a figure 74a figure 79b figure 79c Nombre de cellules retenues Surface totale des cellules (en pixels) 629 88206 1008 151673 1062 162891 1051 215599 1137 177604 Tableau 7 : mesures du nombre de cellules et de leur surface totale à l’intérieur de la délimitation manuelle des massifs tumoraux. . la surface totale de l’ensemble de ces cellules et la proportion de recouvrement des deux résultats. nous avons appliqué le même traitement. sur 5 images dont la localisation des massifs a été faite par un expert du domaine d’application. Deux de ces images ont déjà été présentées (figures 74a et 78a) et les trois autres apparaissent sur la figure 79. Nous avons ensuite comparé le nombre de cellules conservées dans le cas manuel et dans le cas automatique. à partir d’une segmentation initiale obtenue avec les mêmes paramètres (0.

44% Image 4 97. Nous constatons cependant (tableau 9) que les massifs délimités automatiquement contiennent toujours moins de cellules que lors de la délimitation manuelle. • la surface commune aux deux sélections de cellules.93% 3. D’autres améliorations utilisant la morphologie mathématique et les contours actifs sont encore recherchées pour cette première étape [SCHÜPP 1998].87% 97.98% 4. nous sélectionnons directement les noyaux cellulaires et les contours des massifs sont beaucoup plus proches de la réalité (la différence est particulièrement sensible pour des contours très irréguliers). . rapportée à la surface des cellules de l’approche manuelle.02% Image 2 91. à l’intérieur desquelles certains objets indésirables sont encore présents (petits objets qui devront être supprimés ultérieurement). la segmentation des noyaux.07% Image 3 90.43% 99. rapportée à la surface des cellules de l’approche manuelle. L’analyse de ces résultats nous permet de considérer que notre méthode de segmentation fournit des cellules très proches des cellules conservées par la délimitation manuelle des massifs tumoraux. Au cours de notre sélection automatique.20% 0.17% 98.80% Image 5 92.07% 96. Ceci s’explique simplement par le fait que dans le cas du tracé manuel. • la surface de la différence entre les deux sélections. Image 1 Rapport des nombres de cellules Pourcentage de surface commune Pourcentage de différence de surface 88. Au niveau de la segmentation initiale. L’utilisation de la bibliothèque d’opérateurs PANDORE s’est révélée d’une grande efficacité dans la recherche du bon enchaînement d’opérateurs.71% 95.Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 133 Le tableau 9 présente le résultat de trois calculs permettant de comparer les deux approches : • le rapport du nombre de cellules à l’intérieur de la délimitation automatique sur le nombre de cellules à l’intérieur de la délimitation manuelle. de nombreuses stratégies ont été utilisées avant de parvenir à un résultat correct.56% 2.68% Tableau 9 : mesures du nombre de cellules et de leur surface totale à l’intérieur de la délimitation automatique des massifs tumoraux. l’expert sélectionne des zones de manière grossière. Les graphes de voisinage constituent donc un outil efficace pour regrouper les cellules de nos images en fonction de leur proximité.32% 1.

a b Figure 80 : exemples de marquages sur une image d’acini dans un tissu mammaire normal. • L’histogramme des proportions de sommets d’un type dans le voisinage direct des sommets du même type : on s’intéresse à la proportion de noyaux marqués parmi les voisins d’un noyau lui-même marqué.2.3). on utilise les trois types d’arêtes d’un graphe binaire. Les régions colorées en noir correspondent aux noyaux marqués. La figure 80 propose deux types de marquage pour l’image de la figure 70 : le marquage dispersé au MiB1 (figure 80a) et la simulation manuelle d’un marquage focal (figure 80b). nous utilisons également les graphes de voisinage pour analyser la répartition des noyaux marqués au sein de la tumeur. • Le calcul de la proportion d’arêtes homogènes et non homogènes : chaque noyau pouvant être marqué ou non marqué. Nous proposons pour cela les deux outils de caractérisation de graphes déjà présentés (section III.6. b : simulation manuelle de marquage focal. Le nombre de noyaux « marqués » est identique dans les deux cas. les sommets représentant les noyaux marqués ont été distingués des autres sommets. a : marquage dispersé au MiB1.134 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale IV.3.1. La figure 81 présente les régions de Voronoï déduites de la collection de noyaux. . Après le calcul du diagramme de Voronoï de tous les noyaux et la construction du graphe de Delaunay correspondant. Topographie du marquage Lorsque les noyaux sont localisés (segmentés) et caractérisés (marqués ou non).

Nous avons ensuite rapporté ces . Les autres noyaux sont représentés par une région en blanc. on retrouve en noir les régions correspondant aux noyaux marqués. nous avons étudié les proportions des différents types d’arêtes dans le graphe (selon le marquage des noyaux qu’elles relient) : marqué/marqué (I). Les noyaux dans le voisinage direct d’un noyau marqué sont représentés par une région en gris foncé. marqué/non marqué (II) et non marqué/non marqué (III). Ce sont ces noyaux que nous étudions en fonction des noyaux dans leur voisinage immédiat (en gris foncé).4).2. Sur la figure 82. Les noyaux marqués correspondent aux régions en noir. Dans un premier temps. Les noyaux non caractérisés car touchant le bord de l’image sont représentés par des régions en gris clair.Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 135 Figure 81 : partition de Voronoï des noyaux et mise en évid ence (en noir) des régions correspondant aux noyaux marqués de la figure 80. les noyaux du bord de l’image (gris clair) ne sont pas caractérisés. Comme nous l’avons précisé au chapitre précédent (section II. Plusieurs catégories de sommets sont alors définies en fonction du marquage et des positions des noyaux de l’image. Figure 82 : représentation des régions relatives aux différents types de noyaux.

Pour chaque noyau marqué.58% (14.43% (0. Marquage dispersé (fig. 80b) Type I Type II Type III 0. nous avons calculé le pourcentage de noyaux marqués autour de chaque noyau marqué.54) 92.94% (2. mais que les proportions sont inversées pour les deux premiers types d’arêtes. Pour rendre ces valeurs indépendantes du pourcentage de noyaux marqués. la proportion rapportée au nombre de noyaux marqués) pour les deux simulations de marquage. 80a) Marquage focal (fig.79%).95) 4. puisque la proportion de noyaux marqués est assez faible (5. Les principales caractéristiques de ces histogrammes sont données dans le tableau 11. .136 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale proportions au pourcentage de noyaux marqués dans l’image. a b Figure 83 : histogrammes des proportions de marquage autour des noyaux marqués des figures 80a et 80b. Dans un second temps.76) 3. Afin de caractériser l’ensemble de la population.42% (15. Nous obtenons ainsi une évaluation de la concentration locale du marquage. nous avons comparé les histogrammes de ces pourcentages (figure 83).08) 12. nous avons divisé le nombre de ses voisins marqués par le nombre de tous ses voisins. Les résultats sont présentés dans le tableau 10. nous les avons également divisées par ce pourcentage.96) Tableau 10 : proportion des trois types d’arêtes (et entre parenthèses.48% (0.23) 86.15% (0. On se rend compte que la troisième catégorie est majoritaire dans les deux cas.

70) 7. 83b) 100% (17.64% (13. Les maxima sont différents puisque pour le marquage focal. les valeurs divisées par le pourcentage de noyaux marqués).Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 137 Marquage dispersé (fig.33% (1. a : marquage au 1A6 dans un territoire bien différencié. .27) 75.36) 9.87% (1. 83a) Proportion maximale Proportion moyenne Écart type 33% (5. b : marquage au MiB1 dans une organisation en files indiennes.40) Tableau 11 : caractérisation des histogrammes de proportions de marquage autour des noyaux marqués (et entre parenthèses. il y a au moins un noyau marqué n’ayant que des noyaux marqués comme voisins. La figure 84 illustre le résultat de la sélection automatique de noyaux marqués sur des coupes histologiques de carcinomes mammaires.48% (4. Les mêmes calculs ont été effectués pour les deux types de différenciation (figure 84) et sont présentés dans le tableau 12. ×33. a b Figure 84 : identification de noyaux sur des coupes de carcinomes mammaires.06) 25. La moyenne et l’écart type permettent de différencier les deux histogrammes et donc les deux types de marquage.61) Marquage focal (fig.

49) 42.19) 21. En effet.64) Tableau 12 : caractérisation de deux types de marquage. divisées par la proportion de noyaux marqués. Pour caractériser des arrangements cellulaires. La modélisation des relations de voisinage a déjà été largement utilisée sur des images histologiques en tant qu’outil de caractérisation de l’architecture tissulaire.2. plusieurs études appliquées ont été proposées. on est ici entre les deux cas extrêmes de la simulation de la figure 80.44% (1.22% 0. on peut déduire que la répartition des noyaux marqués est plus uniforme dans les files indiennes (figure 84b) que dans les territoires bien différenciés (figure 84a).81% 17. les différences observées proviennent à la fois d’un pourcentage différent de noyaux marqués et d’une organisation architecturale différente.06). 84b) 36. Dans ce cas.138 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale Territoires bien différenciés (fig. Discussion Ce travail a fait ses preuves sur une dizaine d’images représentant des situations très variées.99% (21.1.2.87% (0. les arêtes de type I sont moins nombreuses que celles de type II. On peut également citer K.16) 21. K.72) 47. indiquent des marquages dispersés dans les deux cas.21) 7.4.15) Organisation en files indiennes (fig. Bibbo [BIBBO 1990] utilise un graphe moins dense que le graphe de Delaunay et mesure les aires des polygones délimités par ses arêtes.29) aux valeurs du tableau 11 (1. Nous ne prétendons cependant pas fournir de résultats chiffrés d’un point de vue biologique.74% (5. pour de véritables images et une détection automatique des noyaux marqués.41% (1. D’autre part.98% (0. Notre objectif est de mettre au point une méthode d’analyse et de proposer un outil automatique aux experts du domaine d’application. Kayser qui décompose une population en plusieurs groupes homogènes (par exemple du point de vue de . en comparant les proportions moyennes de marquage autour des noyaux marqués (5. Rodenacker [RODENACKER 1992] identifie les différentes couches d’une structure stratifiée grâce aux graphes de voisinage.14% (1.2).69) 91. M. D’une part.07) 100% (2.67% (5.36 et 13.58% (1.16) 39.16 et 1.4. 84a) Noyaux marqués Arêtes de type I Arêtes de type II Arêtes de type III Proportion maxi Proportion moyenne Écart type 4.29) 23.45% (0. les proportions des deux premiers types d’arêtes. Outre les méthodes déjà présentées (section II. IV. Cependant.82) 81% (19.

Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 139 l’orientation) [KAYSER 1991] ou qui caractérise l’ensemble d’une population grâce à sa notion d’entropie structurelle [KAYSER 1996]. pour prendre en compte l’ensemble de l’échantillon tumoral. tant pour l’étude de la topographie du marquage que pour la segmentation des amas de cellules tumorales. il conviendra d’aborder le problème de la taille de l’image analysée par rapport à la taille de l’échantillon et de travailler vraisemblablement sur des mosaïques d’images. Enfin. la vraie distance inter-nucléaire et non la distance entre centres de gravité. La réduction d’un noyau cellulaire à un point peut également être discutée. Le travail présenté n’a pour objectif que de fournir des critères de quantification d’une image isolée . À notre connaissance. Pour l’appréciation de la topographie du marquage. Notre outil est actuellement implanté au Centre Régional de Lutte Contre le Cancer où il est mis à l’épreuve sur un plus . pour effectuer un pointage interactif des noyaux à étudier. nous avons pris en compte. Il exploite également les opérations de morphologie mathématique sur les graphes (fermetures) afin d’étudier la taille des regroupements de cellules. calculé à partir de la partition de Voronoï d’une population de cellules. Raymond [RAYMOND 1993] propose une analyse quantitative de l’architecture d’un tissu en utilisant le graphe de Gabriel. Dans notre approche. Il utilise un graphe de distances afin de rendre compte de la structure des massifs nucléaires vis-à-vis des noyaux de la périphérie. la première méthode d’analyse proposée (étude des proportions d’arêtes) a une signification très proche de celle proposée par J. avec toutefois l’avantage de prendre en compte deux catégories d’arêtes homogènes (types I et III). Il est à noter que ces graphes n’ont pas été utilisés par ces auteurs dans l’optique de développer un outil totalement automatique et que leur manipulation a le plus souvent nécessité une intervention de l’utilisateur. E. Palmari [PALMARI 1997]. les graphes n’ont pas été utilisés pour localiser et distinguer des compartiments cellulaires. Ces modèles ont récemment fait la preuve de leur intérêt dans la caractérisation de la topographie d’un immunomarquage nucléaire au MiB1 pour l’évaluation du pronostic du cancer du sein [HAROSKE 1996]. L’originalité essentielle de notre travail est de les avoir utilisés comme un outil de segmentation des massifs cellulaires et d’avoir effectué cette segmentation directement sur la structure de graphe. hormis le travail de Smadja [SMADJA 1992] qui permet de segmenter une image par classification des régions de Voronoï (segmentation morphologique proposée dans [ MARCELPOIL 1991]). qui ne peut rendre compte de l’anisocaryose (différence de taille des noyaux) fréquemment rencontrée dans les cancers.

nous avons effectué une opération d’interpolation linéaire entre les plans.3. le traitement d’images de coupes histologiques n’est pas différent selon que l’on travaille sur des images 2D de coupes fines ou des images 3D de coupes épaisses. À l’origine. on peut simuler des voxels de 0.25×0. . Cette exploitation permet de préciser les seuils utilisés lors de la segmentation. D’un autre coté. Or. l’approximation linéaire de la diminution d’intensité en fonction de la profondeur ne s’est pas avérée satisfaisante et des calculs beaucoup plus complexes de correction devraient être mis en œuvre.25µm de côté dans les trois directions. En modélisant une cellule par une boule plus intense au centre qu’à la surface. Extrapolation à la troisième dimension En ce qui concerne les méthodes mises en œuvre. cette approche est adaptée pour l’étude d’images tridimensionnelles. Nous avons alors fabriqué une image comportant deux groupes d’objets et nous lui avons appliqué l’enchaînement d’opérateurs utilisés en deux dimensions. les voxels ont une taille de 0. Il est donc légitime d’étendre à la troisième dimension le travail présenté précédemment. il faudrait que les images puissent être directement manipulées en trois dimensions. l’acquisition faite par le microscope confocal n’est pas isotrope et présente une perte de qualité dans les plans profonds. afin d’envisager leur détermination automatique. nous avons généré des images correspondant à des distributions uniformes de cellules dans un espace à trois dimensions. IV. les images ne présentent pas de massifs et les traitements sont sans intérêt. Une vue 3D de cette image est proposée sur la figure 85. Dans ce cas.25×0. Nous avons commencé par valider le passage de la 2D à la 3D en utilisant des images artificielles. pour appliquer les mêmes méthodes de traitement. dans l’optique de la réalisation d’un outil de quantification des immunomarquages nucléaires totalement automatisé. Cependant. Afin de retrouver une image dans laquelle les voxels sont isotropes.1.50µm3 mais en augmentant le volume.140 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale grand nombre d’images. Grâce à l’indépendance de la structure de graphe vis à vis de la dimension des images traitées (2D ou 3D).

Nous avons poursuivi notre extension à la 3D sur une véritable image de coupe histologique épaisse.5µm3. a b c d Figure 86 : projections axiales (a et b) et latérales (c et d) d’une image comportant deux groupes d’objets et de la segmentation en massifs. grâce au logiciel « SurfTool ». d’une image artificielle comportant deux groupes d’objets. Elle est composée de 50×256×256 voxels de 0.5×0. On voit qu’il est difficile de segmenter chaque cellule mais que les groupes de cellules peuvent être distingués. Des projections axiales et latérales permettent d’appréhender la séparation (figure 86). Le résultat de la segmentation correspond à des objets affectés d’un numéro de groupe.5×0. Nous vérifions ainsi qu’il est possible de séparer des regroupements d’objets dans une image tridimensionnelle. acquise par microscopie confocale. On constate de plus que la qualité de l’image décroît avec la profondeur. .Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 141 Figure 85 : visualisation 3D. La figure 87 présente 3 des 50 plans de cette image ainsi que sa projection axiale.

d : projection axiale des 50 plans de l’image. a : 5 plan de l’image. ils peuvent apparaître sous la forme de plusieurs composantes disjointes. nous avons utilisé la méthode de segmentation de la section II. dans un plan particulier (figure 88a). c : 30ème plan. La méthode de segmentation des noyaux utilisée en 2D n’étant pas adaptée aux caractéristiques de ces images 3D. . Comme les objets sont tridimensionnels.142 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale a b c d ème Figure 87 : image de coupe histologique épaisse.3. de même étiquette. b : 15ème plan. Nous obtenons ainsi les objets de la figure 88.2.

Nous avons pour cela coupé toutes les arêtes reliant des objets distants de plus de 60 voxels. b : projection axiale de l’image. Afin de mieux appréhender le résultat du traitement. dans n’importe quelle direction de l’espace 3D. b : projection axiale de l’image. En suivant la même stratégie qu’en deux dimensions. a b Figure 89 : mise en évidence des regroupements d’objets.Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 143 a b Figure 88 : segmentation initiale des objets de l’image. Nous avons ensuite segmenté ce graphe afin d’obtenir les regroupements de la figure 89. a : 15ème plan de l’image. a : 15ème plan de l’image. la figure 90 propose une visualisation tridimensionnelle des objets conservés (indépendamment du groupe auquel ils appartiennent). nous avons supprimé les petits objets (inférieurs à 100 voxels) et nous avons construit le graphe de voisinage. .

144 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale Figure 90 : visualisation tridimensionnelle des objets conservés à la fin du traitement.2. En recherche expérimentale. L’objectif du traitement d’images de cytologie est de décrire les transformations des principaux constituants (noyau. indépendamment les unes des autres. de couleur. Les cellules observées en cytologie ont deux principales provenances. L’observation et la quantification des mécanismes intimes de prolifération et de différentiation cellulaire sont particulièrement utiles dans la compréhension des maladies difficiles à soigner comme les transformations malignes ou virales. IV. IV. cytoplasme) selon des critères de forme. Grâce à ces deux études. .1. les cellules peuvent être colorées avant d’être observées au microscope. de texture. les cellules sont cultivées sur un support. En cytologie clinique. les cellules d’un tissu biologique sont dissociées. dans un milieu nutritif. nous pouvons affirmer qu’une fois le problème de la correction des images résolu.2. sur une image de synthèse et sur une véritable image acquise au microscope confocal. Quantification de la présence de contacts focaux La cytologie La cytologie s’attache à étudier les caractéristiques morphologiques des entités autonomes que sont les cellules. il sera immédiat d’opérer l’analyse de l’architecture cellulaire dans des images 3D de coupes histologiques épaisses. etc. Dans les deux cas.

Nous avons procédé à de nombreuses acquisitions d’images grâce au microscope confocal en fluorescence. Avec les cellules OAW42 (adénocarcinome ovarien humain). Les contacts focaux apparaissent lorsque la cellule s’attache à son support. etc. Le phénomène que l’on cherche à mettre en évidence et à quantifier est a priori un phénomène transitoire. Parmi les avantages de cette technique il faut retenir qu’elle permet un contrôle presque total sur l’environnement de développement des cellules (la culture cellulaire nécessite généralement l’emploi de sérums animaux dont la composition est complexe et variable). l’objectif 63×/1. Des cellules de la lignée OAW42 ont alors été cultivées et les phosphotyrosines ont été mises en évidence par immunofluorescence. Ses applications sont très variées dans les domaines du diagnostic de comportements viraux. ces structures apparaissent localisées au sein des contacts focaux où elles sont colocalisées avec l’intégrine αvβ3 et la vinculine (une protéine caractéristique de ces contacts focaux). IV. Elle s’applique au maintien en vie d’organes. à la reproduction cellulaire. et qu’elle autorise les expérimentations sur des tissus humains. la culture de cellules ne fait pas intervenir tous les phénomènes présents in vivo et l’extrapolation des résultats nécessite une grande prudence. En particulier. de la thérapie par utilisation de greffes. a cherché à quantifier la présence de phosphotyrosines. l’équipe de recherche en cancérologie expérimentale du Centre François Baclesse. membre du Groupe Régional d’Études sur le Cancer.40 . La méthode de préparation des cellules étudiées est détaillée en Annexe 4. la culture cellulaire autorise une étude aisée de l’activité cellulaire au cours de son cycle cellulaire. des groupements appartenant aux protéines responsables de la transmission de messages entre la cellule et son support. certains points limitent encore son utilisation. etc.2. Afin de traiter de manière identique l’ensemble des images. nous avons dû standardiser nos acquisitions.2. L’observation de ce phénomène in vivo est par conséquent très improbable et nous avons travaillé sur des phénomènes provoqués in vitro. l’aspect tridimensionnel du développement des cellules n’est généralement pas respecté puisque la culture se fait en général à la surface d’un support plan. à la croissance de tissus.Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 145 La technique de culture existe depuis le début du XXième siècle mais ne s’est véritablement développée que dans les années 1950. Cela en fait donc un puisant outil de recherche. des interactions entre les cellules et avec leur environnement. Cependant. Quoi qu’il en soit. Les objectifs de l’étude Dans le but de mieux comprendre le phénomène d’ancrage des cellules cancéreuses sur un support lors du processus de dissémination métastatique. Enfin. de la recherche pharmacotoxicologique. Une fois la luminosité et le contraste réglés.

Résolution du problème Ce travail n’en étant qu’à une étape très expérimentale.5µm et que le coté d’un voxel mesure 0. l’information intéressante est une quantification des contacts en terme de nombre et d’intensité. Les protéines étudiées apparaissent comme des petits points intenses près de la périphérie des cellules. grâce notamment à l’approche liée à la bibliothèque P ANDORE. Ainsi.4µm. on sait que les contacts focaux recherchés ont une taille de l’ordre de 0. il nous a paru utile de réaliser une étude cinétique. On admet pour la suite que les objets observés sont effectivement les contacts focaux de la cellule. Sur la partie basse de l’image. Comme de plus. nous n’avons pas cherché à obtenir un résultat en trois dimensions. Le fait de disposer d’une image tridimensionnelle incite à chercher une quantification volumique des contacts focaux. on trouve le contour des cellules et les contacts focaux.4µm3. .2. Figure 91 : coupe schématique d’une cellule cultivée sur une lamelle de verre. IV. Pour ce faire. des cellules d’une même préparation ont été mises en culture pendant des durées différentes et des images ont été acquises à ces différents instants. En effet. sur la partie haute de l’image on n’observe que le sommet du noyau. Cependant. Nous commençons donc par étudier la quantification des contacts focaux au sein d’une image et nous analyserons ensuite l’évolution de ces résultats au cours du temps. On sait que celles-ci doivent se présenter sous la forme d’un « œuf au plat» : le cytoplasme aplati sur le support et le noyau de la cellule dépassant au dessus du reste (figure 91).4×0. Certaines phases de ce traitement pourront par la suite être améliorées. nous avons choisi de simplifier quelque peu le problème et d’accepter une intervention manuelle au cours du traitement des images.146 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale permet d’acquérir des images de 512×512×20 voxels d’une taille unitaire de 0. Enfin.4×0.3. La troisième dimension permet de sélectionner les informations à manipuler. Les images 3D permettent de conserver la géométrie des cellules. le phénomène que nous voulons quantifier étant variable dans le temps. on peut localiser chaque cellule présente.

relativement isolées. non coupées.2.1. Les figures 92 et 93 sont des projections axiales des volumes 3D correspondants.3. certaines cellules représentatives. La fluorescence fournit des images dans lesquelles les objets sont clairs sur un fond sombre mais pour des raisons de meilleure appréciation des contrastes à l’ œ il. . Nous avons alors créé une image pour chacune de ces cellules. Parmi toutes les images acquises. manuellement pour le moment. L’objectif final reste cependant la quantification automatique de la population de contacts focaux appartenant à chacune des cellules d’une image. Il est donc clair qu’une caractérisation globale de l’image ne peut pas fournir de renseignements exploitables et nous avons décidé de n’étudier que certaines cellules (figure 93). etc. Ces projections permettent d’avoir une bonne approximation du contenu des images sans avoir recours à une délicate visualisation 3D. Figure 92 : projection axiale d’une image de cellules de culture. nous avons sélectionné. inintéressants. Décomposition du problème Nous nous sommes rendu compte qu’une image (par exemple.Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 147 IV. l’image de la figure 92) peut contenir un grand nombre d’objets parmi lesquels certains sont à étudier mais où apparaissent également des objets coupés. collés. Les niveaux de gris obtenus par fluorescence (objets clairs) ont été inversés pour permettre une meilleure visualisation. nous présentons ici les images inversées.

148 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale a b Figure 93 : délimitation manuelle des domaines d’étude pour deux des cellules de la figure 92. la courbe du niveau de gris moyen d’un plan en fonction de sa profondeur est comparable (figure 94). Nous avons mis au point une technique séparant automatiquement l’image en deux parties. Pour localiser les contacts. Les projections de ces deux sous-images fournissent des images 2D pouvant être traitées indépendamment. nous n’avons besoin de manipuler que la partie basse des images. Dans toutes les images. . Nous avons particulièrement travaillé sur l’image permettant la localisation des contacts focaux.

Chapitre IV : Application au traitement d’images obtenues par microscopie confocale

149

Figure 94 : courbe du niveau de gris moyen des plans de l’image en fonction de leur profondeur dans l’image. Deux points caractéristiques ont été retenus : le maximum d’intensité moyenne et la moitié de ce maximum sur la partie décroissante de la courbe. Les deux plans correspondants servent à délimiter les deux parties à traiter. IV.2.3.2. Localisation des objets

En termes de biologie, on cherche des concentrations de fluorescence sur la périphérie des cellules. En termes de traitement d’images, on cherche à localiser des petits points intenses près du bord des zones plus claires et plus inhomogènes que le fond. Les opérateurs de morphologie mathématique (ouverture, chapeau haut-de-forme) permettent progressivement de décomposer l’image en différents objets. La standardisation de la résolution des images acquises (0,4×0,4×0,4µm3) a alors un grand intérêt puisque les opérateurs de type morphologique sont sensibles à la taille des éléments à détecter. On a ainsi le traitement suivant. Dans un premier temps, on fait la distinction entre le fond et les objets : • binarisation (seuil : 15), • dilatation pour combler les petits trous, • érosion de taille 6 et reconstruction par dilatation conditionnelle dans la première dilatation,

150

Chapitre IV : Application au traitement d’images obtenues par microscopie confocale

• suppression des objets dont la surface est inférieure à 500 pixels. On localise ensuite le bord des cellules : • recherche des frontières (figure 95), • régularisation des contours (figure 96).

a b Figure 95 : localisation du contour des cellules à étudier (cellules de la figure 93).

a Figure 96 : régularisation du contour des cellules.

b

La localisation des petits objets est faite par un opérateur « chapeau haut-de-forme » : • ouverture de taille 2, • binarisation (seuil : 35) de la différence avec l’image initiale. Enfin, on sélectionne les contacts focaux près du bord des cellules :

Chapitre IV : Application au traitement d’images obtenues par microscopie confocale

151

• recherche des points près des bords (carré de la distance euclidienne en pixels inférieure à 275), • ET logique entre les petits objets, l’intérieur des cellules et la zone proche des bords, • reconstruction par dilatation de cette sélection dans les objets, • suppression des objets inférieurs à 2 pixels (figure 97).

a b Figure 97 : localisation des contacts focaux (points intenses près du bord des cellules). Nous obtenons ainsi la localisation des cellules, du bord des cellules et des contacts focaux. Afin d’évaluer la qualité de cette segmentation, nous l’avons comparé à une localisation manuelle des contacts focaux et des contours des cellules. Pour cela, nous avons utilisé 14 cellules prises au hasard dans notre échantillon (figure 98).

Figure 98 : allure des 14 cellules utilisées afin d’évaluer la qualité de notre segmentation. Nous constatons que la segmentation automatique détecte en général plus d’objets que le pointage manuel (en moyenne, 12% de plus). Il s’agit en général de points trop loin du bord

152

Chapitre IV : Application au traitement d’images obtenues par microscopie confocale

des cellules pour avoir été pointés comme des contacts focaux. En ce qui concerne la localisation des cellules, la segmentation automatique ne conserve en moyenne que 95% de la surface contenue à l’intérieur des contours manuels. En effet, le tracé manuel est toujours à l’extérieur de la segmentation automatique et toujours plus régulier. La mesure du périmètre des cellules confirme cette relation d’inclusion, malgré la relative irrégularité des contours automatiques, puisque ces derniers ne correspondent qu’à 86% de la longueur du tracé manuel. IV.2.3.3. Quantification des objets

Pour chacune des cellules étudiées, nous avons mesuré des grandeurs relatives à la cellule (aire, périmètre, niveau de gris moyen) et relatives aux contacts focaux de cette cellule (nombre de contacts, surface cumulée des contacts, niveau de gris moyen des contacts). Par exemple, pour les cellules de la figure 93, nous obtenons les résultats du tableau 13. Cellule de la figure 93a Surface de la cellule Périmètre de la cellule Niveau de gris moyen de la cellule Nombre de contacts Surface cumulée des contacts Niveau de gris moyen des contacts 12151 pixels 471 pixels 40,07 59 443 pixels 93,70 Cellule de la figure 93b 8358 pixels 354 pixels 37,76 49 314 pixels 79,82

Tableau 13 : résultats de la quantification des cellules de la figure 93. On pourra par conséquent en déduire plusieurs autres informations intéressantes : proportion surfacique de contacts dans une cellule, rapport de la surface des contacts sur le périmètre de la cellule, etc. IV.2.4. Exploitation des résultats

Nous avons principalement travaillé sur deux séries d’acquisition d’images. Chaque série correspond à la mise en culture d’un ensemble de cellules homogènes. À différents instants (2 heures, 4 heures, 6 heures, 24 heures), la culture a été stoppée et des images correspondant à certaines cellules ont été acquises. Le tableau 14 regroupe le nombre de cellules étudiées, pour chacune des deux séries d’acquisitions, à chaque instant.

a : première série d’acquisitions à 2 heures. b : seconde série d’acquisitions à 2 heures. la culture a été stoppée à différents instants pour les différentes cellules. niveau de gris moyen des contacts focaux. a b Figure 99 : surface des cellules pour chacune des séries de cellules. Les figures 99 à 104 présentent les mesures faites sur l’ensemble de ces cellules. il est nécessaire de disposer d’un nombre de cellules suffisamment important.Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 153 Première série 2 heures 4 heures 6 heures 24 heures 10 6 12 Seconde série 1 13 23 Tableau 14 : répartition des cellules étudiées. surface cumulée des contacts focaux. Pour chacune des deux séries d’images. aucune conclusion ne sera tirée à propos de la cellule de la seconde série visualisée après 2 heures de culture. Pour pouvoir extraire une information valide relative à un instant donné. Par chaque série. 6 heures et 24 heures. On a cependant choisi de représenter toutes les mesures pour l’ensemble des 65 cellules. nombre de contacts focaux par cellule. Les échelles utilisées sont identiques pour les deux séries. . Les six mesures proposées précédemment sont illustrées pour les deux séries de cellules : surface des cellules. niveau de gris moyen des cellules. périmètre des cellules. 4 heures et 6 heures. En conséquence. la valeur minimale et la valeur maximale ont été enlevées afin de s’affranchir d’éventuels résultats marginaux. L’objectif est de visualiser la dispersion des mesures ainsi que les positions relatives de leurs moyennes.

154 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale a Figure 100 : périmètre des cellules. b a Figure 102 : nombre de contacts focaux par cellule. b a Figure 101 : niveau de gris moyen des cellules. b . b a Figure 103 : surface cumulée des contacts focaux.

Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 155 a Figure 104 : niveau de gris moyen des contacts focaux. IV. En ce qui concerne l’évolution des mesures au cours du temps. Enfin. les mesures semblent ne plus évoluer au-delà de la sixième heure de culture.2. intensité) sont différentes. En complément de cette analyse. Dans un premier temps. surface. Il s’agit de localiser des zones claires plus vastes que les contacts focaux. les opérateurs de morphologie mathématique permettent de localiser les noyaux des cellules à partir de la partie haute de l’image 3D. principalement entre 4 heures et 6 heures. L’analyse biologique des mesures effectuées sur les 65 cellules étudiées doit bien entendu être terminée par des experts du domaine. Dans un second temps. on voit que celles-ci semblent confirmer l’aspect temporaire du phénomène d’ancrage des cellules. appliqué à la quantification des contacts focaux dans des cellules de culture. les graphes de voisinage offrent la possibilité d’organiser les contacts focaux en fonction de la proximité des noyaux des cellules. Les variations de la surface et du périmètre des cellules correspondent à un étalement des cellules sur leur support et à la régularisation de leur périphérie. le graphe de voisinage des deux populations (figure 106a) d’objets (contacts focaux et noyaux cellulaires) peut être construit (figure 106b). . Dans le même temps. Cependant. plusieurs autres traitements peuvent participer à l’automatisation des mesures. le nombre et l’intensité des contacts focaux semblent s’atténuer puis augmenter au cours des premières heures.5. On note ensuite que les mesures relatives aux contacts focaux (nombre. nous disposons d’un protocole de segmentation des images et de présentation des résultats. Perspectives Ce travail illustre donc la possibilité de développer un outil informatique. b On constate dans un premier temps que les mesures d’une même catégorie de cellules (même série et même temps de culture) sont relativement homogènes. Par exemple. pour les cellules de la figure 105.

b : partie haute de l’image.156 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale a b Figure 105 : exemple d’image comportant trois cellules. a : deux populations d’objets extraites de la figure 105. . utilisée pour localiser les noyaux des cellules. a b Figure 106 : relations de voisinage entre les noyaux de cellules et les contacts focaux. chaque contact focal peut être rapporté à une cellule (figure 107). b : graphe de voisinage. En segmentant le graphe de voisinage selon certaines règles de proximité. a : partie basse de l’image 3D permettant de localiser les contacts focaux. qu’il conviendra de préciser en fonction des contraintes biologiques.

Contexte biologique Le test SHE a pour objectif d’évaluer le potentiel carcinogène d’un produit chimique par la recherche et le comptage de colonies cellulaires ayant subi une transformation morphologique après exposition à ce produit [ISFORT 1996]. Nous illustrons ici la possibilité de traiter. IV. Toutes les cellules d’un embryon de hamster . On peut alors rapporter les mesures effectuées sur les contacts focaux à chacune des cellules et caractériser ainsi les cellules elles-mêmes. l’utilisation du test SHE est grandissante. Comme dans le cas des images histologiques. Dans le but d’étudier l’action carcinogène de différents agents chimiques. l’objectif est ici d’étudier des cellules.3. mais dans le cadre d’une culture contrôlée.1. membre du Groupe Régional d’Études sur le Cancer (GRECAN). Les gros points représentent ici les noyaux cellulaires. on ne peut pas véritablement parler d’histologie puisque les cellules ne sont pas étudiées au sein d’un tissu biologique.3). IV. non pas indépendamment les unes des autres mais au sein d’une organisation plus vaste. grâce à des stratégies 2D½ (section II. Cependant. Nous avons le projet de caractériser l’architecture tridimensionnelle des colonies cellulaires transformées et non transformées obtenues par ce test. Architecture de transformation cellulaire : test SHE Dans cette section. des images dans lesquelles les objets à segmenter sont effectivement tridimensionnels. nous présentons un travail mené en collaboration avec le service de cancérologie expérimentale du Centre de Lutte Contre le Cancer de Caen.Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 157 Figure 107 : exemple de segmentation du graphe de voisinage afin de répartir les contacts focaux entre les différentes cellules.3.

3). avec une résolution menant à des voxels de 0. Bessi [BESSI 1995]. Par exemple. Les clones. les différences de niveaux de gris entre deux plans successifs de l’image sont très grandes et limitent l’utilisation des traitements globaux tridimensionnels. . etc. des cellules se reproduisant rapidement ont tendance à se chevaucher et à former des amas de cellules sur plusieurs couches alors que des cellules normales s’éloignent et se répartissent sur une seule couche. sur la figure 108. Traitement des images Pour ce type de préparation. qui se traduit par une modification de l’aspect des clones et des cellules (diminution du rapport nucléo-plasmique. L’objectif est de pourvoir distinguer ces types de transformation. En effet. selon la méthode présentée par H. Nous avons choisi de tenir compte de cette atténuation des niveaux de gris et d’adopter une stratégie de traitement de type 2D½ telle que celle décrite précédemment (section II. Les images ont une taille de 512×512×20 voxels. sont décolorés par 3 bains successifs dans de l’éthanol à 70% puis recolorés 30 mn dans une solution de bromure d’éthidium à 1 µg/l dans de l’eau pour l’observation au microscope confocal.40×0.3. Les clones transformés et non transformés ont été obtenus par l’équipe du Centre des Sciences de l’Environnement de Metz. « peignage » des colonies. L’organisation de ces colonies peut être étudiée en microscopie bidimensionnelle [RIDDER 1997] mais il semble également intéressant de caractériser leur organisation tridimensionnelle.4).2. en fluorescence.50µm3 (objectif 63×/1. on voit la différence de contraste entre des plans distants de seulement 1.40×0. IV. Les cellules se multiplient et peuvent donner naissance à une colonie (des clones). L’intérêt d’un tel test est d’observer l’ensemble du phénomène de transformation cellulaire.5µm. Les acquisitions sont faites au microscope confocal à balayage laser. colorés au Giemsa pour l’observation en transmission et l’identification des clones transformés. chevauchement des cellules.158 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale chinois (Syrian Hamster Embryo ou SHE) sont séparées et mises en culture.).

chaque plan présente un contraste optimal (figure 109). Figure 109 : amélioration du plan le plus profond (image de droite) de la figure 108. Nous commençons par opérer un prétraitement sur l’image afin de l’améliorer. .Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 159 Figure 108 : deux plans distants de 1. Ainsi. Elle est obtenue par diffusion linéaire de l’image 3D et étalement des niveaux de gris du plan entre 0 et 255. Nous effectuons une diffusion linéaire de l’image 3D afin de limiter le bruit et nous améliorons chaque plan indépendamment de ces voisins en modifiant la dynamique des niveaux pour l’étendre entre 0 et 255.5µm dans une image tridimensionnelle noyaux cellulaires.

a : projection axiale de l’image 3D. tous les points ayant un niveau de gris proche de la moyenne de la région sont agrégés à la région. b : segmentation de la projection. nous effectuons une segmentation de la projection axiale de l’image 3D afin d’initialiser la segmentation 3D. • détermination de la ligne de partage des eaux à partir de ces érodés ultimes et de l’amplitude du gradient de l’image après fermeture.160 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale Ensuite. une érosion de chaque région est recopiée comme point de départ pour calculer la moyenne de niveaux de gris (différente du plan de départ) et les points ayant un niveau de gris proche de cette moyenne sont agrégés. • numérotation des érodés ultimes de ces régions pour obtenir des germes. nous opérons une croissance de cette segmentation. dans l’image 3D corrigée. a b Figure 110 : exemple de segmentation bidimensionnelle. Enfin. afin de séparer les noyaux collés (figure 110). . L’intérêt de cette projection est qu’elle contient une contribution de chacun des objets de l’image. depuis le plan correspondant au plan le plus contrasté de l’image d’origine : • au sein du plan considéré. • dans les plans voisins. Cette segmentation initiale est obtenue par l’enchaînement des opérations suivantes : • fermeture morphologique de taille 2 et binarisation optimale (valeur donnant une variance interclasse maximale) pour obtenir une première approximation des régions à extraire.

La figure 113 illustre la segmentation tridimensionnelle des objets contenus dans cette image. a b Figure 112 : segmentation d’une image comportant des amas de noyaux. Nous avons appliqué le même traitement à une image comportant des amas de noyaux. La figure 112 présente la projection axiale de cette image et la segmentation 2D initiale.Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 161 • les moyennes de niveaux de gris des régions sont recalculées pour chaque plan et on réitère l’opération en s’éloignant du plan de départ. . y et z sont très différentes et l’appréciation de l’ensemble de l’image est difficile. b : segmentation de la projection. Figure 111 : visualisation tridimensionnelle de la segmentation des noyaux de la figure 110. a : projection axiale de l’image 3D. les dimensions en x. Cependant. Le résultat de la segmentation est une image tridimensionnelle qui peut être observée avec un rendu volumique (figure 111).

162 Chapitre IV : Application au traitement d’images obtenues par microscopie confocale Figure 113 : visualisation 3D de la segmentation d’une image comportant des amas de noyaux. un seuil sur l’indice de concavité. Par exemple. Nous disposons donc d’un outil de traitement capable de localiser des objets dans des images 3D acquises par microscopie confocale. nous avons travaillé sur les quelques images dont nous disposions. pour les objets de la figure 111. Pour mettre au point cet outil. le pourcentage d’amas dans la colonie par rapport au nombre de noyaux isolés). présentant en général une seule couche de noyaux cellulaires. Tous ces objets ont donc des concavités voisines.66.3. Résultats À la suite de cette segmentation. Nous avons utilisé des opérations simples afin de localiser des régions dans une image 2D et initialiser une croissance tridimensionnelle. La recherche de l’enveloppe convexe d’un objet et le calcul de l’indice de concavité ou de l’indice de déficit isopérimétrique permettent de préciser si l’objet étudié est une cellule seule ou un amas de cellules.61. l’objectif est de caractériser la forme de chaque objet (cellule ou amas) et de déduire une information sur l’architecture des colonies cellulaires (par exemple. Cependant.40 et 0. Dans le cas de la figure 113.05. l’indice de concavité varie entre 0. Nous pourrons alors déterminer. IV. permettant de distinguer les noyaux isolés des amas de noyaux. par apprentissage. Nous devons également examiner d’autres . Nous devons désormais appliquer cette méthode de segmentation à de nombreuses images. sa moyenne est 0. Nous pouvons par exemple combiner des opérations de morphologie mathématique et des opérateurs sur les contours actifs afin d’initialiser la croissance [SCHÜPP 1998]. les objets sont plus irréguliers : les indices de concavité s’étendent de 0.15.02 à 0. présentant des colonies cellulaires normales et anormales.53 et l’écart type est 0.3. avec un écart type de 0. ces traitements sont très facilement modifiables grâce à l’utilisation de la bibliothèque d’opérateurs PANDORE.

. Il s’agit désormais d’évaluer ces résultats et de mettre en évidence les imperfections des traitements sur de larges séries d’images.Chapitre IV : Application au traitement d’images obtenues par microscopie confocale 163 mesures (comme la surface ou l’épaisseur des objets) susceptibles de renseigner sur la nature des objets et de distinguer les amas monocouches des amas multicouches. Les résultats que nous fournissons constituent un point de départ dans le processus d’échange avec l’expert du domaine d’application : le pathologiste ou le biologiste. La bibliothèque PANDORE comporte une large gamme d’outils permettant de tester facilement de nombreuses stratégies de traitement d’images. Ces quelques exemples d’applications illustrent notre capacité à proposer une réponse à un problème posé.

.

Conclusion .

.

Nous avons ainsi exploité la structure des graphes de voisinage pour représenter des populations d’objets et tenir compte de leur organisation spatiale. nous avons étudié les différentes étapes utiles à l’analyse d’images de microscopie cellulaire 3D : l’acquisition des images. L’objectif était de chercher des réponses à des problèmes variés. Nous avons ensuite illustré la mise en œuvre de notre méthodologie de développement sur quelques exemples d’applications de quantification d’images de microscopie cellulaire. capable de manipuler des relations de proximité et de ressemblance entre des objets quelconques. nous avons choisi de tenir compte des caractéristiques des images à l’intérieur même des traitements que nous leur appliquons. Les résultats fournis demandent à être validés du point de vue biologique et les méthodes proposées doivent être mises à l’épreuve sur un plus grand nombre d’images. nous avons présenté l’implantation d’un certain nombre d’opérateurs généraux de traitement et de caractérisation. En complément de la représentation classique des images sous forme de grilles régulières de points.Conclusion 167 Dans ce travail. En particulier. . l’implantation des opérations de traitement d’images. l’étude d’images de microscopie cellulaire nous a incité à développer une représentation complémentaire. les stratégies de traitement d’images. par l’enchaînement d’opérateurs atomiques. En effet. nous avons proposé de traiter les images grâce à des stratégies de type 2D½ plutôt que d’utiliser des traitements isotropes 3D. le principe optique du microscope et l’utilisation du phénomène de fluorescence apportent des imperfections dans les images. Même si nous avons vu que de nombreux travaux permettent de corriger une partie de ces imperfections. Nous avons montré que le microscope confocal permet de pallier la limitation de l’imagerie 2D dans l’acquisition d’images de microscopie cellulaire. Sur ces deux types de représentation des images. Cet environnement permet de développer efficacement des applications de traitement d’images. la quantification d’images. dans l’environnement de la bibliothèque PANDORE. afin d’initier un mécanisme de travail avec les experts du domaine des images. Nous avons cependant constaté que les images obtenues nécessitent un traitement particulier.

même si nous avons choisi de ne pas approfondir la correction des images acquises par microscopie confocale. d’ouverture numérique. notre travail laisse envisager plusieurs améliorations. Les marqueurs fluorescents utilisés doivent être choisis au mieux pour conserver une bonne homogénéité au cours de l’acquisition (limitation du photoblanchiment). pour permettre la manipulation du plus grand nombre d’images. La correction de ces phénomènes optiques complexes nécessite cependant une parfaite connaissance des caractéristiques du matériel. de nombreuses catégories d’opérateurs doivent venir compléter cette bibliothèque. le matériel optique doit être sélectionné en fonction des images que l’on cherche à obtenir. 3. En particulier. Acquisition des images D’un point de vue physique. D’autre part. Applications Le traitement automatique d’images pose indéniablement la question de l’exactitude des résultats et de la robustesse des méthodes utilisées. Dans le domaine d’applications qui nous préoccupe. de milieu d’immersion.). afin de répondre à tous les besoins. des stratégies de traitement. dans toutes les conditions d’acquisition. la préparation des échantillons biologiques doit demeurer parfaitement rigoureuse. il est nécessaire. atténuation de la fluorescence. etc. une franche différenciation des objets à observer (réduction de l’autofluorescence des tissus). au niveau de l’acquisition des images. pour tous les milieux de montage des échantillons. D’une part. il est très difficile de disposer d’un . la résolution d’un problème s’effectue en combinant les opérateurs de la bibliothèque PANDORE. des résultats obtenus dans les applications traitées. Plusieurs critères de comparaison quantitative existent (par exemple. malgré la grande variabilité des images traitées. 1. 2. En particulier. la qualité des images acquises dépend de deux points principaux.168 Conclusion Plus précisément. et en particulier dans le cas d’images provenant d’études expérimentales. la mesure de Vinet [VINET 1991] pour évaluer le recouvrement ou la distance entre deux segmentations) mais nécessitent la connaissance d’une segmentation « idéale ». en termes de grossissement. etc. Cependant. on prendra soin de déterminer l’objectif le plus approprié à l’échantillon. mesurées sur des objets calibrés. de développer des opérateurs généraux de correction pour ce type d’acquisition (déformations dues à la PSF. Traitement des images Dans de nombreux cas.

Conclusion 169 modèle de segmentation. Un tel travail est actuellement en cours de réalisation pour comparer plusieurs localisations (manuelles et automatiques) des massifs de cellules tumorales présentés dans la section IV. . Cependant. pathologistes. nous faisons principalement appel aux experts du domaine (biologistes.) pour porter un jugement visuel sur nos résultats. Nous avons proposé quelques outils d’évaluation mais ils doivent être complétés par des protocoles plus précis.1. la segmentation proposée par l’expert est la seule référence dont nous disposons et même si elle varie d’un expert à un autre. Il est pourtant nécessaire d’établir des critères d’évaluation plus objectifs. plusieurs points doivent donc être approfondis afin d’exploiter au mieux les possibilités d’acquisition du microscope confocal et de mettre en place des systèmes de traitement automatique des images obtenues. En complément du travail que nous avons présenté. etc. En conséquence. nous devons comparer les résultats de nos traitements automatiques à cette référence manuelle.

.

Références .

.

. AVINASH 1996 Avinash G. L. Bartels P. Bartels H. Stratégie d’analyse automatisée d’images couleur adaptée à la quantification des immunomarquages sur coupes histologiques : une approche par la morphologie mathématique. Kim D. February 1993 : pp. Montanvert A.. August 1996 . rapport de recherche n°3364 de l’Institut National de Recherche en Informatique et Automatique. .. 145-157. 16. Thompson D. BIBBO 1990 Bibbo M. Paris. Vol. 12. Diagrammes de Voronoï 2D et 3D : applications en analyse d'images.. février 1994. Diagrammes de Voronoï ponctuels et généralisés appliqués à la biologie.. H. 183. BESSI 1995 Bessi H... multistage morphological transformation of SHE cells. L’analyse automatique des images médicales... Thèse de Doctorat de l’Université de Caen. 237-234... 1994. Data-driven.. Sophia Antipolis. Synergistic Rast C. Thèse de Doctorat de l’Université J. BELHOMME 1996 Belhomme P. simultaneous blur and image restoration in 3D-fluorescence microscopy. H.Références 173 ACKAH-MIEZAN 1993 Ackah-Miezan A. 229-236.. Discrete models for energyminimizing segmentation.. Pt. Grenoble.. N. Analytical and Quantitative Cytology and Histology. Vol. August 1990 . Journal of Microscopy.. Vol. and TPA in Vasseur P.. BERTIN 1994 Bertin E. Attali D. Galera-Davidson H. Carcinogenesis. effects Rether B. G. Gagalowicz A. Fournier.. 17ième journée de la section française de l’International Society for Stereology. 1995 . Dytch H. février 1998. N. BERTOLINO 1994 Bertolino P. AYACHE 1998 Ayache N.. juin 1996. Tissue architectural features for the grading of prostatic carcinoma... E. of chlordane Nguyen-Ba G. 4 : pp. état de l’art et perspectives. 2 : pp. 2 : pp. 200-207. B.. IEEE Computer Vision and Pattern Recognition. Richards D. Di Loreto C..

Comput. 1-13. Numerische Mathematick. CASELLES 1993 Caselles V. Biol.M. 275 : pp. 1991.174 Références BOUDIER 1997 Boudier T..... Rapport interne du GREYC. ISMRA de Caen. Linnemans WAM.. avril/mai 1995 . février 1994. 162-166. N. CLOUARD 1994 Clouard R.. II : pp. Raisonnement incrémental et opportuniste appliqué à la construction de plans de traitement d’images. Nanninga N. A geometric model of active contours.-A.. Revenu M. Souchier C. Nature. Traité des Nouvelles Technologies. Delorme R. 1997.T. Analyse d’images de cultures cellulaires obtenues par microscopie confocale . Elmoataz A. 748-749.. Revue Française des Laboratoires. J. application à des images de neuroblastomes de souris. Techn.. 1-31.. décembre 1996. 1 : pp. Innov. Elmoataz A. Med..-M. Montanvert A. CLOUARD 1998 Clouard R. Van der Voort H. 1985 . 1997 Clouard R. BRYON 1995 Bryon P. Séries Images Hermès. 1981 . 11ème congrès en Reconnaissance des Formes et Intelligence Artificielle. n°317 : pp.. 1993 . Vol. 18.. Computing Dirichlet tessellation. 37-43.. Dibos F.. Thèse de Doctorat de l’Université Paris V. janvier 1998 . 1997 . Clermont-Ferrand. BRAKENHOFF 1985 Brakenhoff G. CHASSERY 1991 Chassery J. N. Une modélisation explicite et opérationnelle de la connaissance en traitement d’images. Catte F. 65-74... Coll T. .... RFIA’98.. PANDORE : une bibliothèque et un environnement de programmation d’opérateurs de traitement d’images. Angot F. 24 : pp. Three dimensional chromatin distribution in neuroblastoma nuclei shown by confocal scanning laser microscopy. CLOUARD et al. Géométrie discrète en analyse d’images. Thèse de Doctorat de l’Université de Caen.A. Van Spronson E.J.. 66 : pp.. Élaboration d’un modèle de déformation pour la détection de contours aux formes complexes. Vol.. N. La microscopie confocale à balayage laser et ses applications hématologiques. BOWYER 1981 Bowyer A. CLOPPET-OLIVA 1996 Cloppet-Oliva F.

IEEE transaction on Pattern Analysis and Machine Intelligence.. Vol. J... Pasteels J. 125 : pp. 242-263. 273-279. 1.. 317-323. Paris. Martinez J. 783-792.. December 1997 . 14 : pp. Cohen L. 3 : pp. Using deformable surfaces to segment 3D images and infer differential structures.. N. Éditions CNRS.Références 175 COCQUEREZ 1995 Cocquerez J. and Kiss R... 1996 .-L. Lyon I. Kruczynski A.. 56 : pp. Cytometry. DELORME 1997 Delorme R.... 246-253. Ayache N. Etievant C. Liljeborg A. Traitement du signal. Marty F. 251-259. DARRO 1993 Darro F.-P. Thèse de Doctorat de l’Université Claude Bernard... A. Theor. Masson... Sijtsema N. Vol. 188. Confocal 3-dimensional DNA image cytometry in thick tissue sections.-L. 1995. Chermant J.. S.. Journal of Microscopy.. DAVIS 1979 Davis L. Rasigni G.. Texture analysis using generalized co-occurrence matrices. COHEN 1992 Cohen I. Enseignement de la Physique. CZADER 1996 Czader M. 1979 . Otto C. Philipp S.. Pt. Cytometry. Minimal spanning tree analysis of biological structures. Précis d’analyse d’images.. 3 : pp. Llebaria A. D.. DUSSERT 1987 Dussert C. 1987 . 1989. Computer Vision Graphics and Image Processing : image understanding.. . Biol. Greve J. N. 1992 . Characterization of the differentiation of human colorectal cancer cell lines by means of Voronoï diagrams. Auer G. Axial resolution of confocal Raman microscopes : gaussian beam theory and practice.. 1993 .. Rasigni M. Analyse d’images : filtrage et segmentation... M. Porwit A. J.. Johns S. Palmari J.. DE GRAUW 1997 De Grauw C. K. 12 novembre 1997. Microscopie confocale et cytométrie tridimensionnelle : application à l’étude de la localisation de la cycline A et des CDK associées dans les cellules lymphoïdes. Paris. COSTER 1989 Coster M. Aggarwal J. 25 : pp.

Llebaria A. FICET-CAUCHARD 1998 Ficet-Cauchard V. Rasigni G. GEMAN 1984 Geman S.. FRISKEN-GIBSON 1990 Frisken-Gibson S. Mécanismes opératoires d’un segmenteur non dédié : définition d’une base d’opérateurs minimale et implantation.. Microscopy. N. 1989 .... 4.. Porquet C. Revenu M.. 6 : pp. 1990. Belhomme P. Pourreau-Schneider N. pp. An interactive casebased reasoning system for the development of image processing application. Thèse de Doctorat de l’Université de Caen... Measured and analytical point spread functions of the optical microscope for use in 3D optical serial sectioning microscopy. 331-337. Gibbs distributions and the bayesian restoration of images... November 1984 . 721-741. Gandilhon P.-M. Microanalysis. Schüpp S. Stochastic relaxation.. Rasigni M. Réalisation d’un système d’aide à la conception d’applications de Traitement d’Images : une approche basée sur le Raisonnement à Partir de Cas. 109-118. Bloyet D.. 1 : pp. Martin P. Analytical Cellular Pathology. September 1998. GÉRAUD 1998 Géraud T.. .. Thèse de Doctorat de l’École Télécom Paris. Toward a new approach in tumor cell heterogeneity studies using the concept of order. juin 1998. ELMOATAZ 1997 Elmoataz A. Vol. 5/6 : October/December 1996 . Optical Microscopy for Biology. Kopp F. Palmari J.... Revenu M.176 Références DUSSERT 1989 Dussert C. Dublin. Lanni F. ELMOATAZ 1990 Elmoataz A. Herlin P.. Vol.. EWCBR’98. morphology. Automated segmentation of cytological and histological images for the nuclear quantification : an approach based on mathematical Microstructure.. Segmentation des structures internes du cerveau en imagerie par résonance magnétique 3D. 7. N. 123-132. IEEE transactions on Pattern Analysis and Machine Intelligence.. FICET-CAUCHARD 1999 Ficet-Cauchard V. 1990 : pp... Thèse de Doctorat de l’Université de Caen.. Geman D. 14 janvier 1999.

KASS 1988 Kass M. UK. 168-173. Collection de la Direction des Études et Recherche d’Électricité de France.. 1998. Joret J. Masson E.... International Journal of Computer Vision. Angot F.. GREEN 1978 Green P. Computing Dirichlet tesselation in the plane. ISFORT 1996 Isfort R...... 13. 6 : pp. Scientific Publishers. Kunze K. 321-331. HOWARD 1998 Howard C.. KAYSER 1991 Kayser K. V. Datry T. 161-173.. Vol. N.. Belhomme P... 365.. N. 18. 5 : pp. Compact region extraction using weighted pixel linking in a pyramid. Snakes : active contour models.. Paul J. Computer Journal.-M. 222-229. . Bloyet D. 1997 Herlin P. J. 1979... Schilling U.-P. 685-692.. June 1996 . Rougereau O. LeB œufR. Steindorf D. 84 (7) : pp. Terzopoulos D.. Cellular sociology of proliferating tumor cells in invasive ductal breast cancer..–J. HERLIN et al. 1996 . IEEE Trans. Graphes et algorithmes. D.. G. 1978 .. Dimmer V. Signolle J.Références 177 GONDRAN 1979 Gondran M. Sandau K. Minoux M. Theissig F. Vol.. Bulletin du cancer. Sibson R.. 1988 . 191-198. Paris. 1984 . Rosenfeld A. 1997 . HONG 1984 Hong T. 329-334.. measurement in Unbiased stereology . Bios three- microscopy.. Analysis of soft tissue tumors by an attributed minimum spanning tree.. October 1991 . pp. Mutation Research. Oxford. H. Duigou F. Mandard A. D... 3 : pp. on Pattern Analysis and Machine Intelligence. pp. Analytical and Quantitative Cytology and Histology. Plancoulaine B. HAROSKE 1996 Haroske G. N. Eyrolles..-B. Böhm G. A. Vol. Analytical and Quantitative Cytology and Histology. 21 : pp. Witkin A. Application of in vitro cell transformation assays to predict the carcinogenic potential of chemicals.. Deman D. dimensional Reed M.. Automatisation de l’analyse cytodensitométrique du contenu en ADN des tumeurs solides.. and Kunze K..

-M.. 2. Porwit A. Pt. IEEE Transactions on Pattern Analysis and Machine Intelligence. Eichhorn S. February 1995 . A. Traitement numérique des images. .. Fast Estimation of Mean Curvature on the surface of a 3D Discrete Object. Lecture Notes in Computer Science.. Analyse et correction des distorsions en imagerie par résonance magnétique. 967-972. Czader M... 175-186... Pt.. novembre 1998. Vol.. 286-292.. Traitement de l’information. Vol.. J.178 Références KAYSER 1996 Kayser K. KUNT 1993 Kunt M... 8ème Congrès AFCET RFIA. Sethian J. Journal of Microscopy. Holmes T. Segmentation morphologique incluant des paramètres d’ordre et de désordre : quantification par diagramme de Voronoï et application à la sociologie cellulaire. 17 : pp. MARCELPOIL 1991 Marcelpoil R.. 2. LENOIR 1997 Lenoir A. Description par regroupements perceptuels des structures vasculaires dans les images angiographiques. Presses polytechniques et universitaires romandes. A method to compensate for light attenuation with depth in three-dimensional DNA image cytometry using a confocal scanning laser microscope.-J. Analytical and Quantitative Cytology and Histology. Lyon. 108-114. LANGLOIS 1998 Langlois S. Gabius H. 4 : pp. 177. Granlund G. Kayser C. Application of attributed graphs in diagnostic pathology. 168. 1995 .. KHOSLA 1992 Khosla D. Ziehms S. MALLADI 1995 Malladi R. C. MAO 1995 Mao F. N. 115-129. 1993. 1347 : pp.. August 1996 . 2 : pp. Collection électricité. Thèse de Doctorat de l’Université de Caen. juillet 1995.. Vol. Berthold S. novembre 1991 . Thèse de Doctorat de l’Université de Rennes 1. Kocher M. Stereo pairs of bright-field micrographs via Wiener-type inverse filtering. Vol. Vemuri B. 18. Journal of Microscopy... Usson Y. Chassery J. pp.. DGCI'97.. 2 : pp. Vol. Shape modeling with front propagation : a level-set approach. November 1992 .. spécialité TSI. 158-175. Vol. December 1997 . LILJEBORG 1995 Liljeborg A..

. and Beentjes M. May 1996 . Segmentation d’images par pyramides souples : application à l’imagerie médicale multi-dimensionnelle. Niederer P. Artifacts in computational optical-sectioning microscopy. 491-498. A precise light attenuation correction for confocal scanning microscopy with O(n4/3) computing time and O(n) memory requirements for n voxels. 3 : pp..Références 179 MARCHAND 1997 Marchand A. 2 : pp. 182.. Soc..-A. 1982. 18. Brinkhuis M. Analytical and Quantitative Cytology and Histology. J. Les champs de Markov appliqués à l’analyse spatio-temporelle d’images échocardiographiques. Journal of Mathematical Imaging and Vision. Med.. Opt. 1997 .. A. N. P. June 1996 ..CIT / Science et Génie des Matériaux. Techn. A. Vision.. 121-132. MARGADANT 1996 Margadant F.. A. Preza C. 1056-1067.. J. 2 : pp. Syntactic structure analysis of the arrangement of nuclei in dysplastic epithelium of colorectal adenomatous polyps. Wang J. Baak J. J. 225-232. Thomas L. Vol.. San Francisco. Van Diest P. Coisne O. J. Freeman. MATHIEU 1995 Mathieu C. Menard M. 6 : pp. Thèse de Doctorat de l’INSA de Lyon. .-E. Leemann T. Innov. Magnin I.. N. Conchello J. février 1994 . MEIJER 1992 Meijer G.. Influence of boundary effect on minimum spanning tree features.. 18.. Biol. MARR 1982 MATHIEU 1993 Marr D. 2 : pp.. Vol. Baak J. MAZILLE 1994 Mazille J.. 1993. 223-232.. Fleege J. N. N.. P. Analytical and quantitative cytology and histology. A. MEIJER 1996 Meijer G.. March 1994 . Van Diest P. Mathieu C. 3 : pp. On the choice of the first level of graph pyramids. Jr.. December 1992 . 1995. N.. 11. Analyse de structures complexes par la théorie des graphes.. 14. Am. N... La Revue de Métallurgie . G. A. C. MCNALLY 1994 McNally J. Vol. Vol. Journal of Microscopy. 129-143. Vol.

79 : pp.. 1986.. 20. MEYER 1992 Meyer F. Hierarchical shape analysis in gray-level images. Edge preserving smoothing. US patent n°3031417. M. Toet A. Vision par Ordinateur. 12-49. MOTT 1986 Mott J. NAGAO 1979 Nagao M. .. 4. mathematical description of shape in gray-level images.. in Shape in picture . N. Microscopy apparatus.180 Références MESSNER 1998 Messner B. -A. Van Ryper W. May 1998 . T... Heijmans H. 165. 11 : pp.. 1993 . Vol. Encyclopedia of graphics file formats. Inc. Baker T. PALMARI 1996 Palmari J.. January 1992 .. 13-30. 511-524. Matsuyama M.. Prentice-Hall. Bunke H. Dussert C.. D. Meer P. MONTANVERT 1993 Montanvert A. Vol. 9 : pp.. Fronts propagating with curvaturedependant speed : algorithms based on Hamilton-Jacobi formulations. Foster D... Monga O.. O’Reilly & Associates. A. Mathematical morphology : from two dimensions to three dimensions. Vol. 493-504. Wrobel B. Journal of Microscopy.. Ying-Lie O. Meer P. NATO ASI.. 1979 . Sethian J. A new algorithm for error-tolerant subgraph isomorphism detection.. 1996 . Serie F : computer and systems sciences. 1994. 1 : pp. 5-28. 3 : pp.. N. Traitement du signal... Journal of Computational Physics. OSHER 1988 Osher S. 5 : pp. 1987 . 394-407.. L.. Segmentation d’images : vers une méthodologie. Vol. MINSKY 1957 MONGA 1987 Minsky M. Raoult D. Computer Vision Graphics and Image Processing.. 126: pp. P. 169-183. Englewood Cliffs.. IEEE Transactions on Pattern Analysis and Machine Intelligence. Bertolino P. Image cytology and topographical analysis of proliferation of endothelial cells in vitro during Bartonella (Rochalimaea) infection. Discrete mathematics for computer scientists and mathematicians. MURRAY 1994 Murray J.. Teysseire N. 1988 . Analytical Cellular Pathology. Vol. Pt.. J.. Kandel A.

Vassy J. Handbook of biological confocal microscopy. Springer-Verlag. Penel C... Raphael M.. J. High-resolution three-dimensional images from confocal scanning laser microscopy .. N.. Plenum Press.. RIGAUT 1991 Rigaut J. 26-35.-L.. 18. B. Carcinogenesis. Cytometry. Am. 2 in Pawley J. 10 : pp. The KHOROS application development environment. B. pp. quantitative study and mathematical correction of the effects from bleaching and fluorescence attenuation in depth. Vol. 223-232. LeB œufR. 14 : pp... Vol. Plenum Press. 1990. Handbook of biological confocal microscopy. 58 : pp. Chap. Germinal center analysis with the tools of mathematical morphology on graphs. Analytical and Quantitative Cytology and Histology. Revised edition.. Kubica S. PAWLEY 1990b Pawley J. Kerckaert G..... 1-32. and Meyer M. PETRÁÑ 1968 Petráñ M. 1997 . Tandem-scanning reflected-light microscope. 848-861. 13.–I. Computational geometry. Binet J. Egger D. PAWLEY 1990a Pawley J. Singapore. World Scientific. Dussert C. RAYMOND 1993 Raymond E.. Berthois Y. Opt. N. 1968 . Shamos M. B.. Isfort R.-M... Cody D.. 1992 . A.. 1965-1972. 4 : pp. 661-664.. Martin P. an introduction..Références 181 PALMARI 1997 Palmari J. Soc.. B. . 1993 . Cytometry. 1990. B. Experimental environments for computer vision and image processing.. Heidelberg. Vincent L. M.. 1997 . PREPARATA 1988 Preparata F. 27 : pp.. August 1991 . RIDDER 1997 Ridder G. Hadravsky M.. Computerized image analysis of morphologically transformed and nontransformed Syrian Hamster Embryo (SHE) cell colonies : application to objective SHE cell transformation assay scoring. Vol. Galambos R. 1988. Revised edition. Grimaud M. J. RASURE 1992 Rasure J. A. Fundamental limits in confocal microscopy. Stuart S.. Distribution of estrogen receptor heterogeneity in growing MCF-7 cells measured by quantitative microscopy...-P.

182

Références

RODENACKER 1992

Rodenacker K.,

Aubele M.,

Jütting U.,

Gais P.,

Burger G.,

Gössner W., Oberholzer M., Image cytometry in histological sections, Acta Stereol, 1992 ; 11/Suppl I : pp. 249-254. ROERDINK 1993 Roerdink J. B. T. M., Bakker M., An FFT-based method for attenuation correction in fluorescence confocal microscopy, Journal of Microscopy, January 1993 ; Vol. 169, Pt. 1 : pp. 3-14. SCHMITT 1994 Schmitt M., Mattioli J., Morphologie mathématique, Logique, mathématique, informatique, Masson, 1994. SCHÜPP 1998 Schüpp S., Elmoataz E., Clouard R., Herlin P., Bloyet D.,

Segmentation d’images intégrant la morphologie mathématique et les contours actifs ; application à l’extraction d’éléments ou d’ensembles cellulaires en imagerie microscopique médicale, 11ème congrès RFIA’98, 20-22 janvier 1998, Clermont-Ferrand, Vol. I : pp. 297-306. SERRA 1982 Serra J., Image analysis and mathematical morphology, Academic Press, London, 1982. SMADJA 1992 Smadja M., Philipp S., Segmentation of uterus sections using an extraction of the nuclei, Acta Stereol, 1992 ; 11/Suppl I : pp. 625-630. SOUCHIER 1996 Souchier C., Guigard M.-P., Fonlupt P., Trouillas J., Quantitative evaluation of the distribution of cell density ; Application to human pituitary corticotroph cells, Analytical and Quantitative Cytology and Histology, June 1996 ; Vol. 18, N. 3 : pp. 251-260. SRIHARI 1981 Srihari S.N., Representation of three-dimensional digital images, Computing Surveys, December 1981 ; Vol. 13, N. 4 : pp. 399-424. TARDIEU 1994 Tardieu H., Rochfeld A., Collemi R., La méthode Merise: principes et outils, Édition d’organisations, Paris, 1994. TERZOPOULOS 1988 Terzopoulos D., Witkin A., Kaas M., Constraints on deformable models : recovering 3D shape and nonrigid motions, Artificial Intelligence, 1988 ; N. 36 : pp. 91-123.

Références

183

TOET 1991

Toet A., Hierarchical clustering through morphological graph transformation, Pattern Recognition Letters, 1991 ; 12 : pp. 391-399.

TSIEN 1990

Tsien R. Y., Waggoner A., Fluorophores for confocal microscopy : photophysics and photochemistry, Chap. 16 in Pawley J. B., Handbook of biological confocal microscopy, Plenum Press, Revised edition, 1990.

VAN DER WOORT 1990

Van der Woort H. T. M., Brakenhoff G. J., 3D image formation in high-aperture fluorescence confocal microscopy : a numerical analysis, Journal of Microscopy, April 1990 ; Vol. 158, Pt. 1 : pp. 43-54.

VAN DIEST 1992

Van Diest P. J., Fleege J. C. and Baak J. P. A., Syntactic structure analysis in invasive breast cancer, Human Pathology,

August 1992 ; Vol. 23, N. 8 : pp. 876-883. VINCENT 1990 Vincent L., Graphes et morphologie mathématique, chapitre 5 de Algorithmes morphologiques à base de files d’attente et de lacets. Extension aux graphes, Thèse de Doctorat l’École des Mines de Paris, mai 1990. VINET 1991 Vinet L., Segmentation et mise en correspondance des régions de paires d’images stéréoscopiques, Thèse de Doctorat de l’Université de Dauphine, Paris IX, 1991. VOSS 1993 Voss K., Discrete Images, Objects and Functions in Zn. Algorithms and Combinatories 11, Springer-Verlag, 1993. WEINBER 1994 Weinber D. S., Quantitative immunocytochemistry in pathology, in : Image Analysis : A Primer for Pathologists, A. M. Marchevsky and P. H. Bartels, Raven Press, New York, 1994 : pp. 57-77. WILLIS 1993 Willis B., Roysam B., Turner J. N., Holmes T. J., Iterative

constrained 3D image reconstruction of transmitted light brightfield micrographs based on maximum likelihood estimation, Journal of Microscopy, March 1993 ; Vol. 169, Pt. 1 : pp. 347-361.

184

Références

WILSON 1984

Wilson R., Granlund G. H., The uncertainty principle in image processing, IEEE Trans. on Pattern Analysis and Machine Intelligence, 1984 ; N. 6 : pp. 758-767.

WILSON 1990 WORRING 1992

Wilson T., Confocal Microscopy, Academic Press, London, 1990. Worring M. and Smeulders A. W. M., Multi-Scale Analysis of Discrete point sets, IEEE. 0-8186-2915-0/92, 1992.

ZAHN 1971

Zahn C. T., Graph-theoretical methods for detecting and describing gestalt clusters, IEEE Transactions on Computers, January 1971 ; Vol. C-20, N. 1 : pp. 68-86.

ZHANG 1995

Zhang G.,

Object-oriented

design

for

image

processing

applications, Image processing and its applications, Conference publication N. 410, 4-6 July 1995 : pp. 440-444.

Publications

.

ANGOT 1997b Angot F.. Intérêt des graphes de voisinage dans la quantification des marqueurs immunohistochimiques.. mai 1998 . GRETSI’97. pp. Clouard R. Revenu M. ANGOT 1997a Angot F.. 849-854.. 84 (9) : pp.. Herlin P. 1997 Clouard R.. Clouard R. ANGOT 1996b Angot F. Bulletin du cancer.. Graphes de voisinage et traitement d’images . ANGOT 1996c Angot F. 12-23. 1997 . Elmoataz A. Microscopy... Bloyet D. N. Neighborhood graphs and image processing. Besançon. 1997. Sichel F... Herlin P. 2785 : pp. Brest. Revenu M. p. Rapport du DEA Intelligence Artificielle et Algorithmique de l’Université de Caen. Herlin P.. 120-121. 549-556. Analysis of cellular microscopy images by means of neighborhood graphs. 1995. PANDORE : une bibliothèque et un environnement de programmation d’opérateurs de traitement d’images. Revenu M. 1996 . application à des images de marquage immunohistochimique.. Paris. Microstructure.. European Symposium on « Lasers. septembre 1997 .. and Vision for Productivity in Manufacturing ». ANGOT 1998 Angot F. Vasseur P.Publications 187 ANGOT 1995 Angot F. Elmoataz A.. CLOUARD et al. Elmoataz A.. ISMRA de Caen. 9ème Forum des Jeunes Chercheurs en Génie Biologique et Médical.. SPIE Vol. Revenu M.. Les graphes de voisinage comme outil de mise en œuvre de méthodes de segmentation hiérarchique d’images. Seizième Colloque sur le Traitement du Signal et des Images. Rapport interne du GREYC. Graphes de voisinage et traitement d’images.. d’images Revenu M. juin 1996. Tome 1. application caractérisation d’images de prolifération cellulaire.. Revenu M. Microanalysis. 7.. 434. Traitement Elmoataz A. à la tridimensionnelles .. Elmoataz A. 83(6).. Bulletin du Cancer.. ANGOT 1996a Angot F. 5/6 : pp. June 1996 .. pp.. Mandard A. 399-402. Elmoataz A. Seizième Forum de cancérologie. Vol. Elmoataz A..-M. . Clouard R. October/December 1996 .. Angot F... Optics..

1997 .. HERLIN et al. Deman D. learning. May 1997. Datry T.. Belhomme P.-L.. 355-360. Duigou F. HERLIN et al. Image galleries for DNA ploidy measurement : a tool for screening.. Fully automated image analyzer for DNA quantification of archival tumors.... Bloyet D. Signolle J...-M.. Bulletin du cancer. 13. Bloyet D.. 1997 .. Schüpp S.. Microscopy. Mandard A. Rougereau O. Angot F.-M. Masson E. Analytical Cellular Pathology. 83. Mandard A.. N. Datry T. Automatisation de l’analyse cytodensitométrique du contenu en ADN des tumeurs solides.. Chermant J. 685-692.. Are sampling and hierarchitectural segmentation future tools for automated quantitative immunochemistry in oncology ?.. 1997b Herlin P. Masson E. Deman D. Revenu M. Mandard A.-B. HERLIN et al. 1997a Herlin P. Angot F. N. Joret J... Boudry C.-P. Oslo. October/December 1996 . Elmoataz A. Plancoulaine B. 2. 5th ESACP. 83. Plancoulaine B.. Microanalysis. Analytical Cellular Pathology.. 1996 Herlin P. 13....... Duigou F. Signolle J.. 7 : pp. Duigou F. Belhomme P.. 5th ESACP. Angot F.. Bloyet D. Microstructures. Belhomme P. 84 (7) : pp. May 1997..-P.. 1997c Herlin P. 2. Oslo.. Angot F.. 1997 .. Revenu M. Chasle J.188 Publications HERLIN et al. Joret J..-M... .-B.. data and image processing.. Duigou F..

Annexes .

.

• le matériel (Laser Scan Microscope). • le fabriquant (Carl Zeiss. Germany). • le nombre de bits par point (=8).1. Chacun de ces fichiers est structuré en 13 entrées : • le champ « NewSubfileType » (=0) indiquant le début de l’image. • le logiciel (ZIF 1. Outre le réglage des différents paramètres d’acquisition. • la hauteur de l’image. une image de volume est enregistrée sous la forme d’une série d’images bidimensionnelles au format TIF (Tag Image File Format). Les formats d’images ZEISS Le microscope ZEISS LSM 3 du pôle Traitement et Analyse d’Images de Basse- Normandie est commandé par un logiciel ZEISS LSM 310 version 3. • la position des pixels de l’image. ce logiciel contrôle la sauvegarde de deux principaux types d’images : des images de volumes et des images de reliefs. • un champ complémentaire ZEISS. le nombre de lasers du .96. 1. • le nombre d’information pour chaque pixel (=1). • le champ « PhotometricInterpretation » indiquant la correspondance entre les niveaux de gris et l’intensité lumineuse (=1 : le niveau zéro correspond au noir). Le format TIF est un format de fichier très structuré dont la description peut être trouvée dans différentes publications [MURRAY 1994]. Oberkochen. • le nombre de pixels (=largeur×hauteur). • le mode de compression (=1 : non compressé).81 MAR-93). Nous indiquons ici quelles sont les informations contenues dans les fichiers créés par le logiciel ZEISS LSM. Ce dernier champ contient un grand nombre d’informations concernant l’acquisition : la taille de l’image. le numéro de l’image 2D dans la série 3D. Images de volumes En correspondance avec le principe de l’acquisition plan par plan.Annexes 191 1. • la largeur de l’image.

192

Annexes

microscope, les dimensions de chaque pixel dans les directions x et y, la distance entre chaque plan d’acquisition, etc. La structure de ce champ est fournie par ZEISS dans le document cidessous.
Offset Type Description ------------------------------------------------------------------0000h WORD Code 494Ch 0002h WORD Version (actual: 0002h) 0004h WORD Image type Bit 0/1 Number of 8 bit planes Bit 2/3 Number of channels per pixel Bit 4 0: Original data, 1: Calculated data (animation) Bit 5 1: Time series Bit 6 Reserved (0 or 1) Bit 7 1: Image is part of sequence Bit 8 1: y-direction is Time Bit 9 1: x-direction is Time 0006h WORD Reserved 0008h WORD x size of image 000ah WORD y size of image 000ch WORD x position of ROI 000eh WORD x position of ROI 0010h WORD x size of image display mask 0012h WORD y size of image display mask 0014h WORD Reserved 0016h WORD Reserved 0018h WORD Image position number in a sequence 001ah BYTE Reserved 001bh BYTE Number of valid channel parameters (1..3) 001ch BYTE Number of lasers (1..4) 001dh 3 bytes Reserved 0020h float x size of a pixel (µm or s) 0024h float y size of a pixel (µm or s) 0028h float z distance in a sequence (µm or s) 002ch float Sequence value (µm / s) 0030h 8 x WORD List of laser lines (nm) ---------------------------------------0040h 64 bytes | Channel parameters 1 | ---------------------------------------0080h 64 bytes | Channel parameters 2 (if available) | ---------------------------------------00c0h 64 bytes | Channel parameters 3 (if available) | --------------------------------------0100h 16 x char User text 1 0110h 16 x char User text 2 0120h 16 x char Date and time text 0130h 16 x char Beam splitter text (channel 1, should be valid for all) 0140h time_t The time in seconds since midnight (00:00:00), January 1, 1970, Universal Coordinated Time 0144h WORD Fraction of a second in milliseconds 0146h short Timezone difference in minutes 0148h short Daylight saving flag 014ah float Real scan time for one image (s) 014eh 2 bytes Reserved 0150h 16 x char Emission filter channel 1 text 0160h 16 x char Emission filter channel 2 text (if available) 0170h 16 x char Emission filter channel 3 text (if available) 0180h 32 x char Reserved for lens decription text

Annexes

193

Channel Parameters (64 bytes) ----------------------------Offset Type Description ------------------------------------------------------------------0000h BYTE Source 1 Conv Refl 2 Conv Trans 3 Conv Overl 4 Conv Fluor 5 LSM Refl1 6 LSM Refl2 7 LSM Refl3 8 LSM Trans 9 OBIC 10 Extern 0001h BYTE Pinhole 0002h BYTE Emission filter 0003h BYTE Flags Bit 0 TV Bit 1 Confocal Bit 2 Reserved Bit 3 Ratio 0004h BYTE Attenuation filter 1 0005h BYTE Attenuation filter 2 0006h BYTE Attenuation filter 3 0007h BYTE Laser (each bit represents one laser line) 0008h BYTE Scanning time 0009h BYTE Bandwidth 000ah BYTE Beam splitter 000bh BYTE Lens 000ch BYTE Scan function 000dh BYTE Averaging mode (reserved) 000eh WORD Number of averaging 0010h WORD Contrast 0012h WORD Brightness 0014h long x motor (in motor steps) 0018h long y motor (in motor steps) 001ch long z motor (in motor steps) 0020h WORD Zoom factor * 1000 0022h short Angle of rotation (0.1 degree) 0024h WORD Obic address 1 0026h WORD Obic address 2 0028h short Scan offset x 002ah short Scan offset y 002ch BYTE Attenuation filter 4 002dh 3 bytes Reserved 0030h float Objective magnification 0034h float Objective apperture 0038h float Reserved 003ch float Reserved

1.2.

Images de reliefs

Une image de reliefs est une image représentant une surface dans un espace tridimensionnel. Pour un domaine 2D échantillonné, l’acquisition de s sections optiques est

194

Annexes

effectuée entre deux altitudes extrêmes définies par l’utilisateur. Une image 3D est alors construite, contenant l’intensité de chacun des points du volume. Pour chacun des points du domaine 2D, l’altitude est déterminée par la recherche de la plus élevée des s intensités sur la verticale du point. Par interpolation, cette altitude est quantifiée par un nombre, de 1 à 249. La surface est enregistrée dans un fichier au format TOP (« Topography File » de ZEISS). Pour chaque point, ce fichier contient l’altitude et l’intensité (de 0 à 255) à cette altitude. Pour un domaine de l lignes et c colonnes, la taille du fichier est t = 2 × l × c + 1024 . La structure du fichier TOP est la suivante : • l lignes de p colonnes d’octets représentant chacun l’altitude (0 lorsque aucune altitude n’a pu être déterminée, entre 1 et 249 dans le cas contraire), • l lignes de p colonnes d’octets représentant chacun l’intensité, • 776 octets inutilisés, • un entier court (2 octets selon le codage Intel) représentant c, • un entier court représentant 2 × l , • 2 octets inutilisés, • un entier long (4 octets) représentant s, • un réel (4 octets) représentant en µm le pas d’échantillonnage en x, • un réel représentant en µm le pas d’échantillonnage en y, • un réel représentant en µm la distance entre deux sections, • 226 octets inutilisés. 2. 2.1. La bibliothèque PANDORE Structure des fichiers images

Un fichier PANDORE est composé de trois parties principales : un entête caractéristique indiquant de quel type d’objet PANDORE il s’agit, des attributs renseignant sur les dimensions de l’image et le contenu effectif de l’image. Les différents champs utiles à la manipulation d’images PANDORE sont déclarés ci-dessous :
Entête Magic number Type du fichier char magic[10] Typeobj ohtype

Annexes

195

Attributs

Attributs facultatifs Données

Auteur char ident[9] Date de création char date[9] Nombre de plans Long ndep Nombre de lignes Long nlig Nombre de colonnes Long ncol Nombre de régions Long nlabel Nombre de sommets Long size Voxels de l’image ou structure du graphe

2.2.

Structure de graphe

Il existe en informatique deux méthodes classiques de représentation des graphes. Dans les deux cas, les sommets doivent être numérotés mais chaque technique possède ses avantages et ses inconvénients. • Les matrices d’adjacence permettent un accès direct à l’arc reliant deux sommets. Cependant, même si le nombre d’arcs est très faible, la taille de la matrice est toujours s2 où s est le nombre de sommets du graphe : s = Card (S ) . Dans le cas des graphes non orientés, le nombre d’informations peut être divisé par deux mais reste constant pour tout graphe de taille s : s.(s + 1) . 2

• Les listes d’adjacence sont des listes chaînées attachées à chaque sommet. Elles présentent l’intérêt de ne représenter que les arcs existants mais obligent un parcours de liste afin d’obtenir un arc particulier. Pour un graphe non orienté, il faudrait choisir une convention pour n’enregistrer chaque arête qu’une seule fois. Cependant, l’accès à tous les voisins d’un sommet est plus simple si on conserve deux fois chaque arête. Nous avons choisi d’utiliser une structure basée sur les listes d’adjacence afin d’optimiser la taille des données manipulées. De plus, les listes chaînées permettent de parcourir l’ensemble des voisins d’un sommet de manière plus intuitive que par l’intermédiaire d’une matrice. La structure de graphe (figure 114) doit également comporter des informations permettant d’en faire une représentation graphique. Pour cela, on doit conserver une position pour chaque n œud, ainsi que la taille de l’image correspondant au graphe. Les valeurs des n œuds et des arêtes sont stockées au sein de la structure alors que les éventuelles informations complémentaires concernant les n œuds doivent figurer dans un tableau annexe, indexé par les identificateurs des n œuds.

Les différents champs ont les significations suivantes. seul l’identificateur du nœud est utile pour accéder à un tableau complémentaire. qui réfère n i aux informations complémentaires.. Cependant. Pour manipuler des informations complémentaires.. . cette égalité peut ne pas être vérifiée. chaque cellule contient le numéro du nœud voisin dans tnode (index). Cet identificateur est en général égal au rang dans tnode. • Pour les listes chaînées. de lignes et de colonnes de l’image d’origine. size.196 Annexes Graph tnode size ndep Hnode neighbors id attr seed index nrow ncol Lnode weight next 1 2 3 index weight next size . et le nombre de plans. Afin de manipuler une large gamme d’informations (niveaux de gris. pour pouvoir gérer la fusion de n œuds. entre 0 et 232-1. surfaces d’éléments particuliers des images. D’autre part.. le poids de l’arête (weight) et un pointeur vers la suite de la liste (next). nous avons choisi d’utiliser des entiers longs. pour les valeurs des n œ uds et des arêtes (champsattr et weight).1 size Figure 114 : structure des graphes utilisés. l’identificateur du nœud (d). distances euclidiennes. • Pour le graphe. nrow et ncol représentent respectivement le nombre de n œuds. Si l’image d’origine ne contient que quelques points avec de grands numéros (entre 1 et n). la valeur associée au n œud ( ttr) et la position a du point correspondant dans l’image (seed). ndep.). • Chaque élément du tableau tnode est un pointeur vers une structure contenant la liste des voisins du n œud ( eighbors). le champ id permet de garder ces numéros et de n’utiliser qu’un petit tableau pour manipuler le graphe (de 1 à size). cet identificateur est utilisé pour conserver l’indice du représentant de la fusion.

• traitement des données d’entrée et création des résultats de l’opérateur (fonction principale). • masquage des résultats et création des fichiers de sortie (fonction WriteArgs).cc PANDORE 1.h> #include <stdlib.3. création des objets associés aux sorties (fonction ReadArgs).Img3dus &imd) { return(SUCCESS).Img3duc &imd) { /* Instructions de la fonction. Par convention. le n œud 0 et la région 0 ne correspondent pas à un élément de l’image et ne sont pas utilisés. */ Errc Squelette(Img3duc &ims. il a été nécessaire de trouver une numérotation commune pour les n œuds d’un graphe et les régions d’une carte. 2.h> #include <pandore3d. } Errc Squelette(Img3dus &ims. * * 6. différents traitements sont possibles et correspondent chacun à une fonction principale.Annexes 197 Pour que l’utilisation des graphes ne pose pas de problèmes avec celle des autres types de données manipulés par les opérateurs de la bibliothèque PANDORE. masquage des données et transformation en objets PANDORE. Exemple d’opérateur PANDORE Le fonctionnement général d’un opérateur PANDORE peut se découper en trois phases : • lecture des fichiers d’entrée.22/12/97 GREYC-ISMRA. En fonction des types des objets d’entrée. /* * @(#)squelette.h> /* * Fonction principale de l’operateur. * Il faut autant de fonctions que de combinaisons sur les types des * objets d’entree et de sortie.10 . * * Par Francois Angot. */ return(SUCCESS). boulevard du Marechal-Juin * F-14050 Caen cedex */ #include <stdio. } .

} WriteArgs(argc. // // // // // // // The The The The The The The result code of the execution. Pobject3d* stencil. case Po_Img3dsf : { Img3dsf* const ims=(Img3dsf*)objs[0]. input parameters.&stencil . default : fprintf(stderr.FOUTC. region stencil.objs. ouput object.ims->nrow.PARC.FINC. Pobject3d* objd[FOUTC+1].Img3dsf &imd) { return(SUCCESS).&stencil. ReadArgs(argc.*imd).objd. Img3dus* const imd=(Img3dus*)objd[0]. Pobject3d* objout[FOUTC+1].REGP). objd[0]=new Img3duc(ims->ndep. result object of the execution. objd[0]=new Img3dsf(ims->ndep.objin. case Po_Img3dus : { Img3dus* const ims=(Img3dus*)objs[0]. Float parv[PARC+1].*imd).objd).\n").ims->nrow. . Img3duc* const imd=(Img3duc*)objd[0]. source objects masked. and the function call.PARC. result=Squelette(*ims.ims->ncol). result=Squelette(*ims.argv.ims->nrow. "Operateur non encore defini pour de type d'objet.objout. Pobject3d* objin[FINC+1]. "USAGE : %s [img_in] [img_out]\n" 0 1 1 0 int main(int argc. result=-1.198 Annexes Errc Squelette(Img3dsf &ims. result=Squelette(*ims. input objects.argv. } break.FOUTC. switch(objs[0]->Type()) { case Po_Img3duc : { Img3duc* const ims=(Img3duc*)objs[0]. objd[0]=new Img3dus(ims->ndep.parv.ims->ncol). } break.FINC.char* argv[]) { Errc result. Pobject3d* objs[FINC+1].USAGE. } #ifdef MAIN /* * Modify only */ #define USAGE #define PARC #define FINC #define FOUTC #define REGP the following constants.*imd). Img3dsf* const imd=(Img3dsf*)objd[0].objout.ims->ncol). Exit(result).objin.objs. } break.

Dessine l’histogramme des attributs. Maximum des attributs. Addition de 2 images. Multiplication de 2 images. Histogramme de 2 graphes. les opérateurs PANDORE 2D sont répartis en plusieurs catégories : amelioration egalisation recadrage sharp arithmetique add decalage dif div max min moins mult normalisation plus caracterisation allongement compacite convexite elongation encadre englobee excentricite moyenne orientation perimetre rectangularite surface variance caract_graphe gad garf gbiparam gcaract gcontraste gcooc22 gentropie ghisto ghisto2 gmaxi gmaxi2 gmini gmini2 gmoment2 gmoyen gmoyen2 grfh gsomme gsomme2 gvar Opérations d’amélioration d’images. Opération de sélection de régions. Cooccurrence binaire. Sélection de régions englobée par une seule autre. Caractérisation de l’histogramme des attributs. Contraste des attributs. Sélection de régions sur leur valeur d'élongation. Roundness Factor Homogeneity. Variance des attributs. Sélection de régions sur leur valeur de convexité. . Recadrage des niveaux de gris par égalisation d'histogramme. Sélection de régions sur leur valeur d'allongement. Caractérisation du désordre surfacique. Sélection de régions sur leur valeur d'orientation. Soustraction de 2 images. Sélection de régions sur leur valeur de variance. Différence de deux images. Dessine l’histogramme des poids. Rehaussement de contraste par convolution. Opérations de caractérisation de graphes. Sélection de régions sur leur valeur d'excentricité. Recadrage dynamique des niveaux de gris. Maximum de 2 images. Maximum des poids. Division de 2 images. Addition de 2 images par moyennage. Minimum des poids. Moyenne des attributs Moyenne des poids. Sélection de régions sur leur valeur de rectangularité.Annexes 199 } #endif 2. Somme des poids. Décalage des valeurs des pixels d'une image. Liste des opérateurs PANDORE 2D En fonction de leur objectif et de leur fonctionnement. Normalisation des valeurs de pixels d'une image. Minimum de 2 images. Sélection de régions sur leur valeur de périmètre. Caractérisation de l’Average Roundness Factor. Somme des attributs. Sélection de régions sur leur valeur de moyenne intérieure. Opérations arithmétiques. Sélection de régions sur leur valeur de compacité. Moment d’ordre 2 des attributs. Sélection des régions ne touchant pas le bord (cadre) de l'image. Minimum des attributs. Entropie des attributs. Sélection de régions sur leur valeur de surface.4.

Maximum d’une image. Caractérisation de l’histogramme des niveaux de gris. Contraste. supprimechaine Suppression des courbes ouvertes de faible longueur. Moyenne d’une image. Minimum d’une image. Calcul de l’énergie des pixels. Fusion optimisée par le critère de Mumford et Shah. Calcul de l’entropie des pixels. Distance euclidienne. Segmentation en régions à partir de matrice de co-occurrence. Classification de pixels. Calcule la valeur qui détecte le maximum de contours. aminciecontours Amincissement des contours d'une image à une épaisseur de 1 pixel. Calcul du module et de la direction du gradient par convolution. Module du gradient de Roberts. extension Extension des points terminaux dans la direction du contour. Segmentation en régions selon les longueurs de plage. Seuillage. Reconstruction par dilatation morphologique. Calcul de la valeur qui maximise la variance interclasse. Binarisation. Opération de dérivation.200 Annexes gvar2 classification binarisation chanda deravi entropie fisher plage seuillage valcontmoy valvarmax varmax weszka contour Variance des poids. Opérations de détection de contours. Fusion selon la moyenne des niveaux de gris. Module du gradient de Prewitt. distance Calcul d'une image de distance aux contours. Module du gradient de Sobel. Compte le nombre de pixels non nuls dans une image. Fusion de sommets. Fusion optimisée par le critère de Mumford et Shah. Segmentation en regions par partionnement de l'histogramme des niveaux de gris. Moment d’ordre 2 d’une image. Segmentation en régions à partir de matrice de co-occurence. Compactage de graphe. Segmentation en régions homogènes selon l'entropie. Fusion des par décimation stochastique. Laplacien d'une image par convolution. supprimefrontiere Suppression les courbes fermés de faible longueur. Fusion élementaire. Calcul le seuil donnant un pourcentage de pixels differenciation gradient laplacien prewitt roberts sobel evaluation nbpix sompix fusion compactage decimation fusext fusion fusmax fusmin fusmoy fusmumford fusmumreg fusndg merge mumford image caract contraste dilatrec disteuclid energie entropy filtrevar maxi mini moment2 moyen pourcentage . Fusion de sommets. Filtre par variance. Fusion optimisée par le critère de Mumford et Shah. Fusion de sommets. Opérations de fusion dans les graphes. Calcule la somme des valeurs de pixels. polygonalisation Approximation polygonale des contours d'une image. fermeture Fermeture de contours par poursuite du gradient. Fusion de sommets. Opérations de caractérisation. Seuillage d'une image par miximisation de la variance interclasse. Fusion de sommets. Segmentation en régions à partir de matrice de co-occurrence. Opération diverses sur les images.

Distance au voisin le plus éloigné. Suppression des régions en contact avec le bord de l’image. Inversion logique. Exponentielle symétrique. Lissage d'une image préservant les contours. Valuation par la surface des régions . Estimation du bruit dans une image de gradient. Recherche des minima locaux. Lissage par diffusion non linéaire. Détection des transitions de signe des niveaux de gris. Union de régions. Localisation des frontières. Attribut minimal des voisins. Filtre médian. Opérations de localisation Suppression des points non maxima dans une image d'amplitude de gradient. Pondération des arêtes. Opérations de régularisation. Filtre moyenneur. Suppression d’une région dans une carte. Valuation par l’élongation. Suppression des points qui ne garantissent pas la connexité. Filtre gaussien. Variance de l’image. Inversion logique. Distance entre les sommets. Valuation par le périmètre des régions. Pondération canonique. Distance au plus proche voisin. Intersection des éléments de deux cartes de régions. Pondération des érêtes. Opérations de pondérations. Croissance prioritaire. Moyenne sur les régions. Recherche des maxima locaux. Valuation par l’orientation. Distance au voisin le plus proche. Minimum sur les régions. Opérations logiques. Recherche des extrema locaux. Minimum entre le poids et les deux attributs. OU excllusif. Estimation du bruit dans une image de gradient. Distance au voisin le plus proche. Inversion logique. Filtre de Nagao Filtre de lissage adaptatif. Filtre moyenneur. Filtre de lissage moyenneur basé sur le choix des voisins. ET logique. Valuation par la moyenne des niveaux de gris. OU logique. Distance moyenne aux voisins. Opérations de valuation. Filtre adaptatif : Symetric Nearest Neighbourghood.Annexes 201 subrg suprg touchebord var lissage exposym gauss ladapte lcm median moyenneur nagao outrange sigma snnmoy localisation amincissement barycentre coupe debruitage debruitage2 extrema frontiere maxima minima postamin logique et intersection inversion non ou oux union modarc frdiff freuclid frfront frmindist frmindist2 frmindist3 frmingap frmini frmoyen modsom croissgraph ginversion gmoyenneur grdist grelong grmaxdist grmin grmindist grndg grorient grperim grsurf Suppression d’une région dans une carte. Calcul les centres de gravité des régions.

Conversion. Erodés ultimes. Etiquetage de composantes. Conversion. Ouverture morphologique répétitive. . Conversion BMP. Partition optimale. Conversion. Opérations de changement de types. Gradient morphologique. Conversion. Conversion. Conversion TIFF. Conversion PS. Arbre de recouvrement minimal. Valuation par la surface des composantes connexes. Squelettisation d’objets binaires. Conversion. Conversion 2D -> 3D. Partition optimale. Filtrage par la variance. Conversion. Minima régionaux. Graphe de distances. Conversion TOP. Conversion RAW. Opérations de morphologie mathématique. Béta-graphes. Suppression des sommets isolés. Ligne departage des eaux. Reconstruction morphologique. Conversion. Laplacien morphologique. Coupure d’arêtes. Maxima régionaux. Valuation par le nombre de sommets des composantes connexes. Conversion. Erosion répétitive.. Conversion RAW. Dilatation Dilatation conditionnelle. Suppression des feuilles. Erosion. Dilatation répétitive. Graphe d’influence. Conversion BMP. Fermeture morphologique répétitive. Reconstruction morphologique. Opérations de morphologie mathématique sur les graphes. Arbre de recouvrement minimal.202 Annexes grtaille grtaille2 grtaille3 gvariance modstr cutmax ebarbage gbeta gcoupe ginfluence gisole mst mst2 partndg morphologie dilatation epaississement erodeultime erosion lpe morphograd morpholap ndilatation nerosion nfermeture nouverture reconstruction squelettisation morph_graphe gcroissance gdistance gmarquage gmaxreg gminreg greconst passerelle bmp2pan gr2im horus2pan im2rg im2sf im2uc im2us imc2img pan2d23d pan2bmp pan2ps pan2raw ppm2pan ras2pan raw2pan raw2ps rg2gr rg2im tiff2pan top2pan voisins Valuation par la surface des régions. Croissance de composantes connexes. Conversion (Voronoï). Changement de structures de graphe. Conversion RAS. Conversion. Conversion PPM.

Ajout d’un bruit à l’image. Construction d'un Autostéréogramme ded type Random Dot Stereogram. Renumérotation. Disques d’influence. Renseignements. Ajout d'un bord homogène à une image. Retourne le moyen de créer une image. Utilitaires divers. enveloppeconvexe Enveloppeconvexe. Multiplication de 2 images. Renumérotation. Représentation de graphes. Décalage d’image. Soustraction de 2 images. Etiquetage. Re-étiquetage. Différence de 2 images. Suppression de régions.5. Renumérotation. fusionplusenglobante Fusionne les régions avec la région voisine la plus englobant. Projection trimétrique d’une image d’altitudes. Conversion d'une image de niveaux de gris en une image binaire équivalente. Division de 2 images. Représentation de graphes. Synthèse d’image. Minimum de 2 images. Valeur d’une image en un point. Suppression de régions. Résultat du dernier opérateur. Réduction de la taille de l’image. Etiquetage. Partition de Voronoï. Extraction d’une partie d’uneimage. Liste des opérateurs PANDORE 3D Les opérateurs PANDORE 3D sont répartis en plusieurs catégories : accessoires rassemble renumerotation supdernreg supgrndreg supreg symetrie arithmetique ajout difference division max min multiplication soustraction caracterisation Accessoires divers. Opérations arithmétiques. Insertion d'une image dans une autre image. Visualisation d’une image. comblement Remplissage de trous. Opérations de caractérisstion . Suppression de régions. Construction du graphe de Delaunay. Représentation de graphes. Agrandissement d’image. fusionenglobee Fusion de régions englobées dans d'autres. Tracé d’histogramme. Représentation de graphes. segmentation coloriage delaunay etiquetage marquage reordonne voronoi utilitaire bordure bruitage courbe dessin disques extraction insertion interpolation quid rassemble rds reduction rescnt resimg resnid resreg show statut synthese tramage trimet typepandore valeur visu 2. Opérations de segmentation. Synthèse d’image.Annexes 203 region Opération sur des objets numérotés. Informations sur les objets. Maximum de 2 images. Etiquetage. Transformation géométrique.

Diffusion par courbure moyenne. Représentation visuelle. Partition de Voronoï. . Opérations sur les graphes. Localisation de formes particulières. Cube englobant. Décimation stochastique. Croissance dans les graphes. Fusion dans les graphes. Retourne le seuil nécessaire pour ne conserver qu’un pourcentage de voxels. Diffusion par courbure moyenne. Valuation par les moyennes de niveaux de gris. Filtre médian. Gradient rapide. Suppression d’arêtes. Compactage de graphe. Partition optimale. Maxima locaux. Pondération canonique. Centres de gravité des régions. Distance euclidienne. Moyenne d’une image. Minimum d’une image.204 Annexes debruitage maxi mini moyen pourcentage valvarmax croissance croissance croisscont croissgraph croissmoy distancee envconv lpe voronoi differenciation gradfast gradient gradunif laplacien fusion decimation fusion variation graphe canonique compactage coupure cutmax distancee2g grattr grid isolement moyenne2g mst nbvoisins2g submoy taille2g volume2g lissage difflin diffpara exposym mcm6 mcm26 median6 moyenneur6 localisation barycentre cubext distancec dmaxima dminima frontiere maxima minima Limite maximum du bruit d’une image. Suppression d’arêtes. Représentation visuelle. Valeur maximisant la variance interclasse. Fusion de sommets Fusion de sommets par méthode variationnelle. Minima locaux. Valuation par la taille des composantes. Gradient uniforme. Laplacien. Minima locaux directionnels. Opération de distance de chanfrein. Croissance contrôlée a posteriori. Valuation des sommets. Ligne de partage des eaux. Maxima locaux directionnels. Opérations de croissance. Croissance en fonction des niveaux de gris moyens. Arbre de recouvrement minimal Valuation par le nombre de voisins. Lissage par diffusion parabolique. Diffusion linéaire. Opérations de dérivation. Enveloppe convexe approchée. Exponentielle symétrique. Gradient de Prewitt 3D. Localisation des frontières des objets. Valuation par le volume des régions. Pondération par la distance. Maximum d’une image. Filtre moyenneur. Opérations de régularisation. Croissance.

utilitaires agrandissement ajoutebord bruitage extraction histo2d histogramme normalisation . Conversion fichier non typé. Conversion VFF. Erosion répétitive plan par plan. Dilatation morphologique. Extraction d’une portion de l’image. Opérations de segmentation. Conversion. OU logique. Conversion. Conversion. Fermeture morphologique. Conversion RAW. Erosion morphologique. projectmoy Projection orthogonale par moyenne. Ouverture répétitive. Traitements unidirectionnels. Conversion fichier non typé. Reconstruction par dilatation.Annexes 205 logique et inversion ou morpho dilatation dilatrec eroderec erosion fermeture morphograd ndilatation ndilatation_plan nerosion nerosion_plan nfermeture nouverture ouverture passerelle fic2pan gr2im im2rg im2sf im2uc im2us pan2fic pan2raw pan2sct pan2tif pan2vff pan3d22d raw2pan rg2gr rg2im tif2pan vff2pan segmentation etiquetage touchebord seuillage binarisation seuillage trait_1D Opérations logiques. Gradient morphologique. Conversion. Fermeture répétitive.. Utilitaires divers. Conversion 3D -> 2D. Erosion répétitive. projection Projection orthogonale par maximum. Conversion TIF. Binarisation. Conversion VFF. Opérations de classification de voxels. ET logique. Dessin de l’histogramme global. Conversion SCT. Normalisation d’histogramme. Dilatation répétitive plan par plan. Conversion RAW. Conversion. Ajout d’un cadre uniforme autour de l’image. normalisation_plans Normalisation d’histogramme plan par plan. interpolation Interpolation linéaire directionnelle. Dessin des histogrammes de chaque plan. Suppression des objets touchant les bords de l’image. Zoom de l’image. Seuillage. Ajout de bruit à l’image. Opérateurs de changement de type. Conversion TIF. Etiquetage de composantes. Reconstruction par érosion. Conversion. Dilatation répétitive. Ouverture morphologique. Morphologie mathématique. Conversion. Inversion logique.

Extraire les regroupements d’objets Eliminer le fond Former les objets à partir des régions B3 Marquer les régions B2 Former le graphe Extraire les groupes d’objets B4 Supprimer les petits groupes B6 Sélectionner le fond Extraire tous les groupes B5 B1 . nous présentons ici l’ensemble du plan de résolution du problème de localisation des massifs tumoraux de l’application étudiée dans la section IV.206 Annexes quid reduction selection show statut synthese tiff valeur visu Informations sur l’image. 3. Informations sur l’image. Zoom réducteur de l’image. Exemple de plan de résolution de problème Afin d’illustrer notre approche méthodologique.1. Retourne la valeur de l’image en un point. Synthèse d’image. Résultat du dernier opérateur. Mise à zéro d’une partie de l’image. Information sur les fichiers TIFF. Il s’agit du résultat de la modélisation établie en collaboration avec Valérie Ficet-Cauchard [FICET-CAUCHARD 1999]. Visualisation d’un plan de l’image.

i1 s : i10 r: marquage p:8 e : i6. i9.Annexes 207 B1 Sélectionner le fond B2 Marquer les régions Passer un filtre moyenneur uniforme Binariser suivant la variance interclasse Calculer l’image complémentaire Etiqueter les régions Calculer la variance interclasse Binariser Numéroter les régions Créer une carte de régions moyenneur p:8 e : i1 s : i2 r: valvarmax p: e : i2 s: r:S binarisation p : S. 255 e : i2 s : i3 r: inversion p: e : i3 s : i4 r: marquage p:8 e : i4 s : i5 r: im2rg p: e : i5 s : i6 r: B3 Former les objets à partir des régions Lisser par exponentiel symétrique Détecter les minima régionnaux Numéroter les minima Séparer les régions par lpe Etiqueter les régions Eliminer les petites régions Numéroter les régions Créer une carte de régions exposym p : 60 e : i1 s : i7 r: minima p:3 e : i6. i7 s : i8 r: marquage p:8 e : i6. 32 e : i12 s : i13 r: . i8 s : i9 r: lpe p:1 e : i6. i10 s : i11 r: im2rg p: e : i11 s : i12 r: surface p : 1.

208 Annexes B4 Former le graphe Extraire les germes Créer le graphe cgrav p: e : i13 s : i14 r: rg2gr p: e : i14 s : i15. 16 r: B5 Extraire tous les groupes Calculer les distances entre objets Méthode décomposée Séparer les groupes suivant la distance Méthode directe Colorer les régions suivant les sommets Calculer la distance au contour Détecter les minima de distance Calculer les distances Supprimer les petits arcs Restructurer le graphe resreg p: e : i13. i18. i16. i19 r: gcoupe p : 0. i18 s : i19 r: voisin p: e : i13 s : i17. i16 s : i17 r: disteuclid p:3 e : i17 s : i18 r: frmini p:8 e : i15. 10 e : i19 s : i20 r: gisole p: e : i20 s : i21 r: .

France) dilué au 1/20 dans du PBS-BSA 0. . Les cellules sont alors incubées en présence de l'anticorps anti-phosphotyrosines (Py-20. Tébu. puis montées sur une lame en présence de Mowiol (Calbiochem. 2 fois 10 mn. Les cellules sont ensuite rincées 1 fois 1 mn.5%. 65535 e : i23 s : i24 r: gisole p: e : i24 s : i25 r: gmarquage p: e : i25 s : i26 r: 4. i22 s : i23 r: gseuillage p : 200.5%-orthovanadate 1 mM.Annexes 209 B6 Supprimer les petits groupes Numéroter les composantes connexes Calculer la taille de chaque région Seuiller les sommets du graphe Restructurer le graphe Numéroter les objets gmarquage p: e : i21 s : i22 r: gtaille p: e : i13. 3 fois 5 mn.5% pendant 1 h à température ambiante en chambre humide et à l’obscurité.5% pendant 1 h à température ambiante. 1 fois 15 mn. 1 fois 15 mn avec du PBS-BSA 0. 2 fois 10 mn avec du PBS-BSA 0.5% puis 5 mn dans de l’eau ultra-pure. en chambre humide et à l’obscurité.5%-orthovanadate 1 mM (inhibiteur de phosphatases. Les cellules sont ensuite fixées 10 mn avec du paraformaldéhyde à 3% puis rincées 1 fois 1 mn. France) et séchées au moins une nuit avant observation. puis incubées en présence de l'anticorps secondaire conjugué à la FITC (F6257. Préparation des cultures cellulaires 150 000 cellules sont ensemencées sur une lamelle de verre placée dans boîte de Pétri et incubées dans du milieu DMEM à 10% de sérum de veau fœtal. Sigma. 2 fois 10 mn avec du PBS-BSA 0. puis rincées 1 fois 1 mn. France) dilué au 1/30 dans du PBS-BSA 0. Sigma). puis perméabilisées avec du Triton X 100 à 0. Au temps voulu.5%. les cellules sont rincées 1 fois 1 mn puis 2 fois 5 mn avec du PBS (phosphate buffered saline)-BSA (sérum albumine bovine) 0. 3 fois 5 mn. Les cellules sont à nouveau rincées 1 fois 1 mn. 1 fois 10 mn.5% dans du PBS sans Ca2+ ni Mg2+ (2 mn) à 4°C. 1 fois 30 mn avec du PBS-BSA 0.

.

.

We propose a characterization of cell architecture in histological sections. image et instrumentation de Caen (GREYC) Institut des sciences de la matière et du rayonnement (ISMRA) 6. dans le domaine de la microscopie cellulaire. en mettant l’accent sur l’analogie entre le traitement des graphes de voisinage et celui des grilles de points. boulevard du Maréchal-Juin 14050 Caen cedex . En particulier. including their representation and processing is examined. a quantification of focal contacts in culture cells and a study of 3D architecture in transformation cells. afin de manipuler explicitement les relations de proximité et de ressemblance entre ces objets. Tissus (histologie) 2D and 3D-image segmentation. In particular. Mots-clés Traitement des images. Tissues Groupe de recherches en informatique. from the acquisition to the quantification of the images. In particular. This thesis describes a study of three-dimensional image analysis. Nous présentons trois études menées en collaboration avec le Centre Régional de Lutte Contre le Cancer et le Groupe Régional d’Études sur le Cancer. within the context of cellular microscopy. For this purpose. Microscopie confocale. Nous exposons tout d’abord les caractéristiques des images acquises par microscopie confocale. Nous détaillons ensuite l’intégration de nouveaux opérateurs de traitement dans la bibliothèque PANDORE. depuis l’acquisition jusqu’à la quantification des images. Nous proposons une caractérisation de l’architecture des cellules dans des coupes histologiques. our approach is applied to the solving of various image processing problems dealing with 2D and 3D cellular microscopy images. it is shown that isotropic three-dimensional processing cannot be applied to the images obtained with this device. nous appliquons notre approche à la résolution de divers problèmes de traitement d’images de microscopie cellulaire 2D et 3D. en passant par leur représentation et leur traitement. Three studies carried out in collaboration with the Centre Régional de Lutte Contre le Cancer and the Groupe Régional d’Études sur le Cancer are presented.Segmentation d’images 2D et 3D . Nous présentons les avantages et les limites de ce type d’acquisition et nous montrons en particulier que les traitements tridimensionnels isotropes ne sont pas adaptés aux images ainsi obtenues. Finally. nous proposons une double représentation des images : en tant que grilles régulières de points et en tant que graphes de voisinage. application à la quantification d’images histologiques et cytologiques obtenues par microscopie L’imagerie bidimensionnelle ne permet pas toujours de répondre aux questions posées lors de l’analyse de scènes provenant de notre monde tridimensionnel. We therefore describe an image representation and the related operations allowing to take into account the specificity of the images and the goals to be reached: identify populations of biological objets and characterize their intrinsic architecture. une quantification de la présence de contacts focaux dans des cellules de culture et une étude de l’architecture volumique de transformations cellulaires. a dual representation of images is proposed: as regular point grids and as neighborhood graphs. Confocal microscopy. First the characteristics of the images obtained by confocal microscopy are presented and the advantages and the limits of this kind of acquisition device are discussed. each process. We also detail the integration of new processing operators in the PANDORE library. application to the quantification of histological and cytological images obtained by microscopy Two-dimensional imaging is not always able to cope with the issues raised by scene analysis coming from our threedimensional world. Enfin. in order to explicitly manipulate proximity and similarity relations between objets. Keywords Image processing. Nous présentons alors une représentation des images et des opérations de traitement permettant de prendre en compte les spécificités des images et des objectifs à atteindre : identifier des populations d’objets biologiques et caractériser leur architecture au sein des images. Cette thèse propose une étude de l’analyse d’images 3D. while emphasizing the analogy between the processing of neighborhood graphs and the processing of point grids. Nous examinons pour cela chacun des processus impliqués.