You are on page 1of 54

Deep Learning in Medical Image

Analysis and Multimodal Learning for


Clinical Decision Support Danail
Stoyanov
Visit to download the full and correct content document:
https://textbookfull.com/product/deep-learning-in-medical-image-analysis-and-multimo
dal-learning-for-clinical-decision-support-danail-stoyanov/
More products digital (pdf, epub, mobi) instant
download maybe you interests ...

Deep Learning for Medical Decision Support Systems Utku


Kose

https://textbookfull.com/product/deep-learning-for-medical-
decision-support-systems-utku-kose/

Deep Learning for Medical Image Analysis 1st Edition S.


Kevin Zhou

https://textbookfull.com/product/deep-learning-for-medical-image-
analysis-1st-edition-s-kevin-zhou/

OR 2 0 Context Aware Operating Theaters Computer


Assisted Robotic Endoscopy Clinical Image Based
Procedures and Skin Image Analysis Danail Stoyanov

https://textbookfull.com/product/or-2-0-context-aware-operating-
theaters-computer-assisted-robotic-endoscopy-clinical-image-
based-procedures-and-skin-image-analysis-danail-stoyanov/

Simulation Image Processing and Ultrasound Systems for


Assisted Diagnosis and Navigation Danail Stoyanov

https://textbookfull.com/product/simulation-image-processing-and-
ultrasound-systems-for-assisted-diagnosis-and-navigation-danail-
stoyanov/
Multimodal Learning for Clinical Decision Support and
Clinical Image Based Procedures 10th International
Workshop ML CDS 2020 and 9th International Workshop
CLIP 2020 Held in Conjunction with MICCAI 2020 Lima
Peru October 4 8 2020 Proceedings Tanveer Syeda-Mahmood
https://textbookfull.com/product/multimodal-learning-for-
clinical-decision-support-and-clinical-image-based-
procedures-10th-international-workshop-ml-cds-2020-and-9th-
international-workshop-clip-2020-held-in-conjunction-with-
miccai-2/
Understanding and Interpreting Machine Learning in
Medical Image Computing Applications First
International Workshops MLCN 2018 DLF 2018 and iMIMIC
2018 Held in Conjunction with MICCAI 2018 Granada Spain
September 16 20 2018 Proceedings Danail Stoyanov
https://textbookfull.com/product/understanding-and-interpreting-
machine-learning-in-medical-image-computing-applications-first-
international-workshops-mlcn-2018-dlf-2018-and-imimic-2018-held-
in-conjunction-with-miccai-2018-granada-sp/

Introduction to Deep Learning Business Applications for


Developers: From Conversational Bots in Customer
Service to Medical Image Processing Armando Vieira

https://textbookfull.com/product/introduction-to-deep-learning-
business-applications-for-developers-from-conversational-bots-in-
customer-service-to-medical-image-processing-armando-vieira/

Computational Pathology and Ophthalmic Medical Image


Analysis First International Workshop COMPAY 2018 and
5th International Workshop OMIA 2018 Held in
Conjunction with MICCAI 2018 Granada Spain September 16
20 2018 Proceedings Danail Stoyanov
https://textbookfull.com/product/computational-pathology-and-
ophthalmic-medical-image-analysis-first-international-workshop-
compay-2018-and-5th-international-workshop-omia-2018-held-in-
conjunction-with-miccai-2018-granada-spain-septe/

Deep Learning for Natural Language Processing Develop


Deep Learning Models for Natural Language in Python
Jason Brownlee

https://textbookfull.com/product/deep-learning-for-natural-
language-processing-develop-deep-learning-models-for-natural-
language-in-python-jason-brownlee/
Danail Stoyanov · Zeike Taylor
Gustavo Carneiro
Tanveer Syeda-Mahmood et al. (Eds.)

Deep Learning in Medical


LNCS 11045

Image Analysis
and Multimodal Learning
for Clinical Decision Support
4th International Workshop, DLMIA 2018
and 8th International Workshop, ML-CDS 2018
Held in Conjunction with MICCAI 2018
Granada, Spain, September 20, 2018, Proceedings

123
Lecture Notes in Computer Science 11045
Commenced Publication in 1973
Founding and Former Series Editors:
Gerhard Goos, Juris Hartmanis, and Jan van Leeuwen

Editorial Board
David Hutchison
Lancaster University, Lancaster, UK
Takeo Kanade
Carnegie Mellon University, Pittsburgh, PA, USA
Josef Kittler
University of Surrey, Guildford, UK
Jon M. Kleinberg
Cornell University, Ithaca, NY, USA
Friedemann Mattern
ETH Zurich, Zurich, Switzerland
John C. Mitchell
Stanford University, Stanford, CA, USA
Moni Naor
Weizmann Institute of Science, Rehovot, Israel
C. Pandu Rangan
Indian Institute of Technology Madras, Chennai, India
Bernhard Steffen
TU Dortmund University, Dortmund, Germany
Demetri Terzopoulos
University of California, Los Angeles, CA, USA
Doug Tygar
University of California, Berkeley, CA, USA
Gerhard Weikum
Max Planck Institute for Informatics, Saarbrücken, Germany
More information about this series at http://www.springer.com/series/7412
Danail Stoyanov Zeike Taylor

Gustavo Carneiro Tanveer Syeda-Mahmood et al. (Eds.)


Deep Learning in Medical


Image Analysis
and Multimodal Learning
for Clinical Decision Support
4th International Workshop, DLMIA 2018
and 8th International Workshop, ML-CDS 2018
Held in Conjunction with MICCAI 2018
Granada, Spain, September 20, 2018
Proceedings

123
Editors
Danail Stoyanov Gustavo Carneiro
University College London University of Adelaide
London Adelaide, SA
UK Australia
Zeike Taylor Tanveer Syeda-Mahmood
University of Leeds IBM Research – Almaden
Leeds San Jose, CA
UK USA

Additional Workshop Editors see next page

ISSN 0302-9743 ISSN 1611-3349 (electronic)


Lecture Notes in Computer Science
ISBN 978-3-030-00888-8 ISBN 978-3-030-00889-5 (eBook)
https://doi.org/10.1007/978-3-030-00889-5

Library of Congress Control Number: 2018955639

LNCS Sublibrary: SL6 – Image Processing, Computer Vision, Pattern Recognition, and Graphics

© Springer Nature Switzerland AG 2018


This work is subject to copyright. All rights are reserved by the Publisher, whether the whole or part of the
material is concerned, specifically the rights of translation, reprinting, reuse of illustrations, recitation,
broadcasting, reproduction on microfilms or in any other physical way, and transmission or information
storage and retrieval, electronic adaptation, computer software, or by similar or dissimilar methodology now
known or hereafter developed.
The use of general descriptive names, registered names, trademarks, service marks, etc. in this publication
does not imply, even in the absence of a specific statement, that such names are exempt from the relevant
protective laws and regulations and therefore free for general use.
The publisher, the authors and the editors are safe to assume that the advice and information in this book are
believed to be true and accurate at the date of publication. Neither the publisher nor the authors or the editors
give a warranty, express or implied, with respect to the material contained herein or for any errors or
omissions that may have been made. The publisher remains neutral with regard to jurisdictional claims in
published maps and institutional affiliations.

This Springer imprint is published by the registered company Springer Nature Switzerland AG
The registered company address is: Gewerbestrasse 11, 6330 Cham, Switzerland
Additional Workshop Editors

Tutorial and Educational Chair

Anne Martel
University of Toronto
Toronto, ON
Canada

Workshop and Challenge Co-chair

Lena Maier-Hein
German Cancer Research Center (DKFZ)
Heidelberg
Germany

4th International Workshop on Deep Learning in Medical


Image Analysis, DLMIA 2018

João Manuel R. S. Tavares Jacinto C. Nascimento


Universidade do Porto Instituto Superior Técnico
Porto Lisboa
Portugal Portugal
Andrew Bradley Zhi Lu
Queensland University of Technology ReFUEL4
Brisbane, QLD Singapore
Australia Singapore
João Paulo Papa Sailesh Conjeti
São Paulo State University German Center for Neurodegenerative
São Paulo Diseases (DZNE)
Brazil Munich
Germany
Vasileios Belagiannis
OSRAM GmbH
Munich
Germany
VI Additional Workshop Editors

8th International Workshop on Multimodal Learning for Clinical


Decision Support, ML-CDS 2018

Mehdi Moradi Anant Madabhushi


IBM Research – Almaden Case Western Reserve University
San Jose, CA Cleveland, OH
USA USA
Hayit Greenspan
Tel Aviv University
Tel Aviv
Israel
DLMIA 2018 Preface

Welcome to the fourth edition of the MICCAI Workshop on Deep Learning in Medical
Image Analysis (DLMIA). DLMIA has become one of the most successful MICCAI
satellite events, with hundreds of attendees and more than 80 paper submissions in
2018. The fourth edition of DLMIA was dedicated to the presentation of papers
focused on the design and use of deep learning methods in medical image analysis
applications. We believe that this workshop is setting the trends and identifying the
challenges of the deep learning methods in medical image analysis. Another important
objective of the workshop is to continue and increase the connection between software
developers, researchers, and end users from diverse fields related to medical image and
signal processing, which are the main scopes of MICCAI. For the keynote talks, we
invited Prof. Hayit Greenspan from Tel Aviv University, Prof. Alison Noble from the
University of Oxford, and Mr. Christopher Semturs from Google Research – they
represent three prominent researchers in the field of deep learning in medical image
analysis. The first call of papers for the fourth DLMIA was released March 20, 2018,
and the last call on June 7, 2018, with the paper deadline set to June 15, 2018. The
submission site of DLMIA received 85 paper registrations, from which 77 papers
turned into full paper submissions, where each submission was reviewed by between
two and four reviewers. The chairs decided to select 39 out of the 77 submissions,
based on the scores and comments made by the reviewers and meta-reviewers (i.e., a
50% acceptance rate). We would like to acknowledge the financial support provided by
Nvidia, Hyperfine, Imsight, and Maxwell MRI for the realization of the work-
shop. Finally, we would like to acknowledge the support from the Australian Research
Council for the realization of this workshop (discovery project DP180103232). We
would also like to thank the program chair and Program Committee members of
DLMIA.

September 2018 Gustavo Carneiro


João Manuel R. S. Tavares
Andrew Bradley
João Paulo Papa
Vasileios Belagiannis
Jacinto C. Nascimento
Zhi Lu
Sailesh Conjeti
ML-CDS 2018 Preface

On behalf of the organizing committee, we welcome you to the 8th Workshop on


Multimodal Learning for Clinical Decision Support (ML-CDS 2018). The goal of this
series of workshops is to bring together researchers in medical imaging, medical image
retrieval, data mining, text retrieval, and machine learning/AI communities to discuss
new techniques of multimodal mining/retrieval, and their use in clinical decision
support. Although the title of the workshop has been changing slightly over the years,
the common theme preserved is the notion of clinical decision support and the need for
multimodal analysis. The previous seven workshops on this topic were well-received at
MICCAI, specifically Quebec City (2017), Athens (2016), Munich (2015), Nagoya
(2013), Nice (2012), Toronto (2011), and London (2009).
Continuing on the momentum built by these workshops, our focus remains on
multimodal learning. As has been the norm with these workshops, the papers were
submitted in eight-page double-blind format, and were accepted after the review. As in
previous years, the program featured an invited lecture by a practicing radiologist to
form a bridge between medical image interpretation and clinical informatics. This year
we brought a neurologist to tell us about problems facing decision support for neu-
rology where the modalities expand beyond diagnostic imaging to camera-grabbed
imaging (monitoring epileptic patients) and electroencephalograms (EEGs). The
workshop retained an oral format for all the presentations. The day ended with a lively
panel composed of more doctors, medical imaging researchers, and industry experts.
With less than 5% of medical image analysis techniques translating to clinical
practice, workshops on this topic have helped raise the awareness of our field to clinical
practitioners. The approach taken in the workshop is to scale it to large collections of
patient data exposing interesting issues of multimodal learning and its specific use in
clinical decision support by practicing physicians. With the introduction of intelligent
browsing and summarization methods, we hope to also address the ease-of-use in
conveying derived information to clinicians to aid their adoption. Finally, the ultimate
impact of these methods can be judged when they begin to affect treatment planning in
clinical practice.
We hope you will enjoy the proceedings we have assembled in this volume.

September 2018 Tanveer Syeda-Mahmood


Hayit Greenspan
Anant Madabhushi
Mehdi Moradi
Organization

DLMIA 2018 Organizing Committee


Gustavo Carneiro University of Adelaide, Australia
João Manuel R. S. Tavares Universidade do Porto, Portugal
Andrew Bradley Queensland University of Technology, Australia
João Paulo Papa Universidade Estadual Paulista, Brazil
Vasileios Belagiannis Osram, Germany
Jacinto C. Nascimento Instituto Superior Tecnico, Portugal
Zhi Lu Guangdong University of Technology, China

ML-CDS 2018 Program Committee


Amir Amini University of Louisville, USA
Sameer Antani National Library of Medicine, USA
Rivka Colen MD Andersen Research Center, USA
Keyvan Farahani National Cancer Institute, USA
Alejandro Franji University of Sheffield, UK
Guido Gerig University of Utah, USA
David Gutman Emory University, USA
Allan Halpern Memorial Sloan-Kettering Research Center, USA
Ghassan Hamarneh Simon Fraser University, Canada
Jayshree Kalpathy-Kramer Mass General Hospital, USA
Ron Kikinis Harvard University, USA
Georg Lands Medical University of Vienna, Austria
Robert Lundstrom Kaiser Permanente, USA
B. Manjunath University of California, Santa Barbara, USA
Dimitris Metaxas Rutgers University, USA
Nikos Paragios Ecole Centrale de Paris, France
Daniel Racoceanu National University of Singapore, Singapore
Eduardo Romero Universidad Nationale Colombia, Colombia
Daniel Rubin Stanford University, USA
Russ Taylor Johns Hopkins University, USA
Agma Traina São Paulo University, Brazil
Max Viergewer Utrecht University, The Netherlands
Sean Zhou Siemens Corporate Research, USA
Contents

4th International Workshop on Deep Learning in Medical Image


Analysis, DLMIA 2018

UNet++: A Nested U-Net Architecture for Medical Image Segmentation . . . . 3


Zongwei Zhou, Md Mahfuzur Rahman Siddiquee, Nima Tajbakhsh,
and Jianming Liang

Deep Semi-supervised Segmentation with Weight-Averaged


Consistency Targets. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
Christian S. Perone and Julien Cohen-Adad

Handling Missing Annotations for Semantic Segmentation


with Deep ConvNets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Olivier Petit, Nicolas Thome, Arnaud Charnoz, Alexandre Hostettler,
and Luc Soler

A Unified Framework Integrating Recurrent Fully-Convolutional Networks


and Optical Flow for Segmentation of the Left Ventricle
in Echocardiography Data . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
Mohammad H. Jafari, Hany Girgis, Zhibin Liao, Delaram Behnami,
Amir Abdi, Hooman Vaseli, Christina Luong, Robert Rohling, Ken Gin,
Terasa Tsang, and Purang Abolmaesumi

Multi-scale Residual Network with Two Channels of Raw CT Image


and Its Differential Excitation Component for Emphysema Classification . . . . 38
Liying Peng, Lanfen Lin, Hongjie Hu, Huali Li, Qingqing Chen,
Dan Wang, Xian-Hua Han, Yutaro Iwamoto, and Yen-Wei Chen

TreeNet: Multi-loss Deep Learning Network to Predict Branch Direction


for Extracting 3D Anatomical Trees . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
Mengliu Zhao and Ghassan Hamarneh

3D Deep Affine-Invariant Shape Learning for Brain


MR Image Segmentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
Zhou He, Siqi Bao, and Albert Chung

Automatic Detection of Patients with a High Risk of Systolic Cardiac


Failure in Echocardiography . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
Delaram Behnami, Christina Luong, Hooman Vaseli, Amir Abdi,
Hany Girgis, Dale Hawley, Robert Rohling, Ken Gin,
Purang Abolmaesumi, and Teresa Tsang
XIV Contents

MTMR-Net: Multi-task Deep Learning with Margin Ranking Loss


for Lung Nodule Analysis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
Lihao Liu, Qi Dou, Hao Chen, Iyiola E. Olatunji, Jing Qin,
and Pheng-Ann Heng

Active Deep Learning with Fisher Information for Patch-Wise


Semantic Segmentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
Jamshid Sourati, Ali Gholipour, Jennifer G. Dy, Sila Kurugol,
and Simon K. Warfield

Contextual Additive Networks to Efficiently Boost


3D Image Segmentations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
Zhenlin Xu, Zhengyang Shen, and Marc Niethammer

Unsupervised Probabilistic Deformation Modeling for Robust


Diffeomorphic Registration. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
Julian Krebs, Tommaso Mansi, Boris Mailhé, Nicholas Ayache,
and Hervé Delingette

Rapid Training Data Generation for Tissue Segmentation Using Global


Approximate Block-Matching with Self-organizing Maps . . . . . . . . . . . . . . . 110
Lee B. Reid and Alex M. Pagnozzi

Focal Dice Loss and Image Dilation for Brain Tumor Segmentation . . . . . . . 119
Pei Wang and Albert C. S. Chung

Deep Particle Tracker: Automatic Tracking of Particles in Fluorescence


Microscopy Images Using Deep Learning . . . . . . . . . . . . . . . . . . . . . . . . . 128
Roman Spilger, Thomas Wollmann, Yu Qiang, Andrea Imle,
Ji Young Lee, Barbara Müller, Oliver T. Fackler, Ralf Bartenschlager,
and Karl Rohr

3D Convolutional Neural Networks for Classification


of Functional Connectomes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
Meenakshi Khosla, Keith Jamison, Amy Kuceyeski, and Mert R. Sabuncu

Segmentation of Head and Neck Organs-At-Risk in Longitudinal CT Scans


Combining Deformable Registrations and Convolutional Neural Networks . . . 146
Liesbeth Vandewinckele, David Robben, Wouter Crijns,
and Frederik Maes

Unpaired Deep Cross-Modality Synthesis with Fast Training . . . . . . . . . . . . 155


Lei Xiang, Yang Li, Weili Lin, Qian Wang, and Dinggang Shen

UOLO - Automatic Object Detection and Segmentation


in Biomedical Images . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
Teresa Araújo, Guilherme Aresta, Adrian Galdran, Pedro Costa,
Ana Maria Mendonça, and Aurélio Campilho
Contents XV

Unpaired Brain MR-to-CT Synthesis Using a Structure-Constrained


CycleGAN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
Heran Yang, Jian Sun, Aaron Carass, Can Zhao, Junghoon Lee,
Zongben Xu, and Jerry Prince

Active Learning for Segmentation by Optimizing Content Information


for Maximal Entropy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
Firat Ozdemir, Zixuan Peng, Christine Tanner, Philipp Fuernstahl,
and Orcun Goksel

Weakly Supervised Localisation for Fetal Ultrasound Images . . . . . . . . . . . . 192


Nicolas Toussaint, Bishesh Khanal, Matthew Sinclair, Alberto Gomez,
Emily Skelton, Jacqueline Matthew, and Julia A. Schnabel

PIMMS: Permutation Invariant Multi-modal Segmentation . . . . . . . . . . . . . . 201


Thomas Varsavsky, Zach Eaton-Rosen, Carole H. Sudre,
Parashkev Nachev, and M. Jorge Cardoso

Unsupervised Feature Learning for Outlier Detection with Stacked


Convolutional Autoencoders, Siamese Networks and Wasserstein
Autoencoders: Application to Epilepsy Detection . . . . . . . . . . . . . . . . . . . . 210
Zara Alaverdyan, Jiazheng Chai, and Carole Lartizien

Semi-automated Extraction of Crohns Disease MR Imaging Markers


Using a 3D Residual CNN with Distance Prior . . . . . . . . . . . . . . . . . . . . . . 218
Yechiel Lamash, Sila Kurugol, and Simon K. Warfield

Learning Optimal Deep Projection of 18 F-FDG PET Imaging for Early


Differential Diagnosis of Parkinsonian Syndromes . . . . . . . . . . . . . . . . . . . . 227
Shubham Kumar, Abhijit Guha Roy, Ping Wu, Sailesh Conjeti,
R. S. Anand, Jian Wang, Igor Yakushev, Stefan Förster,
Markus Schwaiger, Sung-Cheng Huang, Axel Rominger, Chuantao Zuo,
and Kuangyu Shi

Learning to Segment Medical Images with Scribble-Supervision Alone . . . . . 236


Yigit B. Can, Krishna Chaitanya, Basil Mustafa, Lisa M. Koch,
Ender Konukoglu, and Christian F. Baumgartner

Learning to Decode 7T-Like MR Image Reconstruction


from 3T MR Images . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
Aditya Sharma, Prabhjot Kaur, Aditya Nigam, and Arnav Bhavsar

Nonlinear Adaptively Learned Optimization for Object Localization


in 3D Medical Images . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254
Mayalen Etcheverry, Bogdan Georgescu, Benjamin Odry, Thomas J. Re,
Shivam Kaushik, Bernhard Geiger, Nadar Mariappan, Sasa Grbic,
and Dorin Comaniciu
XVI Contents

SCAN: Structure Correcting Adversarial Network for Organ Segmentation


in Chest X-Rays . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263
Wei Dai, Nanqing Dong, Zeya Wang, Xiaodan Liang, Hao Zhang,
and Eric P. Xing

Monte-Carlo Sampling Applied to Multiple Instance Learning


for Histological Image Classification . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274
Marc Combalia and Verónica Vilaplana

Automatic Segmentation of Pulmonary Lobes Using a Progressive


Dense V-Network . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282
Abdullah-Al-Zubaer Imran, Ali Hatamizadeh, Shilpa P. Ananth,
Xiaowei Ding, Demetri Terzopoulos, and Nima Tajbakhsh

Computed Tomography Image Enhancement Using 3D


Convolutional Neural Network . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291
Meng Li, Shiwen Shen, Wen Gao, William Hsu, and Jason Cong

Paediatric Bone Age Assessment Using Deep


Convolutional Neural Networks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 300
Vladimir I. Iglovikov, Alexander Rakhlin, Alexandr A. Kalinin,
and Alexey A. Shvets

Automatic Myocardial Strain Imaging in Echocardiography


Using Deep Learning. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 309
Andreas Østvik, Erik Smistad, Torvald Espeland,
Erik Andreas Rye Berg, and Lasse Lovstakken

Reinforced Auto-Zoom Net: Towards Accurate and Fast Breast Cancer


Segmentation in Whole-Slide Images. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 317
Nanqing Dong, Michael Kampffmeyer, Xiaodan Liang, Zeya Wang,
Wei Dai, and Eric Xing

Longitudinal Detection of Radiological Abnormalities


with Time-Modulated LSTM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 326
Ruggiero Santeramo, Samuel Withey, and Giovanni Montana

Iterative Segmentation from Limited Training Data: Applications


to Congenital Heart Disease . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 334
Danielle F. Pace, Adrian V. Dalca, Tom Brosch, Tal Geva,
Andrew J. Powell, Jürgen Weese, Mehdi H. Moghari,
and Polina Golland

ScarGAN: Chained Generative Adversarial Networks to Simulate


Pathological Tissue on Cardiovascular MR Scans . . . . . . . . . . . . . . . . . . . . 343
Felix Lau, Tom Hendriks, Jesse Lieman-Sifry, Sean Sall,
and Dan Golden
Contents XVII

8th International Workshop on Multimodal Learning


for Clinical Decision Support, ML-CDS 2018

A Multi-scale Multiple Sclerosis Lesion Change Detection


in a Multi-sequence MRI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 353
Myra Cheng, Alfiia Galimzianova, Žiga Lesjak, Žiga Špiclin,
Christopher B. Lock, and Daniel L. Rubin

Multi-task Sparse Low-Rank Learning for Multi-classification


of Parkinson’s Disease. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 361
Haijun Lei, Yujia Zhao, and Baiying Lei

Optic Disc Segmentation in Retinal Fundus Images Using Fully


Convolutional Network and Removal of False-Positives Based
on Shape Features . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 369
Sandip Sadhukhan, Goutam Kumar Ghorai, Souvik Maiti,
Vikrant Anilrao Karale, Gautam Sarkar, and Ashis Kumar Dhara

Integrating Deformable Modeling with 3D Deep Neural


Network Segmentation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 377
Hui Tang, Mehdi Moradi, Ken C. L. Wong, Hongzhi Wang,
Ahmed El Harouni, and Tanveer Syeda-Mahmood

Author Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 385


4th International Workshop on Deep
Learning in Medical Image Analysis,
DLMIA 2018
UNet++: A Nested U-Net Architecture
for Medical Image Segmentation

Zongwei Zhou, Md Mahfuzur Rahman Siddiquee, Nima Tajbakhsh,


and Jianming Liang(B)

Arizona State University, Tempe, USA


{zongweiz,mrahmans,ntajbakh,jianming.liang}@asu.edu

Abstract. In this paper, we present UNet++, a new, more powerful


architecture for medical image segmentation. Our architecture is essen-
tially a deeply-supervised encoder-decoder network where the encoder
and decoder sub-networks are connected through a series of nested,
dense skip pathways. The re-designed skip pathways aim at reducing
the semantic gap between the feature maps of the encoder and decoder
sub-networks. We argue that the optimizer would deal with an easier
learning task when the feature maps from the decoder and encoder net-
works are semantically similar. We have evaluated UNet++ in compar-
ison with U-Net and wide U-Net architectures across multiple medical
image segmentation tasks: nodule segmentation in the low-dose CT scans
of chest, nuclei segmentation in the microscopy images, liver segmenta-
tion in abdominal CT scans, and polyp segmentation in colonoscopy
videos. Our experiments demonstrate that UNet++ with deep supervi-
sion achieves an average IoU gain of 3.9 and 3.4 points over U-Net and
wide U-Net, respectively.

1 Introduction
The state-of-the-art models for image segmentation are variants of the encoder-
decoder architecture like U-Net [9] and fully convolutional network (FCN) [8].
These encoder-decoder networks used for segmentation share a key similarity:
skip connections, which combine deep, semantic, coarse-grained feature maps
from the decoder sub-network with shallow, low-level, fine-grained feature maps
from the encoder sub-network. The skip connections have proved effective in
recovering fine-grained details of the target objects; generating segmentation
masks with fine details even on complex background. Skip connections is also
fundamental to the success of instance-level segmentation models such as Mask-
RCNN, which enables the segmentation of occluded objects. Arguably, image
segmentation in natural images has reached a satisfactory level of performance,
but do these models meet the strict segmentation requirements of medical
images?
Segmenting lesions or abnormalities in medical images demands a higher level
of accuracy than what is desired in natural images. While a precise segmentation

c Springer Nature Switzerland AG 2018


D. Stoyanov et al. (Eds.): DLMIA 2018/ML-CDS 2018, LNCS 11045, pp. 3–11, 2018.
https://doi.org/10.1007/978-3-030-00889-5_1
4 Z. Zhou et al.

mask may not be critical in natural images, even marginal segmentation errors in
medical images can lead to poor user experience in clinical settings. For instance,
the subtle spiculation patterns around a nodule may indicate nodule malignancy;
and therefore, their exclusion from the segmentation masks would lower the
credibility of the model from the clinical perspective. Furthermore, inaccurate
segmentation may also lead to a major change in the subsequent computer-
generated diagnosis. For example, an erroneous measurement of nodule growth
in longitudinal studies can result in the assignment of an incorrect Lung-RADS
category to a screening patient. It is therefore desired to devise more effective
image segmentation architectures that can effectively recover the fine details of
the target objects in medical images.
To address the need for more accurate segmentation in medical images, we
present UNet++, a new segmentation architecture based on nested and dense
skip connections. The underlying hypothesis behind our architecture is that
the model can more effectively capture fine-grained details of the foreground
objects when high-resolution feature maps from the encoder network are grad-
ually enriched prior to fusion with the corresponding semantically rich feature
maps from the decoder network. We argue that the network would deal with
an easier learning task when the feature maps from the decoder and encoder
networks are semantically similar. This is in contrast to the plain skip con-
nections commonly used in U-Net, which directly fast-forward high-resolution
feature maps from the encoder to the decoder network, resulting in the fusion
of semantically dissimilar feature maps. According to our experiments, the sug-
gested architecture is effective, yielding significant performance gain over U-Net
and wide U-Net.

2 Related Work

Long et al. [8] first introduced fully convolutional networks (FCN), while U-
Net was introduced by Ronneberger et al. [9]. They both share a key idea: skip
connections. In FCN, up-sampled feature maps are summed with feature maps
skipped from the encoder, while U-Net concatenates them and add convolutions
and non-linearities between each up-sampling step. The skip connections have
shown to help recover the full spatial resolution at the network output, mak-
ing fully convolutional methods suitable for semantic segmentation. Inspired
by DenseNet architecture [5], Li et al. [7] proposed H-denseunet for liver and
liver tumor segmentation. In the same spirit, Drozdzalet al. [2] systematically
investigated the importance of skip connections, and introduced short skip con-
nections within the encoder. Despite the minor differences between the above
architectures, they all tend to fuse semantically dissimilar feature maps from
the encoder and decoder sub-networks, which, according to our experiments,
can degrade segmentation performance.
The other two recent related works are GridNet [3] and Mask-RCNN [4].
GridNet is an encoder-decoder architecture wherein the feature maps are wired in
a grid fashion, generalizing several classical segmentation architectures. GridNet,
UNet++: A Nested U-Net Architecture 5

however, lacks up-sampling layers between skip connections; and thus, it does not
represent UNet++. Mask-RCNN is perhaps the most important meta framework
for object detection, classification and segmentation. We would like to note that
UNet++ can be readily deployed as the backbone architecture in Mask-RCNN
by simply replacing the plain skip connections with the suggested nested dense
skip pathways. Due to limited space, we were not able to include results of
Mask RCNN with UNet++ as the backbone architecture; however, the interested
readers can refer to the supplementary material for further details.

3 Proposed Network Architecture: UNet++


Figure 1a shows a high-level overview of the suggested architecture. As seen,
UNet++ starts with an encoder sub-network or backbone followed by a decoder
sub-network. What distinguishes UNet++ from U-Net (the black components in
Fig. 1(a) is the re-designed skip pathways (shown in green and blue) that connect
the two sub-networks and the use of deep supervision (shown red).

Fig. 1. (a) UNet++ consists of an encoder and decoder that are connected through a
series of nested dense convolutional blocks. The main idea behind UNet++ is to bridge
the semantic gap between the feature maps of the encoder and decoder prior to fusion.
For example, the semantic gap between (X0,0 , X1,3 ) is bridged using a dense convolu-
tion block with three convolution layers. In the graphical abstract, black indicates the
original U-Net, green and blue show dense convolution blocks on the skip pathways, and
red indicates deep supervision. Red, green, and blue components distinguish UNet++
from U-Net. (b) Detailed analysis of the first skip pathway of UNet++. (c) UNet++
can be pruned at inference time, if trained with deep supervision. (Color figure online)
6 Z. Zhou et al.

3.1 Re-designed Skip Pathways

Re-designed skip pathways transform the connectivity of the encoder and


decoder sub-networks. In U-Net, the feature maps of the encoder are directly
received in the decoder; however, in UNet++, they undergo a dense convolu-
tion block whose number of convolution layers depends on the pyramid level.
For example, the skip pathway between nodes X0,0 and X1,3 consists of a dense
convolution block with three convolution layers where each convolution layer
is preceded by a concatenation layer that fuses the output from the previous
convolution layer of the same dense block with the corresponding up-sampled
output of the lower dense block. Essentially, the dense convolution block brings
the semantic level of the encoder feature maps closer to that of the feature maps
awaiting in the decoder. The hypothesis is that the optimizer would face an
easier optimization problem when the received encoder feature maps and the
corresponding decoder feature maps are semantically similar.
Formally, we formulate the skip pathway as follows: let xi,j denote the output
of node Xi,j where i indexes the down-sampling layer along the encoder and j
indexes the convolution layer of the dense block along the skip pathway. The
stack of feature maps represented by xi,j is computed as
  i−1,j 
i,j
H 
x , j=0
x =  i,k j−1 i+1,j−1
(1)
H x k=0 , U(x ) , j>0

where function H(·) is a convolution operation followed by an activation func-


tion, U(·) denotes an up-sampling layer, and [ ] denotes the concatenation layer.
Basically, nodes at level j = 0 receive only one input from the previous layer
of the encoder; nodes at level j = 1 receive two inputs, both from the encoder
sub-network but at two consecutive levels; and nodes at level j > 1 receive j + 1
inputs, of which j inputs are the outputs of the previous j nodes in the same
skip pathway and the last input is the up-sampled output from the lower skip
pathway. The reason that all prior feature maps accumulate and arrive at the
current node is because we make use of a dense convolution block along each
skip pathway. Figure 1b further clarifies Eq. 1 by showing how the feature maps
travel through the top skip pathway of UNet++.

3.2 Deep Supervision

We propose to use deep supervision [6] in UNet++, enabling the model to oper-
ate in two modes: (1) accurate mode wherein the outputs from all segmentation
branches are averaged; (2) fast mode wherein the final segmentation map is
selected from only one of the segmentation branches, the choice of which deter-
mines the extent of model pruning and speed gain. Figure 1c shows how the
choice of segmentation branch in fast mode results in architectures of varying
complexity.
Owing to the nested skip pathways, UNet++ generates full resolution feature
maps at multiple semantic levels, {x0,j , j ∈ {1, 2, 3, 4}}, which are amenable to
UNet++: A Nested U-Net Architecture 7

deep supervision. We have added a combination of binary cross-entropy and dice


coefficient as the loss function to each of the above four semantic levels, which
is described as:
N
1 1 2 · Yb · Ŷb
L(Y, Ŷ ) = − · Yb · log Ŷb + (2)
N 2 Yb + Ŷb
b=1

where Ŷb and Yb denote the flatten predicted probabilities and the flatten ground
truths of bth image respectively, and N indicates the batch size.
In summary, as depicted in Fig. 1a, UNet++ differs from the original U-Net
in three ways: (1) having convolution layers on skip pathways (shown in green),
which bridges the semantic gap between encoder and decoder feature maps; (2)
having dense skip connections on skip pathways (shown in blue), which improves
gradient flow; and (3) having deep supervision (shown in red), which as will be
shown in Sect. 4 enables model pruning and improves or in the worst case achieves
comparable performance to using only one loss layer.

4 Experiments

Datasets: As shown in Table 1, we use four medical imaging datasets for model
evaluation, covering lesions/organs from different medical imaging modalities.
For further details about datasets and the corresponding data pre-processing,
we refer the readers to the supplementary material.

Table 1. The image segmentation datasets used in our experiments.

Dataset Images Input Size Modality Provider


Cell nuclei 670 96 × 96 microscopy Data Science Bowl 2018

Colon polyp 7,379 224 × 224 RGB video ASU-Mayo [10, 11]

Liver 331 512 × 512 CT MICCAI 2018 LiTS Challenge

Lung nodule 1,012 64 × 64 × 64 CT LIDC-IDRI [1]

Baseline Models: For comparison, we used the original U-Net and a customized
wide U-Net architecture. We chose U-Net because it is a common performance
baseline for image segmentation. We also designed a wide U-Net with similar
number of parameters as our suggested architecture. This was to ensure that
the performance gain yielded by our architecture is not simply due to increased
number of parameters. Table 2 details the U-Net and wide U-Net architecture.
Implementation Details: We monitored the Dice coefficient and Intersection
over Union (IoU), and used early-stop mechanism on the validation set. We also
used Adam optimizer with a learning rate of 3e−4. Architecture details for U-
Net and wide U-Net are shown in Table 2. UNet++ is constructed from the
8 Z. Zhou et al.

Table 2. Number of convolutional kernels in U-Net and wide U-Net.

Encoder/decoder X0,0 /X0,4 X1,0 /X1,3 X2,0 /X2,2 X3,0 /X3,1 X4,0 /X4,0
U-Net 32 64 128 256 512
Wide U-Net 35 70 140 280 560

original U-Net architecture. All convolutional layers along a skip pathway (Xi,j )
use k kernels of size 3 × 3 (or 3 × 3 × 3 for 3D lung nodule segmentation) where
k = 32 × 2i . To enable deep supervision, a 1 × 1 convolutional layer followed by
a sigmoid activation function was appended to each of the target nodes: {x0,j |
j ∈ {1, 2, 3, 4}}. As a result, UNet++ generates four segmentation maps given an
input image, which will be further averaged to generate the final segmentation
map. More details can be founded at github.com/Nested-UNet.

Fig. 2. Qualitative comparison between U-Net, wide U-Net, and UNet++, showing
segmentation results for polyp, liver, and cell nuclei datasets (2D-only for a distinct
visualization).

Results: Table 3 compares U-Net, wide U-Net, and UNet++ in terms of the
number parameters and segmentation accuracy for the tasks of lung nodule
segmentation, colon polyp segmentation, liver segmentation, and cell nuclei seg-
mentation. As seen, wide U-Net consistently outperforms U-Net except for liver
segmentation where the two architectures perform comparably. This improve-
ment is attributed to the larger number of parameters in wide U-Net. UNet++
without deep supervision achieves a significant performance gain over both U-
Net and wide U-Net, yielding average improvement of 2.8 and 3.3 points in
UNet++: A Nested U-Net Architecture 9

IoU. UNet++ with deep supervision exhibits average improvement of 0.6 points
over UNet++ without deep supervision. Specifically, the use of deep supervi-
sion leads to marked improvement for liver and lung nodule segmentation, but
such improvement vanishes for cell nuclei and colon polyp segmentation. This is
because polyps and liver appear at varying scales in video frames and CT slices;
and thus, a multi-scale approach using all segmentation branches (deep super-
vision) is essential for accurate segmen. Figure 2 shows a qualitative comparison
between the results of U-Net, wide U-Net, and UNet++.
Model Pruning: Figure 3 shows segmentation performance of UNet++ after
applying different levels of pruning. We use UNet++ Li to denote UNet++
pruned at level i (see Fig. 1c for further details). As seen, UNet++ L3 achieves
on average 32.2% reduction in inference time while degrading IoU by only 0.6
points. More aggressive pruning further reduces the inference time but at the
cost of significant accuracy degradation.

Table 3. Segmentation results (IoU: %) for U-Net, wide U-Net and our suggested
architecture UNet++ with and without deep supervision (DS).

Architecture Params Dataset


Cell nuclei Colon polyp Liver Lung nodule
U-Net [9] 7.76M 90.77 30.08 76.62 71.47
Wide U-Net 9.13M 90.92 30.14 76.58 73.38
UNet++ w/o DS 9.04M 92.63 33.45 79.70 76.44
UNet++ w/ DS 9.04M 92.52 32.12 82.90 77.21

Fig. 3. Complexity, speed, and accuracy of UNet++ after pruning on (a) cell nuclei,
(b) colon polyp, (c) liver, and (d) lung nodule segmentation tasks respectively. The
inference time is the time taken to process 10k test images using one NVIDIA TITAN
X (Pascal) with 12 GB memory.
10 Z. Zhou et al.

5 Conclusion
To address the need for more accurate medical image segmentation, we pro-
posed UNet++. The suggested architecture takes advantage of re-designed skip
pathways and deep supervision. The re-designed skip pathways aim at reducing
the semantic gap between the feature maps of the encoder and decoder sub-
networks, resulting in a possibly simpler optimization problem for the optimizer
to solve. Deep supervision also enables more accurate segmentation particularly
for lesions that appear at multiple scales such as polyps in colonoscopy videos.
We evaluated UNet++ using four medical imaging datasets covering lung nodule
segmentation, colon polyp segmentation, cell nuclei segmentation, and liver seg-
mentation. Our experiments demonstrated that UNet++ with deep supervision
achieved an average IoU gain of 3.9 and 3.4 points over U-Net and wide U-Net,
respectively.

Acknowledgments. This research has been supported partially by NIH under Award
Number R01HL128785, by ASU and Mayo Clinic through a Seed Grant and an Inno-
vation Grant. The content is solely the responsibility of the authors and does not
necessarily represent the official views of NIH.

References
1. Armato, S.G., et al.: The lung image database consortium (LIDC) and image
database resource initiative (IDRI): a completed reference database of lung nodules
on CT scans. Med. Phys. 38(2), 915–931 (2011)
2. Drozdzal, M., Vorontsov, E., Chartrand, G., Kadoury, S., Pal, C.: The importance
of skip connections in biomedical image segmentation. In: Carneiro, G., et al. (eds.)
LABELS/DLMIA -2016. LNCS, vol. 10008, pp. 179–187. Springer, Cham (2016).
https://doi.org/10.1007/978-3-319-46976-8 19
3. Fourure, D., Emonet, R., Fromont, E., Muselet, D., Tremeau, A., Wolf, C.:
Residual conv-deconv grid network for semantic segmentation. arXiv preprint
arXiv:1707.07958 (2017)
4. He, K., Gkioxari, G., Dollár, P., Girshick, R.: Mask R-CNN. In: 2017 IEEE Inter-
national Conference on Computer Vision (ICCV), pp. 2980–2988. IEEE (2017)
5. Huang, G., Liu, Z., Weinberger, K.Q., van der Maaten, L.: Densely connected
convolutional networks. In: Proceedings of the IEEE Conference on Computer
Vision and Pattern Recognition, vol. 1, p. 3 (2017)
6. Lee, C.-Y., Xie, S., Gallagher, P., Zhang, Z., Tu, Z.: Deeply-supervised nets. In:
Artificial Intelligence and Statistics, pp. 562–570 (2015)
7. Li, X., Chen, H., Qi, X., Dou, Q., Fu, C.-W., Heng, P.A.: H-DenseUNet: hybrid
densely connected UNet for liver and liver tumor segmentation from CT volumes.
arXiv preprint arXiv:1709.07330 (2017)
8. Long, J., Shelhamer, E., Darrell, T.: Fully convolutional networks for semantic
segmentation. In: Proceedings of the IEEE Conference on Computer Vision and
Pattern Recognition, pp. 3431–3440 (2015)
9. Ronneberger, O., Fischer, P., Brox, T.: U-Net: convolutional networks for biomed-
ical image segmentation. In: Navab, N., Hornegger, J., Wells, W.M., Frangi, A.F.
(eds.) MICCAI 2015. LNCS, vol. 9351, pp. 234–241. Springer, Cham (2015).
https://doi.org/10.1007/978-3-319-24574-4 28
UNet++: A Nested U-Net Architecture 11

10. Tajbakhsh, N., et al.: Convolutional neural networks for medical image analysis:
full training or fine tuning? IEEE Trans. Med. Imaging 35(5), 1299–1312 (2016)
11. Zhou, Z., Shin, J., Zhang, L., Gurudu, S., Gotway, M., Liang, J.: Fine-tuning convo-
lutional neural networks for biomedical image analysis: actively and incrementally.
In: IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp.
7340–7351 (2017)
Deep Semi-supervised Segmentation
with Weight-Averaged Consistency
Targets

Christian S. Perone1 and Julien Cohen-Adad1,2(B)


1
NeuroPoly Lab, Institute of Biomedical Engineering, Polytechnique Montreal,
Montreal, QC, Canada
jcohen@polymtl.ca
2
Functional Neuroimaging Unit, CRIUGM, Universite de Montreal, Montreal,
QC, Canada

Abstract. Recently proposed techniques for semi-supervised learning


such as Temporal Ensembling and Mean Teacher have achieved state-
of-the-art results in many important classification benchmarks. In this
work, we expand the Mean Teacher approach to segmentation tasks and
show that it can bring important improvements in a realistic small data
regime using a publicly available multi-center dataset from the Magnetic
Resonance Imaging (MRI) domain. We also devise a method to solve the
problems that arise when using traditional data augmentation strategies
for segmentation tasks on our new training scheme.

1 Introduction

In the past few years, we witnessed a large growth in the development of Deep
Learning techniques, that surpassed human-level performance on some impor-
tant tasks [1], including health domain applications [2]. A recent survey [3] that
examined more than 300 papers using Deep Learning techniques in medical
imaging analysis, made it clear that Deep Learning is now pervasive across the
entire field. In [3], they also found that Convolutional Neural Networks (CNNs)
were more prevalent in the medical imaging analysis, with end-to-end trained
CNNs becoming the preferred approach.
It is also evident that Deep Learning poses unique challenges, such as the
large amount of data requirement, which can be partially mitigated by using
transfer learning [4] or domain adaptation approaches [5], especially in the nat-
ural imaging domain. However, in medical imaging domain, not only the image
acquisition is expensive but also data annotations, that usually requires a very
time-consuming dedication of experts. Besides that, other challenges are still
present in the medical imaging field, such as privacy and regulations/ethical
concerns, which are also an important factor impacting the data availability.
According to [3], in certain domains, the main challenge is usually not the
availability of the image data itself, but the lack of relevant annotations/labeling
c Springer Nature Switzerland AG 2018
D. Stoyanov et al. (Eds.): DLMIA 2018/ML-CDS 2018, LNCS 11045, pp. 12–19, 2018.
https://doi.org/10.1007/978-3-030-00889-5_2
Deep Semi-supervised Segmentation 13

for these images. Traditionally, systems like Picture Archiving and Communi-
cation System (PACS) [3], used in the routine of most western hospitals, store
free-text reports, and turning this textual information into accurate or struc-
tured labels can be quite challenging. Therefore, the development of techniques
that could take advantage of the vast amount of unlabeled data is paramount
for advancing the current state of practical applications in medical imaging.
Semi-supervised learning is a class of learning algorithms that can take lever-
age not only of labeled samples but also from unlabeled samples. Semi-supervised
learning is halfway between supervised learning and unsupervised learning [6],
where the algorithm uses limited supervision, usually only from a few samples
of a dataset together with a larger amount of unlabeled data.
In this work, we propose a simple deep semi-supervised learning approach
for segmentation that can be efficiently implemented. Our technique is robust
enough to be incorporated in most traditional segmentation architectures since it
decouples the semi-supervised training from the architectural choices. We show
experimentally on a public Magnetic Resonance Imaging (MRI) dataset that
this technique can take advantage of unlabeled data and provide improvements
even in a realistic scenario of small data regime, a common reality in medical
imaging.

2 Semi-supervised Segmentation Using Mean Teacher

Given that the classification cost for unlabeled samples is undefined in supervised
learning, adding unlabeled samples into the training procedure can be quite
challenging. Traditionally, there is a dataset X = (xi )i∈[n] that can be divided
into two disjoint sets: the samples Xl = (x1 , . . . , xl ) that contains the labels
Yl = (y1 , . . . , yl ), and the samples Xu = (xl+1 , . . . , xl+u ) where the labels are
unknown. However, if the knowledge available in p(x) that we can get from the
unlabeled data also contains information that is useful for the inference problem
of p(y|x), then it is evident that semi-supervised learning can improve upon
supervised learning [6].
Many techniques were developed in the past for semi-supervised learning,
usually creating surrogate classes as in [7], adding entropy regularization as in
[8] or using Generative Adversarial Networks (GANs) [9]. More recently, other
ideas also led to the development of techniques that added perturbations and
extra reconstruction costs in the intermediate representations [10] of the network,
yielding excellent results. A very successful method called Temporal Ensembling
[11] was also recently introduced, where the authors explored the idea of a tem-
poral ensembling network for semi-supervised learning where the predictions
of multiple previous network evaluations were aggregated using an exponential
moving average (EMA) with a penalization term for the predictions that were
inconsistent with this target, achieving state-of-the-art results in several semi-
supervised learning benchmarks.
In [12], the authors expanded the Temporal Ensembling method by averag-
ing the model weights instead of the label predictions by using Polyak averaging
14 C. S. Perone and J. Cohen-Adad

[13]. The method described in [12] is a student/teacher model, where the stu-
dent model architecture is replicated into the teacher model, which in turn, get
its weights updated as the exponential moving average of the student weights
according to:
θt = αθt−1

+ (1 − α)θt (1)
where α is a smoothing hyperparameter, t is the training step and θ are the model
weights. The goal of the student is to learn through a composite loss function
with two terms: one for the traditional classification loss and another to enforce
the consistency of its predictions with the teacher model. Both the student and
teacher models evaluate the input data by applying noise that can come from
Dropout, random affine transformations, added Gaussian noise, among others.
In this work, we extend the mean teacher technique [12] to semi-supervised
segmentation. To the best of our knowledge, this is the first time that this semi-
supervised method was extended for segmentation tasks. Our changes to extend
the mean teacher [12] technique for segmentation are simple: we use different
loss functions both for the task and consistency and also propose a new method
for solving the augmentation issues that arises from this technique when used for
segmentation. For the consistency loss, we use a pixel-wise binary cross-entropy,
formulated as
C(θ) = Ex∈X [−y log(p) + (1 − y) log(1 − p)] , (2)
where p ∈ [0, 1] is the output (after sigmoid activation) of the student model
f (x; θ) and y ∈ [0, 1] is the output prediction for the same sample from the
teacher model f (x; θ ), where θ and θ are student and teacher model param-
eters respectively. The consistency loss can be seen as a pixel-wise knowledge
distillation [14] from the teacher model. It is important to note that both labeled
samples from Xl and unlabeled samples from Xu contribute for the consistency
loss C(θ) calculation. We used binary cross-entropy, instead of the mean squared
error (MSE) used by [12] because the binary cross-entropy provided an improved
model performance for the segmentation task. We also experimented with con-
fidence thresholding as in [15] on the teacher predictions, however, it didn’t
improve the results.
For the segmentation task, we employed a surrogate loss for the Dice
Similarity Coefficient, called the Dice loss, which is insensitive to imbalance and
was also employed by [16] on the same segmentation task domain we experiment
in this paper. The Dice Loss, computed per mini-batch, is formulated as

2 i pi y i
L(θ) = −   , (3)
i pi + i yi

where pi ∈ [0, 1] is the ith output (after sigmoid non-linearity) and yi ∈ {0, 1} is
the corresponding ground truth. For the segmentation loss, only labeled samples
from Xl contribute for the L(θ) calculation. As in [12], the total loss used is the
weighted sum of both segmentation and consistency losses. An overview detailing
the components of the method can be seen in the Fig. 1, while a description of
the training algorithm is described in the Algorithm 1.
Deep Semi-supervised Segmentation 15

Fig. 1. An overview with the components of the proposed method based on the mean
teacher technique. (1) A data augmentation procedure g(x; φ) is used to perturb the
input data (in our case, a MRI axial slice), where φ is the data augmentation param-
eter (i.e. N (0, φ) for a Gaussian noise), note that different augmentation parameters
are used for student and teacher models. (2) The student model. (3) The teacher
model that is updated with an exponential moving average (EMA) from the student
weights. (4) The consistency loss used to train the student model. This consistency
will enforce the consistency between student predictions on both labeled and unlabelled
data according to the teacher predictions. (5) The traditional segmentation loss, where
the supervision signal is provided to the student model for the labeled samples.

2.1 Segmentation Data Augmentation


In segmentation tasks, data augmentation is very important, especially in the
medical imaging domain where data availability is limited, variability is high and
translational equivariance is desirable. Traditional augmentation methods such
as affine transformations (rotation, translation, etc.) that change the spatial con-
tent of the input data, as opposed to pixel-wise additive noise, for example, are
also applied with the exact same parameters on the label to spatially align input
and ground truth, both subject to a pixel-wise loss. This methodology, however,
is unfeasible in the mean teacher training scheme. If two different augmentations
(one for the student and another for the teacher) causes spatial misalignment, the
spatial content between student and teacher predictions will not match during
the pixel-wise consistency loss.
To avoid the misalignment during the consistency loss, such transformations
can be applied with the same parametrization both to the student and teacher
model inputs. However, this wouldn’t take advantage of the stronger invariance
to transformations that can be introduced through the consistency loss. For that
reason, we developed a solution that applies the transformations in the teacher in
a delayed fashion. Our proposed method is based on the application of the same
augmentation procedure g(x; φ) before the model forward pass only for the stu-
dent model, and then after model forward pass in the teacher model predictions,
making thus both prediction maps aligned for the consistency loss evaluation,
Another random document with
no related content on Scribd:
The Project Gutenberg eBook of Poikia
This ebook is for the use of anyone anywhere in the United States
and most other parts of the world at no cost and with almost no
restrictions whatsoever. You may copy it, give it away or re-use it
under the terms of the Project Gutenberg License included with this
ebook or online at www.gutenberg.org. If you are not located in the
United States, you will have to check the laws of the country where
you are located before using this eBook.

Title: Poikia

Author: Emil Lassinen

Release date: November 16, 2023 [eBook #72137]

Language: Finnish

Original publication: Helsinki: Kust.Oy Kansa, 1907

Credits: Juhani Kärkkäinen and Tapio Riikonen

*** START OF THE PROJECT GUTENBERG EBOOK POIKIA ***


POIKIA

Kirj.

Emil Lassinen

Helsingissä, Suomalainen Kustannusosakeyhtiö Kansa, 1907.

SISÄLLYS:

1. Kalle Kärppä 2. Jumalan puutarhuriksi 3.


Pakkokasvatuslaitokseen 4. Sysäys. 5. Nyyri 6. Jussi Pekka
KALLE KÄRPPÄ

Vahtimestarin riennettyä junalle, raotin minä luokan ovea ja käskin


uuden tulokkaan kamariin kahden puheluun, rakentaaksemme
molemmin puolin ensimmäistä tuttavuutta vastaisen yhteistoiminnan
ja menestyksen vuoksi.

Nämä ensimmäiset tapaamiset olivat muodostuneet minulle


vuosien kuluessa verrattoman mieltä kiinnittäviksi, sillä silloin minä
useimmiten sain vaikutuksia, jotka melkein aina olivat
todenmukaisia. Harvoin, ani harvoin sattui, että ensimmäinen
vaikutus olisi ollut väärä ja virheellinen pääsuuntaan nähden, miten
kirjava menneisyys tulokkaalla muuten olikin joskus takanaan ja
miten vaikea olikin päästä käsiksi syihin, jotka hänen pikkuelämänsä
olivat vinoon vääntäneet.

Aina se ei ollut vaikeata. Useammin kuin olin osannut ajatellakaan,


seisoi edessäni turmeltumaton lapsen sielu, niin hento ja kirkas kuin
metsälammen veden kalvo, johon hienoinkin tuulen henkäys
synnyttää vireen, seisoi surullisena ja kyyneleisenä, asianhaarojen
otettua semmoisen käänteen, että junalla laukattiin hauskasta
pääkaupungista maaseutuelämän yksinäisyyteen ja
yksitoikkoisuuteen.
Mikä olikaan tuommoisen pojan pyörittänyt pahantapaisien
luetteloon? Väliin äitipuoli ja isäpuoli, väliin edistyneemmät
katutoverit, väliin kuoleman kautta sattunut perhe-elämän
rappeutuminen, väliin kodin, leivän ja hoidon puute, kun äiti,
yksinäinen nainen, palveli tai kävi tehtaassa työssä, pojan
elostellessa kaduilla, toreilla ja porttikäytävissä. Viimemainitussa
tapauksessa saattoi pojan kasvoissa ilmetä kulttuurin leima, joka
erotti hänet kaikista muista pojista ja loihti minun mielikuvituksiini
hopeavöitä, varieteeiltoja ja niiden jälestä viini- ja samppanjapulloja,
kunnes sievä sortui, kalpeni kaunis.

Mutta olivat tulokkaat joskus toistakin ainesta. Oli semmoisiakin,


joiden ensimmäinen silmäys ja koko leima ilmaisi rikoksellista verta
ja heti kerrassa raateli toiveet siipirikoksi. Silloin tuntui omituiselta
ensimmäinen tapaaminen. Ne olivat toisinaan teräsharmaat silmät,
joiden katse oli kova kuin timantti ja jotka aivan kuin ääneen
sanoivat: minä olen nyt vielä pieni ja voimaton, mutta älä luule, että
silti vapisen. Ja kun minä kasvan suureksi… Oli toisinaan joku, jonka
silmien säihky hyristytti, oli toisinaan joku teeskentelijä ja tekopyhä,
joka koetti kiltisti nauraa ja näyttää valkealta linnulta, mutta miten
rikoksellisuuden vivahdukset vaihtelivatkin, aina niiden ensimmäinen
vaikutus oli ehjin, voimakkain ja useimmiten hiuskarvalleen oikea. —

Uuden tulokkaan, joka nyt seisoi edessäni, olin vain hätimmiten


eteisessä nähnyt, ja näkeminen herätti minussa kylmäviimaisen
tunteen. Eikähän silmästä silmään katsominen tuota tunnetta
tuhonnut, pikemmin vain varmensi sitä. Edessäni seisoi
vankkatekoinen, hyötyvatsainen poika, värittömillä kasvoilla
jonkinlainen kettumainen ilme, joka kokonaan särki teeskennellyn
surun, jota poika koetti pusertaa näkyviin.
— Nimesi? kysäsin minä totuttuun viralliseen tapaani, vaikka
papereista kyllä näin pojan nimen.

— Kalle Kärppä, kuului itkunsekainen vastaus.

— Ikäsi?

— Käyn kolmeatoista.

— Miksi olet niin surullinen?

— On ikävä.

— Ketä?

— Isää, äitiä ja siskoa.

Vastine ei minuun pystynyt. Näin papereista, että isä oli istunut


linnassa, äitiä oli rangaistu viinanmyynnistä.

— Miten vanha on siskosi?

— En muista… se on naimisissa sepän kanssa.

Kun olin vakuutettu ettei poika kotiolojaan ikävöinyt, vaan


katuelämää ja entisiä tovereitaan, siirsin puhelun tuokioksi muille
aloille. Kävi selville ettei poika ollut käynyt minkäänlaista koulua eikä
kyennyt edes auttavasti tavaamaankaan. Oli hommaillut
sanomalehtipoikana, mutta paraastaan sentään kerjuussa. Ja sitte
joku kosketus poliisin kanssa, jonka seurauksena oli matka pois
hauskasta pääkaupungista. Noita jutellessa minä sitte alotin
ristikuulustelun, kysäsemällä äkkiä:

— Olivatko isä ja äiti sinulle hyviä?


— Eivät olleet. Äiti oli toisin vuoroin, mutta isä löi väliin
selväpäisenäkin, löi sillä mikä vain käteen sattui.

Kerran alkuun päästyä innostui poika kertomaan, miten huonosti


häntä oli pidelty, miten hänen oli täytynyt kärsiä kylmää ja nälkää,
asua öitä kellareissa j.n.e. Se oli seppä, joka oli vihkinyt isän, äidin ja
siskon häijyiksi häntä kohtaan. Seppä vihasi häntä. Häntä tuupittiin
pyhänä ja arkena. Sattui ettei hän käynyt viikkokauteen kotona
muuta kuin tirkistämässä, ja silloinkin jokainen kirkui ja kirosi häntä.

— Eihän sitte kannata ikävöidä.

— Mutta kun täällä on kaikki niin outoa, vastasi poika itkevästi ja


älyämättä, miten hän oli valehdellut itsensä umpiperään.

— Kyllä pian tutustutaan.

Kokemus oli minulle opettanut, minkä korkean aidan taa


kasvattaja jää, kun kasvatettavalla on valheesen taipuva luonne.
Kaikki ponnahtaa takaisin, särkyy, menee sivu tarkoituksen ja
irvistää mennessään. Pieni rikos, joka semmoisenaan synnyttää
sääliä ja surua, kuohuttaa ja painaa epätoivoon, tekee kasvattajasta
väkisinkin tyrannin ja säälimättömän piiskurin, kun rikokseen liittyy
valhe. Tänään saavutetut tulokset vie valhe huomenna takaisin ja
jättää mielen niin alastomaksi, että kuluu viikkoja ja kuukausiakin
ennenkuin mikään toivon siemen siihen pysähtyykään.

— Minulla on muuan pyyntö, jonka sinä helposti voit täyttää,


virkoin minä, läheten samalla poikaa ja laskien molemmat käteni
hänen olkapäilleen… Mutta ensin yksi asia, katsohan minua selvästi
silmiin.
Poika loi häprästellen silmänsä minuun. En muista niissä
huomanneeni mitään kummempaa, paitsi että ne olivat uneliaat,
munuaiset olivat suuret ja niissä näkyi jotakin keltaista limaa tai sen
tapaista.

— Lupaahan ettet enää milloinkaan valhettele. Lupaatko?

— Lupaan, kuului herkkä ja ajattelematon vastaus.

— Sattui mitä sattui, lupaatko ettet milloinkaan valhettele, kysyin


minä uudelleen, jotta Kalle Kärppä johtuisi ajattelemaan hieman
kypsemmin, mitä semmoinen lupaus merkitsi.

— Lupaan, kuului vielä herkemmin ja ajattelemattomammin kuin


ensi kerralla, ja tätä uudistettua lupausta toisti kettumainen hymyily.

— Sitte me tullaan ystäviksi.

Toiveeni olivat pienet, sillä en luottanut pojan lupaukseen.


Vaikeudet alkoivat ensi päivänä. Muuan pieni, hinteräkasvuinen orpo
raukka tunsi entiseltä Kalle Kärpän, jota katupoikien maailmassa
nimitettiin »Mataleenaksi". Mistä mokoma erikoisnimi, en kykene
sanomaan. Muuten erikoisnimet olivat poikien kesken jokapäiväisiä.
Oli jo entiseltä »Kirppu", "Faarao", "Aamen" y.m. Ja ne nimet olivat
ahkeraan käytännössä kaikista kielloista huolimatta. Välitunnilla tuo
mainitsemani pieni raukka sitte meni Kalle Kärpän eteen ja lausui,
kädet komeasti housun kikkareissa:

— Mataleena, morjens!

Nimi ehti kulovalkean tavoin pihalla telmivien poikien suusta


suuhun. Mataleena, Mataleena, hoettiin kaikkialla. Tuo ärsytti Kalle
Kärppää, hänen vihansa kohdistui pieneen raukkaan, jonka kautta
Mataleena-nimi pääsi poikien tietoon, ja hän syöksyi oitis
hankkimaan oikeutta ja hyvitystä itselleen. Pieni raukka sai puoltajia,
ja pian oli käynnissä tuima tappelu, tappelu, jossa Kalle Kärppä
puolustihe viittä vastaan ja oli sittekin voitolla.

Tämä ensimmäinen pyöräys näytti tulokkaan aivan uudessa


valossa. Edellisenä päivänä tavatessamme oli poika tehnyt minuun
kaiken muun ohessa jonkinlaisen nahjusmaisenkin vaikutuksen, joka
ei ollut oikein suunnassa kettumaisen hymyn kanssa. Silmäys oli
toisinaan unelias, käynti laahustava, veltot ja pehmeät liikkeet sulivat
mainiosti hyöteliääseen vatsaan, tehden hölmön kuvan ulkoa päin
aivan ehjäksi. Mutta tappelun tuoksinassa hölmön kuva hukkui
johonkin toiseen kuvaan, johonkin voimakkaaseen, nopealiikkeiseen
ja notkeaan, joka riehui kuin mustalainen ja paiskeli itseään pitempiä
poikia rintapielistä nurmeen niinkuin leikkitöikseen.

Tästä vaikeudet jatkuivat ja kutoutuivat jos johonkin lajiin. Kävi,


kuten monesti ennenkin oli käynyt, että yhdestä pojasta koitui
enemmän huolta ja työtä, kuin kymmenestä muusta. Ensimmäisen
kuukauden kuluessa oli hän sijoitettuna jo kahteenkin kotiin ja
toisestakin kodista tultiin, kun koeaika oli kulunut loppuun,
esittelemään minulle pojan muuttamista. Syitä oli sylin ja olan varalta
ja painavin se, ettei poikaa ollut laskeminen hetkeksikään silmän
sivu, silloin se kärppänä vilmehti, poltti tänään mirriltä viikset,
huomenna löi kanan hengiltä, ylihuomenna syyti törkyä kaivoon.

Mutta luokalla Kalle Kärppä oli laiska. Ja kun kovuuteltiin, laski


hän isot itkut. En vielä nytkään käsitä, miten hänellä aina oli
kyyneleet valmiina. Hän kykeni itkemään milloin tahansa, miten
kauan tahansa ja miten sydämmellisesti tahansa. Ensi aikoina hän
monesti petti itkullaan minut, kunnes tein keksinnön, että se olikin
pelkkä ammattitaito, jolla ei ollut vähänkään tekemistä sydämmen ja
tunteitten kanssa.

Nauruun, raikkaaseen ja huolettomaan koulupojan nauruun ei hän


ollut herkkä. Hän harvoin nauroi ääneen, useimmiten hän vain
hymyili omaa kettumaista hymyilyään, ja silloin suurien
silmämunuaisten keltainen kiille kasvoi. Mutta kerran hän nauroi
minut ja koko luokan älmistyksiin. Sitä en milloinkaan unhota.
Yläosastoilla oli historiaa, Kalle Kärppä ja muut vähemmän
kehittyneet tekivät hiljaista työtä, kuvaantoa tai jotakin sen tapaista.
Olin yleensä tehnyt Kallesta sen huomion, että hän viisi välitti mitä
muilla osastoilla puhuttiin, vaivoin viitsi hän pysyä tarkkaavaisena
edes silloinkaan, kun omaa läksyä kuulusteltiin. Mutta sillä kertaa
tempautui hänen huomionsa mukaan. Valmistettiin viikinkiretkiä
seuraavaksi läksyksi, muuan yläosastolainen luki kirjasta ääneen,
aina välimmiten kyseltiin luettua. Tein huomion että Kalle Kärpän
lyijykynä irtautui paperista, kun ryöstöistä ruvettiin
seikkaperäisemmin puhumaan, ja kun ehdittiin merikuningas
Hastingin Rooman-retkeen, höristi hän korviaan, hänen silmiensä
keltainen kiille kasvoi väkeväksi ja hymyily, hänen oma hymyilynsä,
elostui. Melkein henkeä pidättäen kuunteli hän retkeläisten vaiheita
Lunan kaupungin edustalla. Näin hänen silmiensä ja kasvojensa
ilmeistä, että hän jännittyi yhä enemmän. Ryhtyipä sitte luetusta
selkoa tekemään tuo samainen vähäväkinen, joka Kalle Kärpän
erikoisnimen oli julkisuuteen vetänyt. Sillä pojalla oli omituinen ja
ehjä kertomatapa, joka teki höysteän aineen vieläkin
höysteämmäksi. Koko luokka alkoi nauttia. Pojan pitkäveteinen ääni
kuului hauskalta viikinkiuroista kertoessa. Hasting, merikuningas,
makasi kuolleena kirstussa. Munkit veisasivat. Piispa luki messua.
Alettiin laskea kirstua hautaan. Kesken veisua ja messua karkasi
Hasting kirstusta ylös. Veti tupesta suuren, julman suuren miekan. Ja
löi piispalta pään poikki.

Silloin kuului eturivistä julma nauru, nauru semmoinen, että se


karmi minun selkäluitani ja synnytti kummastuksen koko luokassa.
Siinä naurussa ilmeni hillitön ilo, mutta toisaalta siinä oli jotakin
kaameata ja pelottavaa, joka tunki luihin ja ytimiin.

— Veti suuren miekan tupestaan ja…

Se oli Kalle Kärpän ääni, joka kuului yli luokan. Hän huojutteli
ylävartaloaan, jotta vuoroin vasen poski, vuoroin oikea koski
pulpettiin, ja huojutellessaan nauroi hän hillitöntä, kaameata ja
pelottavaa naurua. Tulin ajatelleeksi että noin mahtaa kettukin
nauraa, kun sillä on saalis hampaissa.

— Ja löi piispalta pään poikki. Ho-ho-ho-ho-hoo-hoohoooo-hoooo.

Sieluineen, sydämineen ja mielineen eli hän tapauksen, nautti ja


iloitsi petoksen onnistumisesta. Kun hän oli tyyntynyt, koetin
siveyssaarnalla herättää hänen parempia tunteitaan, mutta minä
näin ja tunsin, että saarnani meni sivu ja irvisti mennessään Kalle
Kärpän kettumaisessa hymyilyssä.

Muuten juuri tuon tapahtuman aikana meidän keskinäiset välimme


olivat pehmeämmät kuin konsanaan ennen ja jälkeen. Jonkinlainen
välirauha oli syntynyt itsestään. Kallen ahkeruus oli parantunut
huomattavasti, kodissaan oli hän käyttäytynyt moitteettomasti. Mutta
pian särkyi välirauha, ja me tuprahutimme toisiamme vastaan, kuten
alun alkaenkin. Sattui että muuan poika välitunnilla telmiessään
pudotti viisikymmentä penniä tanhualle. Pudonneita rahoja oli
kaikkiaan kolmatta markkaa. Ne olivat kodista mukaan pantuja ja
pojan piti lukutuntien päätyttyä käydä puodissa tekemässä ostoksia.
Etsiessä löytyi lantti tuolta ja täältä, mutta viisikymmenpenninen jäi
kadoksiin. Epäluuloni kohdistuivat Kalle Kärppään, mutta hän itki ja
vakuutti viattomuuttaan, ja sen todisti tarkastuskin, jonka toimitin
kamarissani kahden kesken. Mutta joku päivä sen jälestä yhätin
minä Kalle Kärpällä uuden, komean piipun hampaissa. Hän oli
menossa tiiliuunille ja hän asteli tapansa mukaan laahustaen, uutta
näyssä oli vain se, että hän puhalteli lihavia savupilviä ilmaan. Istuin
kiven kyljessä eikä hän huomannut minua ennenkuin seisoimme
aivan nokka nokkaa vastaan. Piippu oli uusi puupiippu ja siinä oli
lyhyt, keltainen ja mustantäplikäs varsi. En enää muista, miten
monta valetta Kalle Kärppä siinä solmi, ennenkuin hän tunnusti, että
piippu ja sen pesässä palossa oleva tupakki oli ostettu ihan sillä
viisikymmenpennisellä, joka koulun pihaan oli hukkunut.

— Minne kätkit rahan, kun en niinä tarkastaessa sitä keksinyt?

— Ei minulla sitä silloin vielä ollutkaan.

— Missä se sitte oli?

— Pihalla se oli.

— Ja sinä tiesit sen olopaikan?

— Tiesinhän minä.

— Mutta et opastanut ketään löytämään. Kumma ettei se sittekin


löytynyt, kun oli pari tusinaa etsijöitä.

— Miten se olisi löytynyt, kun minä toukasin varpaillani hietaa sen


päälle.
— Eikä kukaan joutunut näkemään, kun kaivoit sen jälleen ylös.

— Jättäysin jälkeen sitte aamulla ja silloin otin sen hiedasta.

Tämä särki jo entiseltäänkin laihat välimme. Minun ääneni


soinnusta katosi entinenkin niukka lämpö, ja Kalle Kärppä
puolestaan näytti, ettei hän sitä pientäkään lämpöä ikävöinyt eikä
sen perään surrut. Hän oli aivan entisellään. Itki, kun tarvittiin,
valhetteli, kun tarvittiin ja piteli puoliaan vaikka koko koulua vastaan,
kun tarvittiin.

Ja viidenkymmenen pennin jutun jälkeen tuli toinen, jonka


seurauksena oli, että kodin ovet taasen sulkeutuivat Kallelle, ties
kuinka monennen kerran. Jouduin sen jutun näkijäksi. Lämmin
syysilta oli juuri hämärään painumassa. Olin kävelyllä ja näin että
joku ajoi hevosen selässä aitovartta pitkin ja ajoi kovaa vauhtia. Ajaja
oli Kalle Kärppä. Nousipa veräjä vastaan, piti astua alas avaamaan
sitä ja sitte piti nousta jälleen selkään. Hevonen oli nuori, uljas ja
levoton, ei talttunut silmänräpäykseksikään. Kalle Kärppä teki
kadehdittavan notkeita ponnahduksia, noustakseen selkään, mutta
uljas hevonen teki aina liikkeitä ja haaskasi niillä ponnahdukset. Tätä
jatkui joku tuokio. Kuuluipa karkeita kiroussanoja ja niiden jälkeen
näin jotakin, joka teki pääni kuumaksi. Kalle Kärppä sitoi varsan
ohjista aitaan ja samassa näin, miten seiväs kohosi ilmaan, putosi
varsan lautasille ja kohosi jälleen. Lähdin juoksemaan minkä
jaloistani ennätin, huomaamatta että talostakin lähti mies
juoksemaan samaan suuntaan. Kalle Kärppä oli niin raivostunut,
ettei hän huomannut meitä kumpaakaan juoksijaa, ennenkuin
olimme aivan lähellä. Hänen kasvojensa kettumaisesta ilmeestä ei
ollut piirrettäkään jälellä, ne olivat kasvot kuin kesyttömän ja
puhahtelevan kissan, kuin pikku paholaisen.
Toinen juoksija oli talon vouti. Hän oli aivan musta kasvoiltaan.
Luulen että jollen olisi joutunut paikalle, olisi Kalle Kärpän käynyt
huonosti. Vouti oli vainunnut että jotakin tämmöistä oli ennenkin
tapahtunut ja oli sen vuoksi jäänyt nurkan taakse tähystelemään,
miten hevosen viejä tehtävänsä suoritti.

— Jos minä opettajasi olisin, puhkui vouti hampaittensa välistä,


niin tuosta samasta antaisin oman selkänahkasi maistaa ja antaisin
yhtä monta kertaa…

Seuraavana päivänä haeskelin uutta kotia Kalle Kärpälle,


kiusallinen tehtävä, sillä pojan maineet tunnettiin taloissa ja
mökeissä. Muu kuin pieni kokeiluaika ei voinut tulla
kysymykseenkään. Sitä keinoa olin monesti ennenkin käyttänyt ja
sillä keinolla suoriuduin nytkin pälkähästä.

Näin sai kuluneeksi kolme vuotta; neljäntenä vuonna, käen


kukkuessa ja lehtimetsien vihannoidessa, karkasi Kalle Kärppä
eräänä sunnuntai-aamuna. Jälestä päin sain kuulla, ettei hän suotta
karannut, häntä oli kaltoin kohdeltu, oli melkein orjana pidetty.
Kohtelun osasin jo vähin ennakolta arvata, mutta se oli auttamaton
asia. Ken pehmeän polkee jalkoihinsa, kuten Kalle Kärppä niin
monesti jo oli tehnyt, joutuu lopulta kovemmalle osalle.

En ikävöinyt karkuria takaisin. Kaikesta päättäen piilottelihe hän


Helsingissä. Näin kului kesä. Jos milloin muistelin Kalle Kärppää,
kuvittelin häntä hyvin jaksavana veitikkana, joka kyllä osaa pitää
huolen, ettei häntä hevin keksitä. Tunsin itseni oikein onnelliseksi,
päästyäni kuulemasta hänen itkujaan ja valheitaan, ja tunsin että
koko koulussa vallitsi toisenlainen ilma. Vaikeimmat pojat olivat
ikäänkuin neuvottomia, kun oli poissa heidän etevimpänsä, joka
ohjasi, johti ja teki alotteet moneen "juttuun" pelkällä silmäyksellään
ja hymyilyllään. Minun oli helpompi ollakseni. Ei tarvinnut aina olla
varuillaan kaikenmoisiin odottamattomuuksiin nähden. Eikä sattunut
myötänään kaikenmoisia "pikku asioita", jotka jo alkoivat käydä
jonkinlaiseksi juoksevaksi mieliharmiksi.

Mutta aikanaan Kalle Kärppä tuli takaisin, niin hartaasti kuin olin
toivonutkin hänen ijäti pysyvän sillä tiellään. Oli myöhäinen syksy,
kylmät viimat puhaltivat. Kun eräänä iltana palasin postista, seisoi
portin vaiheilla joku olento. Oli melko pimeys, seisoja näytti oudolta
ja kuitenkin tutulta.

— Kuka se on? kysyin minä jo kahdestikin, saamatta vastausta.

— Minähän vain… matala ääni kuului tutulta.

— Kuka minä?

— Kalle Kärppä.

— Onko sinulla mitään sanottavaa? kysyin melkein ankarasti.

— Tulin pyytämään anteeksi.

— No, käyhän tupaan.

Muuttunut oli Kalle Kärppä sitte viime näkemän. Hyötyisä vatsa oli
kadonnut jäljettömiin, kasvot olivat laihat ja posket ohuet kuin
tinanappi, vaatteet repaleina, toisessa jalassa oli kalossin kappale,
toisessa kannaton naisen kangaskenkä, jonka antura repotti irrallaan
kärkipuolesta.

— Mitä nyt oikein kuuluu?


Selkäsaunankaan uhka ei häntä pidättänyt itkemästä. Melkein
neljännestunnin itki hän oikein vahvasti, mutta itkun laimentuessa
elpyi hänen kasvoilleen entinen kettumainen ilme, vaikka
teeskennelty katuminen häiritsi sen elävyyttä ja ehjyyttä.

— Alahan nyt kertoa vaiheitasi siitä sunnuntai-aamusta saakka,


jolloin lähdit.

Se oli pitkä ja kirjava kertomus, sekaisin totta ja valhetta,


nauruhermoja kutkuttava ja sydämmen kyyneleitä synnyttävä.
Kertomuksen loppuloru oli, että kylmä ja nälkä joi Kalle Kärpän
takaisin sinne, josta hän omin hotein ja ehkä suurin toivein oli
lähtenytkin.

— Käväsitkö kotona lainkaan?

— Käväsinhän minä.

— Mitä tuumittiin karkaamisestasi?

— Seppä hankki lähtemään poliisille ilmoittamaan.

— Milloin käväsit kotona?

— Viime viikolla.

Ehkä juuri sepän menettely olikin jouduttanut paluuta, siksi minä


ainakin sen käsitin. Kalle Kärppä oli siksi viisas, että käsitti miten
kunniakas paluu oli, kun se tapahtui vapaaehtoisesti. Menneet olivat
kesän lämpimät, jolloin sopi asua lautatarhoissa ja muissa
mukavissa piilopaikoissa sekä hankkia elatusta monin keinoin.
Ilmojen kylmenemisen kera läheni kiinni joutumisen mahdollisuus,
läheni yhtä varmasti kuin talvikin. Viisainta siis oli lähteä patikoimaan
takaisin ja siten tinkiä rangaistus mahdollisimman helppoon.

— Tunnetko lainkaan katumusta karkuretkesi vuoksi?

Tuon kysymyksen tein virallisesti ja siis aivan tarpeettomasti.


Siinäkin tapauksessa, että vastaus olisi ollut myöntävä, en olisi siitä
kirjaintakaan uskonut.

— Sanohan, tunnetko?

Kalle Kärppä vaikeni yhä, sillä hän tunsi vaistomaisesti, mikä arvo
hänen vakuutuksellaan olisi ollut; mutta hetkisen vaiettuaan turvautui
hän ainaiseen keinoonsa, hän rupesi parkumaan oikein sydämmen
pohjasta.

Päivä pitkänkin yön jälestä ja päivä minullekin Kalle Kärppään


nähden. Joutui vihdoinkin kevät, jolloin laitos pääsi hänestä ja hän
laitoksesta. Hän oli jo kuudentoista vanha. Viimeisenä vuotena
paisui hän silmin nähden, hän oli päätä pitempi muita poikia, voima
ja notkeus huokui hänessä, vaikka käynti olikin entinen laahustavan
veltto, vaikka vatsa pulleili höysteänä ja suurena.

Kun eron hetkeä vain ajattelinkin, tuli hyvä ollakseni. Pääsen


vihdoinkin eroon pojasta, jonka luonteessa en ole valopilkkua
keksinyt, joka ei vuosikausiin ole edes ohi menevää ilon tunnetta
herättänyt. Pääsen eroon pojasta, jossa oli kymmenen pahaa eikä
yhtäkään hyvää.

Tuo kuva, jonka olin hänestä luonut, kyllä piinasi minua ja joskus
minä epäilin sen erhettymättömyyttä, mutta tosiseikat ja
vuosikausien kuluessa tehdyt huomiot pakottivat minut uskomaan
siihen. Mutta niin kävi, että ennen eron hetkeä luomani kymmenen
pahan kuva särkyi sirpaleiksi. Se tapahtui päivää ennen Kalle
Kärpän lähtöä rippikouluun. Oli lauantai ja viikon viimeinen lukutunti
menossa. Elelin poikamiehenä, alhaalta talosta sain ruuan, pojat
siivosivat huoneeni. Lauantaisin tapasi aina olla suursiivous, ja
siihen tuppautuivat pojat kilvan, toiset kunnian himosta ja ylpeillen
luottamuksesta, kun saivat omin päin ja mielin määrin penkoa
kamarit ja laatikot, toiset ystävyydestä, kun kykenivät olemaan
opettajalle avuksi j.n.e. Miten lie sattunutkaan, mutta Kalle Kärppäkin
joutui sillä kertaa siivoojien parveen. Tehtäviä tasatessa osui siten,
että hänen piti parin apulaisen kera kantaa sänkyvaatteet pihalle,
pölyyttää ne ja laatia jälleen sija reilaan.

Kun viikon viimeinen lukutunti sai kuluneeksi, palasivat kaikki muut


siivoojat paikoilleen luokkaan, sillä hartaushetki oli vielä pidettävä,
mutta eipä kuulunut Kalle Kärppää. Menin katsomaan mikä häntä
viivytti, ja silloin näin semmoisen näön, joka ei koskaan mene
mielestäni. En ollut uskoa omia silmiäni, en ollut tuntea Kalle
Kärppää. Hän ei huomannut lainkaan, että tähystelin häntä puoleksi
avoimen oven lävitse, kiintynyt kuin oli hommaan, sijan reilaamiseen,
kasvot minuun päin kääntyneenä. Muistin millaiset nuo kasvot olivat
hevoskohtauksessa ja millaiset ne olivat tasaisissa oloissa. Mutta
millaiset ne olivat nyt? Poissa oli kettumainen ilme ja sen sijassa
jotakin lapsellista, teeskentelemätöntä ja puhdasta. Ja kesken
työtään hän tuon tuostakin hymyili ja hymyillessä hänen silmänsä
loistivat.

Seisoin hämmästyneenä paikallani ja seisoessani näin entisen


lisäksi jotakin, joka murti minua, joka iski salamoita sieluuni. Näin
miten hän silitti patjaa, minun patjaani. Se oli vanha patja ja siihen
muodostui aina myhkyröitä, milloin kylen kohdalle, milloin lantioiden

You might also like