You are on page 1of 5

Geniş Alanlı Hareketli Görüntüleme

(Wide Area Motion Imagery - WAMI)


Musa Serdar ARSLAN
İstanbul Üniversitesi Cerrahpaşa
Bilgisayar Müh.Böl.
sarslan@hho.edu.tr

Özet—Geniş alanlı hareketli görüntüleme sayesinde, bir


hava aracı üzerine yerleştirilen bir sensör vasıtasıyla
onlarca kilometrekarelik alanın gözetlenebilmesi mümkün
olmaktadır. İnsanlı veya insansız hava araçları üzerine yer-
leştirilen WAMI sensörleri vasıtasıyla gerçekleştirilen bu
tür gözetlemenin birçok farklı alanda çok önemli uygula-
maları bulunmaktadır. Şehirler üzerinde yapılan gözetleme
ile trafik izleme, trafik planlama, güvenlik, suç ve suçlu
takibi, anomali tespit gibi uygulamaları bulunmaktadır.
Bunun yanında sınır güvenliği uygulamaları, silahlı kuv-
vetler için istihbarat, gözetleme ve keşif görevlerini yerine
getirmek için kullanılmaktadır. Özellikle İnsansız Hava
Aracı (İHA) kullanılarak gerçekleştirilen gözetleme silahlı
kuvvetler için çok önemli bir kuvvet çarpanı oluşturmak-
tadır. Ancak, elde edilen WAMI görüntülerinin yapısından
Şekil 1. Resimde yüksek çözünürlüklü bir WAMI görüntüsü ve farklı
kaynaklanan zorluklar sebebiyle WAMI kullanımı çok bölgelerinin daha yakınlaştırılmış halleri görülmektedir.
etkin bir şekilde gerçekleştirilememektedir. Burada WAMI
görüntüleri ve uygulamalarından bahsedilecek, özellikle
WAMI görüntüleri üzerinde hareketli nesnelerin tespit ve resmi örneğini göstermektedir. 8 Kameradan oluşan bir
takibi uygulamaları incelenecektir. WAMI sensöründe her bir kamera yaklaşık olarak 11
I. G IRI Ş megapiksellik görüntüler üretmektedir. Bu kameralarin
birleştirilmiş görüntüsü ise yaklaşık 80 megapiksellik
Geniş Alanlı Hareketli Görüntüleme (Wide Area Mo- bir görüntü oluşturur [1]. ARGUS-IS gibi daha yeni
tion Imagery - WAMI) sayesinde, genellikle hava araçları sensörlerde bu büyüklük 1.8 gigapiksel olabilmektedir.
üzerine yerleştirilmiş çoklu kameralar vasıtasıyla yer- Bu büyüklüklerde görüntülerin incelenmesinde yeni
yüzünde çok geniş alanların gözetlenmesi sağlanabil- bir bakış açısı gerektirmektedir. Bir şehrin yukarıdan
mektedir. Bu görüntüleme tekniği Geniş Alanlı Havadan sürekli olarak gözetlendiğini düşünürsek, oluşan görün-
Gözetleme (Wide Area Aerial Surveillance - WAAS), tülerde binlerce hareketli nesne zamansal ve uzamsal
Geniş Alanlı Sürekli Gözetleme (Wide Area Persistent olarak birbiriyle ilişkili olaylar oluşturur. Bu büyüklükte
Surveillance - WAPS) veya Geniş Görüş Alanlı Görün- hareketli görüntüler üzerinde çoklu nesnelerin tanınması,
tüleme (Wide Field-of-View Imaging- WFOV) olarak da izlenmesi, takip edilmesi algoritmik ve hesaplama açısın-
adlandırılmaktadır [1], [2]. WAMI sensörleri 6, 8 veya dan çok önemli zorluklar oluşturmaktadır [1].
daha çok miktarda elektro-optik kameranın bir matris ya-
pısında ve kapsadıkları alanlar bindirmeli olacak şekilde II. WAMI’ NIN Z ORLUKLARI
yerleştirilmesi ile oluşturulmaktadır. Her bir kameradan WAMI görüntülerin çekilme tekniğinden kaynaklanan
alınan görüntü birleştirilerek tek bir büyük görüntü elde yapısı nedeniyle, normal dar görüş açılı kameralarla
edilmektedir. Bu görüntüler genellikle 0.5 m/piksel se- çekilen görüntülere göre işlenmesinde ve kullanılma-
viyesinde olmakla birlikte, daha yeni olan sensörlerde sında bazı zorluklar bulunmaktadır. Öncelikle görüntü-
çözünürlük 0.2 m/piksel altına düşmüştür [3]. Görüntü- lerin yer yüzey koordinatlarıyla eşleştirilmesi gerekmek-
leme hızı ise 2 fps olmaktadır [4]. Şekil 1 bir WAMI tedir (georegistration). Bu işlem ilave bir işlem basamağı
oluşturmakta ve birden fazla kameradan elde edilen seti bu programın geliştirilmesi için oluşturulmuş, yerde
görüntülerin yer eşleştirmesi ve bunların birleştirilmesi hareket eden askeri ve sivil araçlardan oluşan video
birlikte ilave bir zorluk katmanı oluşturmaktadır. Bu görüntülerini içermektedir. Ancak, bu görüntüler düşük
görüntüler üzerinde çoğunlukla nesnelerin tespit ve ta- irtifadan çekilmiş ve tek bir kamera ile kayıt edilmiş
kip edilmesini gerektirenler önemli uygulamalar olara görüntülerdir. Bu yüzden bu veri setini WAMI sınıfında
öne çıkmaktadır. Bu tür görüntüler nesnelerin tespit kabul edemeyiz. WAMI’de olduğu gibi çok geniş yer-
ve takip edilmesinde de önemli zorlukları bünyesinde yüzü alanını kapsayan görüntüler değildir. Sadece küçük
barındırmaktadır. Öncelikle bu görüntülerdeki nesneler bir görme alanına sahip görüntüleri içermektedir.
resim çerçevesinin tamamına göre çok küçük bir alanı
kaplamaktadır. Örneğin hareketli bir araç yaklaşık olarak B. CLIF Dataset [6], [7]
20 piksellik bir alanı kapsar. Bu durum hem tespit hem Columbus Large Image Format (CLIF) olarak isim-
de takip konusunda önemli bir zorluk olarak karşımıza lendirilen veri seti Amerikan Hava Kuvvetleri Araştırma
çıkmaktadır. Nesnelerin takibindeki diğer önemli zorluk Laboratuvarı (Air Force Research Laboratory - AFRL)
da paralaks etkisi (parallax effect) dediğimiz durumdur. tarafından sağlanan bir veri setidir. 2 Satır, 3 sütunluk
Bu durum kameranın bulunduğu platformun hareketli ol- bir matris yapısında düzenlenmiş altı adet elektro-optik
masından kaynaklanmaktadır. Bu hareketten dolayı nes- monokrom kameradan oluşan bir sensör kullanılarak
nelerin resim çerçeveleri üzerindeki görüntüsü değişime görüntüler elde edilmiştir. Kameralar geniş bir alanı
uğramaktadır. Bu da paralaks etkisi dediğimiz durumu kapsayacak şekilde ve bindirmeli olarak yerleştirilmiştir.
ortaya çıkarmaktadır. Böylece altı kameradan eş zamanlı elde edilen resimler
tek bir resim oluşturacak şekilde birleştirilebilmektedir.
III. WAMI V ERI S ETLERI Görüntüler 2 Hz. örnekleme frekansına sahiptir. Yani gö-
WAMI görüntülerin elde edilmesi genellikle çok zor rüntüler saniyede 2 resim çerçevesi (fps) olacak şekilde
ve maliyetli olmaktadır. Bunun bir çok sebebi vardır. kaydedilmiştir.
Öncelikle, bu tür görüntüleri elde etmek için kullanılan CLIF 2006 ve CLIF 2007 olmak üzere iki farklı veri
sensörler kolayca elde edilebilen herkesin kullanımına seti bulunmaktadır. CLIF 2006 setinde her bir kameradan
uygun sensörler değildirler. Bu tür sensörler genellikle 4095 görüntü olmak üzere toplam 24564 görüntü yer
özel olarak üretilmekte ve yüksek maliyetli olmaktadır. almaktadır. CLIF 2007 setinde ise her bir kameradan
Diğer bir zorluk ise bu sensörlerin kullanılmasıyla ala- 16117 görüntü, toplamda 96702 görüntü bulunmaktadır.
kalıdır. Bu sensörler kullanılarak yer yüzünün görüntü-
lerinin alınması için orta ve yüksek irtifalardan uzun C. WPAFB 2009 Dataset [8]
süreler boyunca bir uçan platform üzerinde çalıştırıl- Aynı CLIF veri setinde olduğu gibi WPAFB 2009 veri
maları gerekmektedir. Bu şekilde görüntüler genellikle seti de AFRL tarafından sağlanan bir veri setidir. Bu veri
askeri veya özel maksatlı insanlı veya insansız plat- seti de CLIF veri setinin üretilmesi için kullanılan sensör
formlar üzerinden alınmaktadır. Bu şekilde elde edilmiş kullanılarak elde edilmiştir. Bu veri setinde CLIF veri
görüntüler ise genel maksat kullanıma açılmamaktadır. setinden farklı olarak altı kameradan elde edilen resimler
Bu sebeplerden dolayı WAMI üzerinde gerçekleştirilen NITF 2.1 formatında birleştirilmiş ve etiketlenmiş olarak
akademik çalışmalar için oluşturulmuş çok fazla veri seti sunulmaktadır. Bu veri seti toplam 1537 birleştirilmiş
bulunmamaktadır. Genel kullanıma açık az miktardaki görüntüden oluşmaktadır.
WAMI veri setleri ve özellikleri kısaca aşağıda özetlen-
miştir. IV. WAMI Ü ZERINDE N ESNE T ESPIT VE TAKIBI
WAMI üzerinde birçok farklı uygulama alanı bulun-
A. VIVID Dataset maktadır. Ancak, yapılan çalışmalar ve gerçekleştirilen
VIVID veri seti [5] DARPA VIVID (Video Veri- uygulamalar çoğunlukla nesne tespit ve takip uygula-
fication of Identity) programı kapsamında hazırlanmış malarıdır. Nesne tespiti tekli veya çoklu, çoğunlukla
görüntülerden oluşmaktadır. DARPA VIVID programı- hareketli nesnelerin tespiti üzerinedir. Nesne tespit ve
nın nihai hedefi, insansız hava araçları için otomatik takip uygulamalarında çoğunlukla şehir içerisinde araç-
ve video-tabanlı yer hedefleme sistemi geliştirmektir. ların tespit ve takip edilmesi gerçekleştirilmeye çalışıl-
Bu programın parçalarından birisi de çoklu hedef takip maktadır. WAMI üzerinde hareketli nesne tespiti, trafik
sistemi olmuştur. Bu sistemin ana fonksiyonu çoklu izleme, trafik planlama, şehir planlama, sürücü davranış
hedefleri otomatik olarak takip etmektir. VIVID veri analizi, şehir güvenliği gibi bir çok farklı uygulama
alanına sahip önemli bir problemdir. Sommer et al. [9] ana sebebi sıralanmaktadır. Birincisi, WAMI üzerinde
bu konuda yapılmış 10 farklı çalışma incelenmekte ve nesneler normal görüntülerdeki nesnelere göre çok daha
bu çalışmalardaki yöntemlerin karşılaştırmalı bir özeti küçük bir alan kapsamaktadır. Örneğin, WPAFB 2009
sunularak, hareketli nesne tespiti için arkaplan çıkarımı veri setinde yer alan araçlar ortalama olarak 9x18 pik-
ve piksel komşuluğunu dikkate alarak görüntü hizalama sellik alan kaplamaktadır. Bu durum nesnelerin tanı-
hatalarının bastırılmasının birleşiminden oluşan yeni bir nabilmesi için kullanılabilecek veri miktarını minimize
hareketli nesne tespit yöntemi de bu çalışma ile sunul- etmektedir. İkinci olarak, WAMI’deki yüksek çerçeve
maktadır. büyüklüğü (gigapiksel seviyesinde) arama uzayının çok
Genel olarak hareketli nesne tespitinde üç temel yak- büyük olmasına sebep olmaktadır. Ayrıca birinci mad-
laşım kullanılmaktadır. Bu yaklaşımlar arkaplan çıkarma dedeki sebepten dolayı olası nesnelerin yerini tahmin
(background subtraction), çerçeve farkları (frame dif- etmek için kullanılan ve normal resimlerde iyi sonuç
ferencing) ve optik akış (optical flow) yöntemleridir. veren nesne yeri öneri teknikleri burada çok küçük alan
Arkaplan çıkarma tekniği mevcut resimdeki pikseller ile kaplayan nesneler için iyi tahminler yapamamaktadır.
arkaplan modeli arasındaki piksel değerlerinin farklarını Üçüncü neden ise eğitim seti ile ilgilidir. Nesnelerin
kullanmaktadır. Çerçeve farkları yönteminde arka arkaya görünüş özelliklerini kullanan, derin öğrenme tabanlı bu
gelen iki veya üç resim çerçevesi arasındaki piksel değer- nesne tespit yöntemleri eğitim için çok büyük miktarda
lerinin farklarına bakar. Optik akış yöntemleri ise resim etiketli veriye ihtiyaç duymaktadır. Havadan çekilmiş
çerçevesindeki hareketli nesnelerin akış vektörlerini he- WAMI görüntüleri için yeterince veri olmasına karşın,
saplayarak hareketli nesneleri tespit eder. Optik akışa da- bunların etiketlenmesi ve referans olarak kullanılacak
yalı hareketli nesne tespit yöntemleri WAMI görüntüleri doğrulama verilerini üretmek çok külfetli ve zor bir
için uygulanabilir değildir [10]. Bu çalışma ile önerilen süreç olduğundan eğitim için kullanılabilecek yeterince
yöntem WPAFB veri seti kullanılarak gerçekleştirilen büyük bir set oluşturulamamıştır. Bu sebeplerden dolayı
deneylerde diğer 10 yöntemle karşılaştırılmış, sonuçta WAMI üzerinde şimdiye kadarki en etkin nesne tespit
önerilen yöntemin diğer yöntemlere göre daha yüksek yöntemleri arkaplan çıkarımı ve çerçeve farklarını kulla-
başarım sunduğu gösterilmiştir. nan hareket tabanlı yöntemler olmuştur.
WAMI üzerinde nesne tespit edilmesini genel olarak Hareket tabanlı yöntemlerin de bazı dezavantajları bu-
bu nesnelerin takip edilmesi izler. Reilly et al. [11] ile lunmaktadır. Birinci dezavantajı nesnelerin görünüşünü
yukarıda WAMI için sıralanan zorlukların üstesinden ge- dikkate almamasıdır. İkinci önemli sorun ise video çerçe-
lebilen, medyan arkaplan modelleme tekniğini kullanan velerinin doğru hizalanmasına bağlı olmalarıdır. Çerçeve
bir yöntem önermekte ve önerilen bu yöntem CLIF veri hizalamadaki en küçük bir hata sonuçta çok daha hatalı
seti kullanılarak test edilmektedir. Kullanılan yöntem çıktılara sebep olmaktadır. Üçüncü dezavantaj ise birden
hizalama (registration), medyan arkaplan çıkarma tabanlı fazla çerçevedeki verileri etkin bir şekilde kullanmak için
nesne tespit, gradyan baskılama, hareket tespiti ve izleme bir mekanizma sunmamalarıdır. LaLonde ve diğerleri
aşamalarından oluşmaktadır. tarafından gerçekleştirilen bu çalışmada birden fazla vi-
LaLonde ve diğerleri [12] tarafından gerçekleştiri- deo çerçevesini aynı anda kullanarak hem görünüş, hem
len çalışmada Derin Konvolusyonel Yapay Sinir Ağı de hareket verilerini etkin kullanabilen bir CNN yapısı
(DCNN) kullanılarak WPAFB 2009 veri seti üzerinde önerilmektedir.
çoklu nesne tespiti gerçekleştirilmektedir. Bu çalışmada Yapılan çalışma ile önerilen yöntem 13 farklı akade-
bu maksatla bir fully CNN modeli kullanılmaktadır. mik çalışma ile karşılaştırılmaktadır. Sonuçları karşılaş-
Yapılan çalışma ile önerilen FCNN yapısının en gelişmiş tırmak için, elde edilen kesinlik (precision), duyarlılık
tekniklere göre çok daha iyi bir başarım elde ettiği (recall) ve F-1 puanları (F1-score) irdelenmiştir. Yapılan
gösterilmektedir. karşılaştırmaya göre önerilen yöntem çok daha iyi bir
Normal görüntülerde çok iyi başarım elde eden ge- başarım ortaya koymaktadır.
lişmiş genel maksatlı nesne tespit sistemlerinin çoğu Bu çalışmayı takiben, yine LaLonde ve diğerleri [13]
WAMI üzerinde aynı başarımı gösterememektedir. Bu tarafından gerçekleştirilen diğer bir çalışma ile yuka-
şekildeki birçok yöntem görünümü temel alan yöntem- rıda özetlenen yapı öncesine bir de ilgi alanı öneri ağı
lerdir. Bu yöntemler etiketli nesne örneklerinden nes- (Regions Of OBjects of Interest - ROOBI) eklenmiştir.
nelerin nasıl göründüğünü öğrenerek video çerçevele- Önerilen bu derin CNN yapısı ile çok geniş bir alanı
rinde bu nesneleri bulmaya çalışırlar. Bu tür yöntem- kapsayan büyük WAMI görüntüsü üzerinde olası hare-
lerin WAMI üzerinde başarısız olmasının temelde üç ketli araçların bulunduğu bölgeler tespit edilerek araçlar
tespit edilmek üzere önceki çalışmada geliştirilen CNN Önerilen CNN mimarisi iki tane konvolüsyon katmanın-
yapısına gönderilmektedir. Yazarlar sonraki çalışmada dan oluşmakta. Her bir konvolüsyon katmanı içerisinde
eklenen ROOBI ağını ClusterNet, önceki çalışmada ge- havuzlama ve normalizasyon katmanları da bulunmakta.
liştirilen araç tespit ve takip işini gerçekleştiren CNN Konvolüsyon katmanlarını takip eden bir tam bağlantılı
ağını ise FoveaNet olarak isimlendirmişlerdir. katman, indirgeme katmanı ve son tam bağlantılı katman
Sonuç olarak bu iki çalışma ile her biri farklı bir CNN ile birlikte toplam dokuz katmandan oluşan bir yapıya
yapısından oluşan iki aşamalı bir veri akışı oluşturulmuş- sahip. Söz konusu çalışmada kullanılan CNN yapısı, ar-
tur. Birinci aşamada oluşturulan ClusterNet CNN yapısı kaplan ile araç görüntüsü arasındaki benzerlik ve farkları
ile her bir video çerçevesindeki hareketli araçların olası dikkate alan bir yöntem ile karşılaştırılmakta ve elde
yerlerini bulmak maksadıyla çerçeve üzerinde detaylı edilen sonuçlara göre önerilen CNN yapısı ile daha iyi
inceleme yapılmak üzere daha küçük çerçeveler çıkar- pozisyon tahmini elde edilmektedir.
tılmaktadır. İkinci aşamada ise birinci aşamada önerilen
inceleme çerçeveleri üzerinde FoveaNet CNN yapısı K AYNAKLAR
kullanılarak hareketli araçlar tespit ve takip edilmektedir.
[1] K. Palaniappan, R. M. Rao, and G. Seetharaman, “Wide-Area
Uzkent ve diğerleri [14] yaptıkları çalışmada WAMI Persistent Airborne Video: Architecture and Challenges,” in
üzerinde nesne takibi için Kernelized Correlation Filter Distributed Video Sensor Networks (B. Bhanu, ed.), ch. 24,
(KCF) ve derin Convolutional Neural Network (CNN) pp. 349–371, 2011.
[2] G. Robinson and D. Zhang, “Object Detection in Wide Area
kavramlarını birleştirerek Deep Hyperspectral Kerneli- Aerial Surveillance Imagery with Deep Convolutional Net-
zed Correlation Filter olarak isimlendirdikleri mimariyi works,” None, 2016.
ortaya koymaktadırlar. Bu çalışmada WAMI sensörleri [3] Sebastian Anthony, “DARPA shows off 1.8-gigapixel surveil-
elde edilmiş görüntüler hiperspektral verilerle birleştiri- lance drone, can spot a terrorist from 20,000 feet,” 2013. Last
accessed: 10.01.2019.
lerek daha başarılı bir izleme gerçekleştirilmeye çalışıml- [4] R. Porter, A. M. Fraser, and D. Hush, “Wide-area motion
maktadır. Bu maksatla Rochester Institute of Technology imagery,” IEEE Signal Processing Magazine, vol. 27, no. 5,
Multiobject Spectrometer (RITMOS) [15], [16] konsepti pp. 56–65, 2010.
izlenerek kullanılan WAMI görüntüler için hiperspektral [5] R. Collins, X. Zhou, and S. K. Teh, “An Open Source Tracking
Testbed and Evaluation Web Site,” in IEEE International Works-
veriler elde edilmekte ve bunlar AlexNet CNN mi- hop on Performance Evaluation of Tracking and Surveillance
marisinin optimize edilmiş bir çeşidi olan ZFNet ile (PETS 2005), vol. 5, January 2005.
oluşturulan CNN yapısında kullanılmaktadır. Yazarlar [6] Air Force Research Laboratory, “Columbus Large Image Format
- CLIF 2006 Dataset,” 2006. Last accessed: 20.12.2018.
burada DIRSIG (Digital Imaging and Remote Sensing)
[7] Air Force Research Laboratory, “Columbus Large Image Format
yazılımı [17] kullanarak sentetik bir hiperspektral video - CLIF 2007 Dataset,” 2007. Last accessed: 20.12.2018.
üreterek geliştirdikleri takip sistemini bu veri üzerinde [8] Air Force Research Laboratory, “Wrigth Patterson Air Force
eğitmekte, arkasından da CLIF [6], [7] ve WPAFB Base 2009 (WPAFB 2009) Dataset,” 2009. Last accessed:
20.12.2018.
[8] veri setlerinden alınmış gerçek WAMI görüntüleri
[9] L. W. Sommer, M. Teutsch, T. Schuchert, and J. Beyerer,
üzerinde deneme yapmışlardır. Önerilen takip sistemi ile “A survey on moving object detection for wide area motion
kendi oluşturdukları sentetik görüntüler üzerinde % 80 imagery,” 2016 IEEE Winter Conference on Applications of
hassasiyet sağlandığı rapor edilmektedir. Oluşturulan bu Computer Vision, WACV 2016, 2016.
[10] C. Aeschliman, J. Park, and A. C. Kak, “Tracking vehicles th-
sentetik veri seti ile eğitilen CNN ile WAMI örnekleri rough shadows and occlusions in wide-area aerial video,” IEEE
üzerinde % 92 hassasiyet elde edildiği rapor edilmiştir. Transactions on Aerospace and Electronic Systems, vol. 50,
WAMI üzerinde araç pozisyonu tahmini ile araçların no. 1, pp. 429–444, 2014.
izlenmesi için kullanılabilecek ilave bilgiler üretilebil- [11] V. Reilly, H. Idrees, and M. Shah, “Detection and tracking of
large number of targets in wide area surveillance,” in European
mektedir. Bir araç izlenirken ardışık iki çerçevedeki conference on computer vision, pp. 186–199, Springer, 2010.
görünüş ve hızı da genellikle dikkate alınır. Eğer iki [12] R. LaLonde, D. Zhang, and M. Shah, “Fully Convolutional
görünüş birbiriyle uyumlu ve hız da hareket modeli ile Deep Neural Networks for Persistent Multi-Frame Multi-Object
tutarlı ikisinin aynı araç olduğu kabul edilir. Burada araç Detection in Wide Area Aerial Videos,” arXiv preprint ar-
Xiv:1704.02694, vol. 1, 2017.
görünüşünün aynı olması demek araç pozisyonunun ardı- [13] R. LaLonde, D. Zhang, and M. Shah, “ClusterNet: Detecting
şık çerçevelerde birbiri ile uyumlu olması anlamına gelir. Small Objects in Large Scenes by Exploiting Spatio-Temporal
Sonuç olarak araç pozisyonu bilgisi izleme işine ilave Information,” ArXiv eprints, 2017.
[14] B. Uzkent, A. Rangnekar, and M. J. Hoffman, “Tracking in
bilgi sağlamaktadır. Yi ve diğerlerinin [18] çalışmasında
Aerial Hyperspectral Videos using Deep Kernelized Correlation
WAMI görüntüleri üzerinde araç pozisyonu tahmini için Filters,” IEEE Transactions on Geoscience and Remote Sensing,
derin konvolüsyonel yapay sinir ağı (DCNN) kullanılmış. vol. 57, pp. 449–461, Jan 2019.
[15] R. D. Meyer, K. J. Kearney, Z. Ninkov, C. T. Cotton, P. Ham-
mond, and B. D. Statt, “Ritmos: a micromirror-based multi-
object spectrometer,” in Ground-based Instrumentation for Ast-
ronomy, vol. 5492, pp. 200–220, International Society for
Optics and Photonics, 2004.
[16] B. Uzkent, Real-time Aerial Vehicle Detection and Tracking
using a Multi-modal Optical Sensor. Rochester Institute of
Technology, 2016.
[17] S. D. B. Emmett J. Ientilucci, “Advances in wide-area hypers-
pectral image simulation,” in Proceedings of SPIE, vol. 5075,
2003.
[18] M. Yi, D. Wang, F. Yang, J. Xu, Y. Cai, E. Blasch, C. Sheaff,
G. Chen, and H. Ling, “Vehicle pose estimation in wami
imagery via deep convolutional neural networks,” in Aerospace
and Electronics Conference (NAECON) and Ohio Innovation
Summit (OIS), 2016 IEEE National, pp. 233–240, IEEE, 2016.

You might also like