You are on page 1of 72

Aerotriangulacja

1. Charakterystyka metody niezależnych modeli, wady i zalety.


2. Charakterystyka metody metody niezależnych wiązek, wady i zalety.
3. Porównanie aerotriangulacji metodą niezależnych modeli z metodą
niezależnych wiązek (podobieństwa i różnice).
4. Etapy aerotriangulacji metodą niezależnych wiązek.
5. Dlaczego sigma zero ma zbliżoną wielkość do błędu pomiaru wsp. na
zdjęciach (w aero met. niezależnych wiązek)?
6. Osnowa fotogrametryczna – podziały wg kilku kryteriów.
7. Osnowa fotogrametryczna rozmieszczenie punktów wiążących i fotopunktów
10. Zasady wagowania obserwacji w aerotriangulacji metodą niezależnych
wiązek.
11. Zasady wykorzystania w aerotriangulacji metodą niezależnych wiązek
fotopunktów o różnej dokładności współrzędnych terenowych.
12. Geneza równań obserwacyjnych w aerotriangulacji metodą niezależnych
wiązek, ile jest niewiadomych w dwóch zasadniczych grupach równań?
13. Jak oblicza się błędy średnie wpasowania bloku w osnowę terenową a jak
błędy średnie wyznaczenia współrzędnych terenowych?
14. Aerotriangulacja z obserwacjami GPS i INS (korzyści, jak modeluje się
błędy systematyczne obserwacji GPS i INS).
15. Porównanie technik GNSS – INS, wady i zalety.
16. Jak jest obliczane, o czym mówi odchylenie standardowe pojedynczego
spostrzeżenia w aerotriangulacji?
17. Jaka jest wielokrotność pokrycia w rejonach Grubera gdy: P=60, Q=25%;
jak się zmieni gdy P=80%, Q=25%; jak się zmieni gdy P=60%, Q=60%.
18. Jakie wiązania powinno się usuwać przed wyrównaniem? Czy w praktyce te
same zasady są stosowane dla pomiarów manualnych i automatycznych.
19. Określenie liczby obserwacji nadliczbowych na przykładzie małego bloku,
20. Na czym polega, kiedy stosuje się aerotriangulację z dodatkowymi
parametrami.
21. Jak przebiega wykrywanie błędów grubych metodą Baardy
22. Na czym polega test a posteriori / a priori w wyrównaniu aerotriangulacji?
23. Podejścia stosowane do usunięcia krzywizny Ziemi w aerotriangulacji.
24. Identyfikacja ryzyka w technologii fotogrametrycznej – punkty krytyczne
25. Warunki (meteo) wykonywania lotniczych zdjęć fotogrametrycznych
38. Podobieństwa i różnice pomiędzy aerotriangulacją zdjęć z UAV a
aerotriangulacją klasyczną (zdjęcia z kamery pomiarowej).
Modele geometrii
39. Porównać model parametryczny i nieparametryczny (ogólnie)
40. Równania kolinearności a DLT – porównać (niewiadome, fotopunkty)
41. Podobieństwo transformacji rzutowej i modelu RFM
42. Model RFM, metody wyznaczenia współczynników RPC
43. Czy model RFM jest przydatny w fotogrametrii lotniczej?
VHRS
44. Ogólna charakterystyka VHRS.
45. VHRS 2. generacji (różnice w stosunku do pierwszych VHRS)
46. Przydatność modelu RFM w geometryzacji obrazów VHRS
Ortorektyfikacja
47. Jakie zniekształcenia obrazów są usuwane podczas ortorektyfikacji?
48. Ortorektyfikacja w przód i wstecz – porównanie
49. Metody powtórnego próbkowania
50. Etapy procesu technologicznego (zdjęcia lotnicze)
51. Wpływ błędów EOZ na błędy ortoobrazu
52. Zasady wyboru linii mozaikowania
53. Wpływ dokładności NMT na jakość ortorektyfikacji (np. analiza ck)
54. Postać NMT do ortorektyfikacji,
55. Jaki model wysokościowy stosuje się do ortorektyfikacji mostów i
wiaduktów
56. Jaki model wysokościowy może spowodować rozmazanie a kiedy
zdublowanie treści ortoobrazu
57. Sposoby zmniejszania przesunięć radialnych obiektów wystających nad
teren
58. Strategie opracowania prawdziwej ortofotomapy, zalety i wady true orto
59. Co to jest Z-bufor przy opracowaniu true orto 60. Na czym polega technika
pictometry
61. Polskie standardy ortofotomapy lotniczej – piksel, dokładność
62. Etapy kontroli jakości geometrycznej ortofotomapy wg polskich przepisów
(wymienić, omówić każdy z osobna)
63. Stereoorto (jak powstaje, czym rożni się od klasycznego modelu stereo)
Jakość radiometryczna
64. Istota radiometrii, porównanie z fotometrią
65. Co opisuje BRDF?
66. Etapy korekcji radiometrycznej obrazów satelitarnych
67. Związek jasności piksela w obrazie i luminancji energetycznej obiektu
terenowego.
68. Związek jasności piksela w obrazie i jego jasności na monitorze.
69. Wewnętrzna jakość radiometryczna, wskaźniki wewnętrznej jakości
radiometrycznej
70. Jakie parametry powinien posiadać poprawny histogram obrazu?
71. Zalety nieliniowego rozciągania kontrastu.
72. Jaki zalety przy walidacji obrazów ma model barw Lab?
73. Różnica pomiędzy DR kamery a rozdzielczością radiometryczną
Skanowanie zdjęć
74. Charakterystyka skanera fotogrametrycznego/ porównanie ze „zwykłym”
skanerem
75. Tryby skanowania (przeźroczystość, gęstość optyczna, korekcja
współczynnika gamma).
76. Warunki poprawnego skanowania.
Kompresja obrazów
77. Idea kompresji stratnej, cechy algorytmu JPEG, etapy, efektywność dla
obrazów barwnych i czarno-białych
Matching
79. Realizacja ABM metodą korelacji krzyżowej – istota, opis matematyczny
80. Realizacja ABM metodą najmniejszych kwadratów (LSM) – istota, opis
matematyczny (ogólnie).
81. Na czym polega FBM?
82. Na czym polega matching SIFT?
83. Pola zastosowań matchingu w fotogrametrii.
85. Na czym polega gęsty matching.
86. "Semi Global Matching" wg. Hirschmüllera.

Aerotriangulacja
1. Charakterystyka metody niezależnych modeli, wady i zalety.
METODA NIEZALEŻNYCH MODELI - budowanie sieci przestrzennej złożonej z
uprzednio utworzonych modeli
Etapy:
● przygotowawczy – budowa modeli
Polega na niezależnym utworzeniu modeli z sąsiednich zdjęć w szeregu.
Modele mogą być tworzone na autografach: analogowych, analitycznych,
cyfrowych. Na autografie wykonuje się orientację wzajemną każdego
modelu (analogowo lub analitycznie). Określa się współrzędne
przestrzenne, w układzie lokalnym każdego modelu: fotopunktów, punktów
wiążących (po 4 na model), środków rzutów (dla a. analogowego – pomiar
tych pkt na modelu; dla analitycznego – pomiar wsp. tłowych i obliczenie
wsp. modelu z warunku komplanarności)
● właściwa aerotriangulacja – budowa i wyrównanie sieci
Obliczenie parametrów transformacji przestrzennej (przesunięcie, skala,
obrót przestrzenny – 7 niewiadomych na model) tak aby:
• przetransformowane wsp. fotopunktów były „równe” wsp.
geodezyjnym
• przetransformowane wsp. pkt. wiążących dla sąsiednich modeli były
wzajemnie równe
• wsp. wspólnych środków rzutów po transformacji powinny się sobie
równać

A z niezależnych modeli- blok aero tworzy się z jednostek niezależnych modeli


utworzonych z sąsiednich zdjęć szeregu. Przeprowadzając aero na autografach
analitycznych lub cyfrowych oblicza się współrzędne EOW a następnie oblicza się
współrz przestrzenne z pomierzonych wcześniej współrzędnych tłowych. Aero polega na
odpowiednim przesunięciu, obrocie w przestrzeni i przeskalowaniu modelu tak aby
spełnione były warunki: -przetransformowane współrz fotopunktów powinny równać
się ich współrzędnym geodezyjnym. – przetrans współrz punktów wiążących dla
poszczególnych modeli powinny być sobie równe. –współrzędne wspólnych środków
rzutów dla sąsiednich modeli po transformacji powinny być sobie równe. W efekcie
finalnym proces aero definiuje grupę punktów nowo wyznaczonych na każdym
stereogramie. Dla punktów tych określone są współrzędne terenowe w układzie
zdefiniowanym poprzez punkty osnowy polowej. Dzięki aero wyznaczane są również
EOZ zdjęć czy EOB modeli w bloku.

METODA NIEZALEŻNYCH MODELI


Zalety: konieczna mała moc obliczeniowa, kolejne iteracje to transformacje
przestrzenne z 7 niewiadomymi)
Wady: przenoszenie się błędów na łączeniach modeli
Dokładność prawie nie zależy od rozmiaru bloku, jest bliska dokładności poj.
modelu

2. Charakterystyka metody niezależnych wiązek, wady i zalety.


METODA NIEZALEŻNYCH WIĄZEK
Pomierzone na zdjęciu punkty, przy znanych elementach orientacji
wewnętrznej kamery, umożliwiają odtworzenie wiązki promieni. Wszystkie
promienie przecinają się w środku rzutów kamery. Aerotriangulacja metodą
niezależnych wiązek polega na znalezieniu takiego położenia poszczególnych
wiązek (określonego przez elementy orientacji zewnętrznej tj. współrzędne
środków rzutów Xo, Yo, Zo oraz trzy kąty (ω, ϕ, κ), aby spełnione były
następujące warunki:
- promienie pochodzące od tych samych punktów terenowych (tzw. punkty
wiążące) powinny się przecinać,
- promienie pochodzące od punktów o znanych współrzędnych terenowych (
tzw. fotopunktów) powinny przechodzić przez dany punkt.

Warunki powyższe, zapisywane dla wszystkich obserwowanych punktów,


tworzą układ równań, który rozwiązywany jest metodą najmniejszych
kwadratów. Z punktu widzenia rachunku wyrównawczego mamy do czynienia z
zagadnieniem równoczesnego wyrównania sieci przestrzennej. Niewiadomymi
są elementy orientacji zewnętrznej każdego zdjęcia oraz współrzędne punktów
wyznaczanych. Możliwe jest wagowanie poszczególnych obserwacji lub
warunków w zależności od dokładności pomiaru.

Do zdefiniowania poszczególnych wiązek niezbędna jest znajomość elementów


orientacji wewnętrznej kamery oraz czynników deformujących wiązkę ( np.
dystorsja, skurcz). Elementy te zawarte są w raporcie z kalibracji kamery.
Raport ten zawiera między innymi następujące dane:
- współrzędne znaczków tłowych w układzie tłowym,
- dystorsję obiektywu w postaci tabelarycznej dla poszczególnych przekątnych
zdjęcia, dystorsję średnią lub w postaci współczynników funkcji
aproksymującej dystorsję,
- inne dane jak np. rozdzielczość zdjęcia.

METODA NIEZALEŻNYCH WIĄZEK


Zalety: ścisły model (zależność między współrzędnymi tłowymi i terenowymi),
łatwość uwzględniania błędów systematycznych zdjęć, możliwość rozwiązania
z innymi danymi pomiarowymi (samokalibracja), możliwość użycia
niemetrycznych kamer, wynikiem są EOZ – można je wykorzystać w
opracowywaniu kolejnych stereogramów
Wady: zadanie iteracyjne (konieczna znajomość przybliżonego rozwiązania),
więcej obliczeń, instrumenty analogowe nie muszą być użyte, zadanie
przestrzenne
3. Porównanie aerotriangulacji metodą niezależnych modeli z metodą
niezależnych wiązek (podobieństwa i różnice).
ŚREDNIO NA TEMAT PORÓWNANIA ALE MOŻNA COŚ WYSKROBAĆ Z TEGO

Porównanie modeli niez wiązek z met niezal modeli:


-zadanie iteracyjne(konieczna znajomość przybliżonego rozwiązania)
-więcej obliczeń
+ścisły model( związek wspol tłowych i wspoł terenowych)
+łatwość uwzględnienia błędów systematycznych zdjęć
+możliwość rozw z paramerami dodatkowymi (samo kalibracja)
+łatwość uwzględnienia innych danych pomiarowych (inne geodezyjne obserwacje)
+możliwość użycia zdjęć z kamer niemetrycznych
+wynikiem są EOZ zdjęć co można bezpośrednio wykorzystać w procesie
opracowywania kolejnych stereogramów.

4. Etapy aerotriangulacji metodą niezależnych wiązek.

1. Projekt osnowy fotogrametrycznej


2. Bezpośredni pomiar współrzędnych fotopunktów
3. Inicjacja projektu na stacji fotogrametrycznej:
• zakres obszarowy, pokrycie podłużne/poprzeczne, liczba szeregów, ścieżki
dostępu do zdjęć
• przybliżone współrzędne pierwszego środka rzutów, skręcenie osi szeregów
do układu terenowego
• wprowadzenie danych z metryki kamery
• deklaracja dokładności fotopunktów i pomiaru na zdjęciach
4. Pomiar osnowy fotogrametrycznej na zdjęciach
5. Obliczenie współrzędnych tłowych pomierzonych punktów (orientacja
wewnętrzna) a nie wzajemna?? (TAK, POMYŁKA)
6. Obliczenie (kontrolne) elementów orientacji wzajemnej
7. Wyrównanie aerotriangulacji

5. Dlaczego sigma zero ma zbliżoną wielkość do błędu pomiaru wsp. na


zdjęciach (w aero met. niezależnych wiązek)?

Dopiero po procesie wyrównania poznajemy wartość sigma zero. Głównie


zależy ono od pomiarów punktów wiążących na zdjęciach, bo jest ich po
prostu znacznie więcej niż samych fotopunktów. (takie coś miałam
wynotowane z wykładów)

Rozp. w sprawie baz danych dotyczących zobrazowań lotniczych i satelitarnych oraz


ortofotomapy i numerycznego modelu terenu, Załącznik nr 2, rozdział 2:

5) muszą zostać skorygowane założone błędy średnie grup obserwacji przed wyrównaniem w
stosunku do błędów średnich grup pomiarów po wyrównaniu;
6) iloraz błędów, o których mowa w pkt 5, nie powinien różnić się od 1,0 o więcej niż 0,10;
większe różnice wymagają skorygowania założonych błędów średnich dla wszystkich grup
obserwacji występujących w wyrównaniu;

6. Osnowa fotogrametryczna – podziały wg kilku kryteriów.

7. Osnowa fotogrametryczna rozmieszczenie punktów wiążących i fotopunktów


*Punkty wiążące to podstawowa liczebnie grupa punktów mierzonych na
zdjęciach lotniczych dla potrzeb aerotriangulacji. Punkty wiążące
powinny występować co najmniej na trzech zdjęciach, dlatego wybiera się
je w pasach potrójnego pokrycia zdjęć. Jeżeli punkt wiążący znajduje się
jednocześnie na zdjęciach w dwóch szeregach (pokrycie poprzeczne) to może
maksymalnie być odfotografowany na sześciu zdjęciach (przy standardowych
pokryciach zdjęć). Im więcej pomierzymy punktów wiążących tym gęstsza
będzie sieć wiązek i tym bardziej wiarygodne wyniki obliczeń
aerotriangulacji. Przyjęto założenie, że na osi każdego zdjęcia wybierze się
po trzy punkty wiążące, rozmieszczone w rejonach Grubera. Ponieważ na
każdym zdjęciu (poza skrajnymi w szeregach) obrazują się również
punkty położone na osiach sąsiednich zdjęć, stąd na każdym zdjęciu
należy pomierzyć 9 punktów wiążących szer wzdłuż. Dodatkowo na
każdym zdjęciu obrazują się wybrane wg powyższej zasady punkty
wiążące z górnego i dolnego szeregu. W efekcie otrzymamy liczbę 15
punktów wiążących dla każdego zdjęcia (z wyjątkiem skrajnych zdjęć w
szeregach, oraz zdjęć skrajnych szeregów - gdzie liczba punktów wiążących
będzie mniejsza).
8. Zasady wyboru fotopunktów naturalnych.

9. Zasady sygnalizacji sztucznej fotopunktów.


10. Zasady wagowania obserwacji w aerotriangulacji metodą niezależnych
wiązek.
Równoważenie równań obserwacyjnych – analiza a priori:
- odchyl. stand. pojedyn. spostrzeżenia = σ0
- odchyl. stand. wsp. tłowych (pomiar + nieusunięte zniekształcenia) = σxy =σ0
- odchyl. stand. wsp. fpkt. (identyfikacja + pomiar) = σXY, σZ
Pxy=( σ0/ σxy)2 PXY=( σ0/ σXY)2 PZ=( σ0/ σZ)2
σxy≈ σ0

11. Zasady wykorzystania w aerotriangulacji metodą niezależnych wiązek


fotopunktów o różnej dokładności współrzędnych terenowych.
Uznanie fotopunktów jako obserwacje i nadanie im wag?
12. Geneza równań obserwacyjnych w aerotriangulacji metodą niezależnych
wiązek, ile jest niewiadomych w dwóch zasadniczych grupach równań?
Przejście z równań kolinearności na szereg Taylora, przybliżone EOZ i wsp.
punktów.
NIEWIADOME W RÓWNANIACH DLA FOTOPUNKTÓW - 6
NIEWIADOME W RÓWNANIACH DLA PUNKTÓW WIĄŻĄCYCH - 9

13. Jak oblicza się błędy średnie wpasowania bloku w osnowę terenową a jak
błędy średnie wyznaczenia współrzędnych terenowych?

14. Aerotriangulacja z obserwacjami GPS i INS (korzyści, jak modeluje się


błędy systematyczne obserwacji GPS i INS).
15. Porównanie technik GNSS – INS, wady i zalety.
Zaleta INS :
• pomiar niezależny od GPS,
• pomiar autonomiczny
• określa pozycję i nachylenie
• wysoka częstotliwość (200Hz)

Wada INS:
• Strata dokładności z upływem czasu – drift
• szum losowy pomiarów
Zaleta GPS (GNSS):
• Wysoka dokładność bezwzględna

Wada GPS (GNSS):


• niska częstotliwość, rzędu 1-2Hz
(rzadko są używane odbiorniki o częstotliwości 50-100Hz)
• problem nieoznaczoności
• konieczna dostępność sygnału satelitarnego

Zintegrowanie systemów GPS/INS pozwala rejestrować położenie z


dokładnością lepszą niż 10 cm oraz kąty orientacji z dokładnością ok. 10", tj.
0,003° (częstotliwość pomiaru rzędu 50-200 Hz)

16. Jak jest obliczane, o czym mówi odchylenie standardowe pojedynczego


spostrzeżenia w aerotriangulacji?

odchylenie standardowe pojedynczego spostrzeżenia


N – liczba równań obserwacyjnych;
U– liczba niewiadomych
P – macierz wag

Odchylenie standardowe pojedynczego spostrzeżenia mówi o jakości


aerotriangulacji.
Jest miara średniego rozrzutu wyników pomiarów wokół prawdziwej wartości
mierzonej wielkości (fizyka).(?)
A nie mówi przypadkiem raczej o tym czy dobrze zostały dobrane błędy
apriori?

17. Jaka jest wielokrotność pokrycia w rejonach Grubera gdy: P=60, Q=25%;
jak się zmieni gdy P=80%, Q=25%; jak się zmieni gdy P=60%, Q=60%.

Nie wiem, czy to się jakoś liczy, więc zrobiłam rysunek.


No właśnie, a czy ktos wie, czy to się jakoś liczy?? :)
18. Jakie wiązania powinno się usuwać przed wyrównaniem? Czy w praktyce te
same zasady są stosowane dla pomiarów manualnych i automatycznych.

Dla pomiarów manualnych i automatycznych - przeprowadzenie orientacji


wzajemnej, sprawdzenie paralaksy poprzecznej???
Przede wszystkim wykrycie błędów grubych (np. źle zidentyfikowany pkt) - w obu
przypadkach w praktyce trzeba usunąć lub pomierzyć jeszcze raz manualnie

W rzeczywistości wzrost dokładności i niezawodności może być niewielki, a nakład


pracy związany z zapewnieniem homogeniczności dokładności wyniku może być
zbyt duży.

19. Określenie liczby obserwacji nadliczbowych na przykładzie małego bloku,


20. Na czym polega, kiedy stosuje się aerotriangulację z dodatkowymi
para
metr
ami.

21. Jak przebiega wykrywanie błędów grubych metodą Baardy


22. Na czym polega test a posteriori / a priori w wyrównaniu aerotriangulacji?
23. Podejścia stosowane do usunięcia krzywizny Ziemi w aerotriangulacji.
24. Identyfikacja ryzyka w technologii fotogrametrycznej – punkty krytyczne

25. Warunki (meteo) wykonywania lotniczych zdjęć fotogrametrycznych


Kamery
26. Wymagania stawiane współczesnym wielkoformatowym kamerom
pomiarowym.
27. Filtry używane w kamerach lotniczych.

○ Filtry korekcyjne
– wykorzystywane do zmniejszenia mgiełki atmosferycznej. Mgiełka
atmosferyczna/zaniebieszczenie obrazu powstaje w efekcie odbijania się promieni
światła od płytek zawieszonych w powietrzu, a do kamery dochodzi wtedy
promieniowanie odbite i rozproszone.
– obiektyw to filtr który przyciemnia ku brzegom - winietowanie, dlatego zakłada się
filtr antywinietowy, żeby wyrównać rozkład jasności w płaszczyźnie tłowej
○ Filtry spektralne – ograniczają zakres długości rejestrowanych fal elektromagnetycznych
, rejestrują osobno R G B i PAN

Każdy kolejny filtr to coraz mniej światła - wydłużamy czas naświetlania.

28. Charakterystyka fotogrametrycznej kamery cyfrowej typu kadrowego.

Kamery do wykonywania zdjęć pojedynczych - kadrowe (migawkowych


obejmujących zasięgiem ramki tłowej wycinek fotografowanego obszaru)

Oceniając właściwości pomiarowe kadrowej kamery cyfrowej należy zwrócić uwagę


na prostokątny kształt kadru, krótsza jego strona jest zwrócona w kierunku lotu.
Oznacza to zwiększony zasięg poprzeczny zdjęć ale i mniejszy stosunek bazowy w
porównaniu z kamerami tradycyjnymi, skutkujący gorszą wyznaczoną wysokością.
29. Charakterystyka fotogrametrycznej kamery cyfrowej typu linijkowego.

- W płaszczyźnie ogniskowej znajduje się kilka oddalonych od siebie,


równoległych linijek detektorów, a nie matryca
- Klasyczny układ to 3 linijki: w przód, nadir, wstecz
- Każdy obraz (3) jest złożeniem linijek dla kolejnych momentów otwarcia
migawki
- Każdy fragment terenu jest zarejestrowany na kilku (3) obrazach
30. Zalety i wady fotogrametrycznych kamer cyfrowych w porównaniu z
analogowymi.

+ wyeliminowany jest film i kosztowna obróbka laboratoryjna, a w dalszym


etapie czasochłonne skanowanie wywołanych zdjęć lotniczych;
+ obrazy cyfrowe charakteryzują się znacznie lepszym zakresem dynamicznym i
rozdzielczością radiometryczną- wynik to bardziej efektywna rozróżnialność
obiektów o dużym kontraście oraz lepsza reprodukcja barw;
+ przy kamerach cyfrowych cienie są lekko przezroczyste jeszcze widać w nich
sytuacje, a przy kamerach analogowych cienie są smoliste
+ używając cyfrowych kamer lotniczych, dużo łatwiej wykonuje się
zobrazowania wielospektralne;
+ bieżący podgląd zdjęć
+ obrazy zapisywane są przez rejestrator na dyskach o ogromnych
pojemnościach, które są często wymienne. Przeciętnie mieszczą 2000-3000
ujęć, co odpowiada mniej więcej 1000-1500 zdjęciom klasycznym
+ poprawa jakości geometrycznej, m0 z 5-6 do 2-3um
- cyfrowe są droższe od analogowych
- spadek dokładności H w stosunku do X,Y (z 1,5 do 3)
(bo: kamery cyfrowe mają matryce prostokątne, krótszy wymiar w kierunku lotu. A
analogowe miały kwadratowe płaszczyzny tłowe (23x23?). Jak jest kamera cyfrowa z
tą matrycą prostokątną, to żeby zrealizować dane pokrycie podłużne baza B jest
krótsza, niż w przypadku robienia zdjęć kamerami analogowymi. Jeśli dla kamery
cyfrowej B się skraca, to współczynnik bazowy W/B się zwiększa. A im większa
wartość tego współczynnika, tym mniejsza dokładność wysokościowa.)
- kadr prostokątny, niewymienne obiektywy (ograniczenia powoli znikają)

31. Jak powstaje obraz barwny w kamerach cyfrowych które rejestrują zakresy
spektralne PAN, R,G,B w innych rozdzielczościach ,geometrycznych?

Metoda IHS - Najbardziej rozpowszechniona technika scalania obrazów. Model IHS


opisuje barwy za pomocą jasności (Intensity), odcienia (Hue) i nasycenia
(Saturation). Procedura integracji polega na przekształceniu barw RGB do postaci
IHS i z powrotem. Zakłada się, że informacja przestrzenna koncentruje się w
składowej I, a tematyczna w składowych H i S (Chavez et al., 1991). Za składową I
podstawia się odpowiednio znormalizowany obraz panchromatyczny i wykonuje się
transformację odwrotną.

32. Obliczanie GSD, rozmiaru obrazu w pikselach i rozmiaru fizycznego z dpi i


μm

Wszystko to łatwo można obliczyć wiedząc, że skrót dpi (dots per inch) oznacza ilość
punktów mieszczących się w jednym calu, a cal to 2,54 cm. A 1000 μm = 1 mm

UMIE KTOŚ TO LICZYĆ PO LUDZKU, JAKIKOLWIEK PRZYKŁAD 14


33. Dlaczego w kamerach cyfrowych PPA=PPS a dystorsja wynosi 0?
34. Który z punktów: PPA, PPS, FC jest punktem głównym kamery
pomiarowej?

35. Wady kamer cyfrowych w porównaniu z analogowymi.


- cyfrowe są droższe od analogowych (na pewno?)
- spadek dokładności H w stosunku do X,Y (z 1,5 do 3)
- kadr prostokątny, niewymienne obiektywy (ograniczenia powoli znikają)

36. Przeliczanie rozdzielczości z miary pikselowej μm na lp/mm


37. Przyczyny stosowania kamer średnioformatowych w fotogrametrii.
38. Podobieństwa i różnice pomiędzy aerotriangulacją zdjęć z UAV a
aerotriangulacją klasyczną (zdjęcia z kamery pomiarowej).

Różnice:
- niska stabilność trajektorii lotu UAV
- stosowanie większej liczby fotopunktów w aero z UAV
- EOZ zdjęć z UAV są mniej dokładne od EOZ z klasycznych lotów
fotogrametrycznych
Modele geometrii
39. Porównać model parametryczny i nieparametryczny (ogólnie)

parametryczny/ścisły (“lotniczy”) - jest oparty na geometrycznej rekonstrukcji


wiązek promieni przestrzennych formujących obraz źródłowy, promienie formujące
obraz źródłowy są rzutowane na powierzchnię 3D reprezentują odwzorowany na
obrazie obszar, co pozwala - w miejscu przecięcia z powierzchnię (“terenem”) -
zmienić ich bieg na ortogonalny do powierzchni odniesienia
(“płaszczyzny).Stosowany jest głównie dla obrazów formatowanych w rzucie
środkowym.

nieparametryczny (“satelitarny”) - przetworzenie obraz źródłowy - obraz wynikowy


jest opisane funkcją matematyczną (ilorazy wielomianowe), która ma charakter
abstrakcyjny (brak jednoznacznego odniesienia do geometrii formatowania obrazu).
Stosowany jest głównie dla obrazów formatowanych w rzucie środkowo-
równoległym.
40. Równania kolinearności a DLT – porównać (niewiadome, fotopunkty)

W równaniu kolinearności układ x,y musi być prostokątny, w DLT - nie. ciekawe jakim
jestem zwierzakiem :D - dzikim
41. Podobieństwo transformacji rzutowej i modelu RFM
Model RFM (Rational Function Model…) : dla poprawy stabilności numerycznej
przed obliczeniem współczynników Wi dokonuje się normalizacji wszystkich
współrzędnych do przedziału [-1,1]; dotyczy to: X, Y, Z (E, N, H, fi, lambda) oraz r,c.
W DLT również dokonuje się normalizacji przed rozwiązaniem, tak aby X, Y, Z były w
przedziale [-1,1].

42. Model RFM, metody wyznaczenia współczynników RPC


Ilorazowy Model Wielomianowy RFM określa matematyczny związek pomiędzy
terenem a obrazem. Jest to model typu 3D. Poszczególnym wyrazom wielomianu nie
przypisuje się prostej interpretacji fizycznej czy geometrycznej związanej z
parametrami czy czynnikami zniekształcającymi obraz - jest to model
nieparametryczny.

43. Czy model RFM jest przydatny w fotogrametrii lotniczej?

Zastosowanie RFM jest ekonomiczną i szybką drogą, do wygenerowania map o


wysokiej dokładności, na podstawie wysokorozdzielczych obrazów.
VHRS
44. Ogólna charakterystyka VHRS.

45. VHRS 2. generacji (różnice w stosunku do pierwszych VHRS)


- wyższa rozdzielczość przestrzenna (w VHRS 2. generacji ok 0,4m dla zakresu
PAN oraz 1,6m dla zakresu MS; w VHRS 1. generacji ok 0,8m dla zakresu
PAN oraz 3m dla zakresu MS)
- lepsza dokładność geolokalizacji (w VHRS 2. generacji 3m, w VHRS 1.
generacji 9m)
- większy zakres zobrazowania w VHRS 2. generacji

46. Przydatność modelu RFM w geometryzacji obrazów VHRS


Ortorektyfikacja
47. Jakie zniekształcenia obrazów są usuwane podczas ortorektyfikacji?
48. Ortorektyfikacja w przód i wstecz – porównanie
49. Metody powtórnego próbkowania
50. Etapy procesu technologicznego (zdjęcia lotnicze)

Etapy klasycznego procesu technologicznego

51. Wpływ błędów EOZ na błędy ortoobrazu


52. Zasady wyboru linii mozaikowania

53. Wpływ dokładności NMT na jakość ortorektyfikacji (np. analiza ck)


54. Postać NMT do ortorektyfikacji,
gęsty grid utworzony na podstawie TIN (kwestia linii nieciągłości itp.)
A nie np same punkty (jako siatka pierwotna) i linie nieciagłości? bo tak chyba było
robione w naszym projekcie, do ortorektyfikacji nie braliśmy NMT jako siatki wtórnej
GRID czy TIN, tylko surowe zielone kropki i kreski.

Model TIN zachowuje dokładność danych źródłowych. Jest trudniejszy w


eksploatacji.
Model GRiD zniekształca przebieg linii nieciągłości. Jest łatwy w eksploatacji.
Do ortorektyfikacji korzystniejszy jest gęsty GRID ale otrzymany z TIN

Budowa NMT dla ortorektyfikacji:


>dane punktowe, liniowe, powierzchniowe
>utworzenie modelu TIN/
>interpolacja gęstego modelu GRID dla potrzeb interpolacji (z modelu TIN)

Czyli NMT-orto ma postać GRID, ale powinien zostać wyinterpolowany z TIN a nie
bezpośrednio ze zbioru danych pomiarowych(linie nieciągłości!!!)

TIN można wykorzystać jako NMT-ort ale:


> w przypadku za mało dokładnych elementów orientacji powstaje rozmazanie
ortoobrazu (w czasie resamplingu)
>spowalnia to proces obliczeniowy
Według nowego rozporządzenia zawsze stosujemy GRID (w domyśle gęsty GRID po
TINie)

55. Jaki model wysokościowy stosuje się do ortorektyfikacji mostów i


wiaduktów
W przypadku mostów, wiaduktów, naziemnych linii przesyłowych ortorektyfikacja na
NMT powoduje artefakty. W takich przypadkach NMT musi zostać zastąpiony przez
model typu NMPT.
Żeby ładnie zrobić ortoobraz trzaskamy dwa modele jeden NMT po terenie pod
spodem wiaduktu, potem drugi model NMPT po powierzchni wiaduktu, a potem
ręcznie w GIMPie czy czymś sobie to ładnie sklejamy, walniemy pare pieczątek cos
rozmażemy i będzie pięknie :D

5.0 :P
dzięks <3

56. Jaki model wysokościowy może spowodować rozmazanie a kiedy


zdublowanie treści ortoobrazu
57. Sposoby zmniejszania przesunięć radialnych obiektów wystających nad
teren
Na klasycznej ortofotomapie:
- wykonanie lotu z większej wysokości
-zastosowanie stożka kamery o dłuższej ogniskowej
-zwiększenie pokrycia podłużnego i poprzecznego, do opracowania stosowanie tylko centralnych
fragmentów zdjęć.
Jeżeli już mamy ortofotomapę, no to chyba True orto można zrobić, żeby je
usunąć po prostu

58. Strategie opracowania prawdziwej ortofotomapy, zalety i wady true orto


Kroki w generowaniu true-ortho:
1. Ortorektyfikacja zdjęć
2. Lokalizacja martwych pól
3. Radiometryczne zbalansowanie ortozdjęć
4. Mozaikowanie ortozdjęć i wygładzenie linii mozaikowania
Kluczowa w tym procesie jest identyfikacja martwych pól.

Wyróżniamy następujące metody opracowania true orto:

Wady:
- problem martwych pól
- prawdziwa ortofotomapa traci plastyczność, robi się “płaska”
- pracochłonna, droga
- skomplikowana technologia w porównaniu ze zwykłą orto

Zalety:
- brak przesunięć radialnych dla obiektów wysokich

59. Co to jest Z-bufor przy opracowaniu true orto

Z-bufor - to tablica pikseli o wymiarach identycznych jak zdjęcie, w której wartościami


pikseli są odległości środka rzutów do punktów DSM wzdłuż promieni rzutowania.
Na początku procesu wszystkie piksele mają jednakową wartość, która jeśli się nie
zmieni w trakcie generowania będzie oznaczała martwe pole.
Z-bufor prosty
- ortorektyfikacja (wstecz) poprzedzona jest wygenerowaniem Z-bufora na
podstawie DSM i EOZ
- odległość wpisywana do bufora (macierzy) - odległość, która na pewno nie
wystąpi
- bufor - to “zdjęcia naświetlone odległościami”
- w oparciu o DTM
Z-bufor złożony:
- model budynku nakładamy na model terenu (DSM-bez obiektów)
- info. czy px - wg terenu czy budynku jest przetwarzany
- interpolacja - chodzi o to, żeby nie mieszać jasności terenu z jasnością dachu
60. Na czym polega technika pictometry

PICTOMETRY - to nazwa opatentowanej technologii polegającej na wykonywaniu


zdjęć lotniczych w 5 kierunkach: nadir + 4 wychylenia boczne, opracowaniu modelu
3D z fotograficznym przedstawieniem elewacji budynków.
Celem jest głównie atrakcyjnym łatwy w użyciu model 3D, dokładność na drugim
miejscu (rzędu 2-3m).
Wymaga specjalnego oprogramowania użytkownika.

61. Polskie standardy ortofotomapy lotniczej – piksel, dokładność


Wie ktoś co tutaj jest najważniejsze? Co wybrać z rozporządzenia?
Na początku mamy wielkości pikseli
dla odpowiednich ortofotomap, i z jednego paragrafu do drugiego i następnego
kończymy na dokładności, dokładności wysokościowej, bo ona ma bezpośredni
wpływ na dokładność ortofotomapy. Odsyłam do pierwszego konspektu wróbla
62. Etapy kontroli jakości geometrycznej ortofotomapy wg polskich przepisów
(wymienić, omówić każdy z osobna)
63. Stereoorto (jak powstaje, czym różni się od klasycznego modelu stereo)

Ja sie pytam po co uczyć się przestarzałej metody, która nigdy nie weszła do
użytku???!!!
- Myślę, że i tak tego nie da na egzaminie

Ortofoto:
● Nałożenie na siebie ortoobrazów wykonanych z sąsiednich zdjęć
● Szczątkowy efekt stereoskopowy powstaje w czasie obserwacji dwóch
ortoobrazów wykonanych z sąsiednich zdjęć – jest to model
stereoskopowy w którym na tle płaskiej powierzchni terenu widocznie są
te obiekty, których położenie nie było ortorektyfikowane.

Stereoorto to technika uzyskiwania metrycznego modelu stereoskopowego na


podstawie ortoobrazu i stereo komponentu wygenerowanego z innego
ortoobrazu poprzez wprowadzenie sztucznej paralaksy podłużnej
Jakość radiometryczna
64. Istota radiometrii, porównanie z fotometrią
65. Co opisuje BRDF?
Obiekty terenowe w różny sposób odbijają wiązkę promieniowania, które pada na ich
powierzchnię. Może to być odbicie dyfuzyjne (wielokierunkowe-promieniowanie rozchodzi się
równomiernie we wszystkich kierunkach w przestrzeni) albo zwierciadlane (kąt padania równy
kątowi odbicia – odbicie pod tym samym kątem od normalnej co światło padające). Najczęściej
jednak występuje kombinacja odbicie dyfuzyjnego i zwierciadlanego.

Funkcję opisującą to dwukierunkowe odbicie nazywamy BRDF. Określa ona zdolność odbicia
powierzchni w określonym kierunku w zależności od kierunku padania światła.

Można powiedzieć, że BRDF jest zmodyfikowanym współczynnikiem albedo, który odnosi się
tylko do odbicia dyfuzyjnego. Wartość BRDF wyraża stosunek luminancji obiektu do natężenia
promieniowania padającego na obiekt:
66. Etapy korekcji radiometrycznej obrazów satelitarnych
67. Związek jasności piksela w obrazie i luminancji energetycznej obiektu
terenowego.
68. Związek jasności piksela w obrazie i jego jasności na monitorze.

69. Wewnętrzna jakość radiometryczna, wskaźniki wewnętrznej jakości `


`radiometrycznej
Wskaźniki jakości radiometrycznej
- rozdzielczość radiometryczna
- kontinuum ostrości i tonacji obrazu bez nieuzasadnionych efektów sztucznych
- parametry statystyczne określone z histogramu dla składowych określonego
modelu barw : odchylenie standardowe (15-30% od liczby poziomów jasności
dla obrazu), efektywność (70-90% liczby poziomów jasności obrazu, ile
wartości ze zbioru zostało wykorzystanych do opisania jasności pikseli),
liczebności graniczne (do 0,5% liczby pikseli obrazu, ważne żeby
wykorzystany był cały zakres jasności, histogram rozłożony na ‘prawie’
wszystkie poziomy jasności)
- (dla ortofotomapy) spadek kontrastu lokalnego w stosunku do obrazów
źródłowych (mierzony w światłach i cieniach) (kontrast lokalny detalu, im
bardziej odróżnia się od szczegółów w sąsiedztwie tym jest większa zdolność
rozpoznania go)

Z ROZPORZĄDZENIA
39. Ortofotomapę wykonuje się tak, aby w zakresie jakości radiometrycznej:
1) zmiany jasności i tonacji obrazu nie obniżały jej walorów interpretacyjnych;
2) w jej treści nie powstały efekty nieuzasadnione przez treść zdjęć lotniczych lub
zdjęć satelitarnych, na podstawie których opracowano ortofotomapy (np. rozmazania
na granicach lasów, podwójne odwzorowania dróg leśnych);
3) różnice jasności średnich, dla dwóch wybranych obszarów w obrębie
ortofotomapy, nie przekraczały 5 jednostek jasności składowych spektralnych. ktoś
rozumie o co chodzi? było o tym na wykładach?? - kurde, fajnie ze rozkminiacie takie
szczególy … zazdro ;(

70. Jakie parametry powinien posiadać poprawny histogram obrazu?


jak wyżej??
- stosunek odchylenia standardowego do liczby poziomów jasności (15-30% od
liczby poziomów jasności dla obrazu),
- efektywność (70-90% liczby poziomów jasności obrazu, ile wartości ze zbioru
zostało wykorzystanych do opisania jasności pikseli),
- liczebności graniczne (do 0,5% liczby pikseli obrazu, ważne żeby
wykorzystany był cały zakres jasności, histogram rozłożony na ‘prawie’
wszystkie poziomy janości)
71. Zalety nieliniowego rozciągania kontrastu.
Jeśli np użyjemy np funkcji density (na osi poziomej mamy obraz skanowany, a na
pionowej wynikowy), to pierwsze powiedzmy 10 pikseli, które są bardzo ciemne,
zostaną odwzorowane na 100 pikselach obrazu wynikowego. Tak więc zaletą
nieliniowego rozciągnięcia kontrastu jest wyciągnięcie informacji z cienia.
72. Jaki zalety przy walidacji obrazów ma model barw Lab?

73. Różnica pomiędzy DR kamery a rozdzielczością radiometryczną

DR kamery (zakres dynamiczny sensora) jest stosunkiem maksymalnej ilości światła,


jaką sensor może uchwycić, do minimalnej jego ilości. Maksymalny poziom sygnału
zależy od pojemności detektora, natomiast minimalny jest wynikiem szumu.

Natomiast rozdzielczość radiometryczna to liczba poziomów promieniowania


elektromagnetycznego w zakresach spektralnych rejestrowanych przez sensor,
wyrażona jako liczba bitów na jakie podzielono zakres jaskrawości. Jest określona jako
liczba 2 do potęgi bitów zarezerwowanej na zapis jasności na obrazie.

8bitów=2^8 = 256 poziomów

Powinna zachodzić zależność że: tzn. rozdzielczość radiometryczna powinna być


większa, aby sensor mógł zarejestrować maksymalny zakres jasności jaki może
uchwycić, aby liczba bitów przeznaczona za zapis była wystarczająca.

Skanowanie zdjęć
74. Charakterystyka skanera fotogrametrycznego/ porównanie ze „zwykłym”
skanerem
skaner fotogrametryczny:
- zdjęcia z tego skanera są kartometryczne - różnica w stosunku do zwykłego
skanera - nie jest to rozdzielczość tylko precyzja
- precyzja pozycjonowania głowicy skanera 1-2um (ważne z punktu widzenia
mapy) - precyzyjne odtwarzanie punktów na zdjęciach, bo potem robimy z
tego mapę
- wysoka jakość radiometryczna (można uzyskać nawet 16 bitów)
- format najczęściej 25x25cm
- geometria - precyzja w odtwarzaniu informacji radiometrycznej
- możliwość skanowania zdjęć w rolce bez ich rozcinania
- radiometria skanowania - każdy piksel ma przydzieloną wartość jasności
zwykły skaner:
- mała dokładność skanowania, około 20 um (300 dpi)
- zdjęcia są niekartometryczne - zdjęcia nie zawsze są płaskie i prostokątne, są
przesunięcia
75. Tryby skanowania (przeźroczystość, gęstość optyczna, korekcja
współczynnika gamma).

transmitancja (współczynnik przepuszczalności światła) - stosunek natężenia


światła przepuszczonego przez dany ośr. do natężenia światła padającego;
zwykle wyrażana w procentach.
Jest to najczęściej funkcja liniowa - w zależności od warunków oświetlenia na
zdjęciach (dla każdego z osobna). Aby wyciągnąć informacje z cieni zmniejsza się
Tmin i Tmax (zmniejszenie czułości) na całym zakresie skanowania (0-255).

Gęstość optyczna obrazu mówi o tym jak jasny jest obraz i jest mierzona za pomocą
urządzeń zwanych densytometrami. Może przyjmować wartości od 0 do 4, gdzie 0 oznacza
kolor biały, a 4 czarny. Skala gęstości optycznej jest skalą logarytmiczną, czyli gęstość 3
jest 10 razy większa od gęstości 2. Gęstość 4 nie jest maksimum teoretycznym, ale w
praktyce żaden obraz nie przekroczy tej gęstości. Zakresem dynamicznym skanera
nazywamy różnicę pomiędzy maksymalną a minimalną gęstością optyczną rozpoznawaną
przez skaner.
Gęstość optyczna to jeden z podstawowych parametrów mówiących o jakości skanera.
Oznacza zdolność rozróżniania szczegółów w najciemniejszych miejscach obrazu (a
pośrednio także w najjaśniejszych). Gwarowo parametr ten nosi nazwę dynamika skanera
lub głębia optyczna skanera. Za profesjonalne skanery można uważać te od D=3,2 w górę.
Dokładnie parametr ten oznacza maksymalną gęstość optyczną rozróżnialną przez skaner,
ponieważ istnieje również (rzadko podawany) parametr zakresu gęstości optycznych
skanera mówiący o zdolności rozróżniania miejsc zarówno najciemniejszych (o
największej gęstości), jak i tych najjaśniejszych.

Korekcja (modulacja) gamma – algorytm przetwarzania obrazu w grafice komputerowej.


Usuwa zniekształcenia wprowadzone przez urządzenia (np. monitor, skaner) poprzez
redukcję nadmiernego kontrastu obrazu wejściowego.

76. Warunki poprawnego skanowania.


- kształt histogramu powinien przypominać krzywą Gaussa (początek i koniec
histogramu blisko krańców, np 5-250), tak by wykorzystać cały zakres skanera
(z lekką rezerwą na ewentualne wyrównanie tonalne); nie wszystkie
histogramy wyglądają jak krzywa Gaussa, bo zależy to od terenu
- odpowiednie pomieszczenie, bez kurzu, klimatyzowane
- specjalnie przygotowana, oczyszczona klisza
- jeżeli materiał nie jest najlepszej jakości należy odpowiednio ustawić
parametry skanowania - korekcja f. gamma

Kompresja obrazów
77. Idea kompresji stratnej, cechy algorytmu JPEG, etapy, efektywność dla
obrazów barwnych i czarno-białych
Kompresja ma na celu zmniejszenie objętości pliku z tolerowaną stratą jakości
akceptowalną do danego wykorzystania.
Kompresja może być stratna (następuje utrata danych względem obrazu
pierwotnego, wielkość kompresji - rozmiar pliku po niej może być dowolnie
mały) lub bezstratna (brak utraty informacji, najlepsze metody zmniejszają
objętość pliku do 70% wielkości oryginału). Kompresja stratna — metoda
zmniejszania liczby bitów potrzebnych do wyrażenia danej informacji, które nie dają
gwarancji, że odtworzona informacja będzie identyczna z oryginałem. Dla niektórych
danych algorytm kompresji stratnej może odtworzyć informację w sposób identyczny.

Kompresje stratne: falkowe, fraktalne, JPEG.


Kompresja JPEG oparta jest na DCT (Discrete Cosine Transform).
Etapy kodowania JPEG:

- KODOWANIE KOLORU:

Zamiana kolorów na wartości Y Cb i Cr, proces odwracalny bez utraty


informacji o kolorze - zwiększa wydajność transformacji DCT.

- TRANSFORMACJA DCT: Polega na transformacji z przestrzeni


klasycznej na przestrzeń częstotliwości (Fourierowską). DCT pozwala na
zachowanie barw pikseli w transformowanym bloku przy jednoczesnym
zmniejszeniu informacji poświęconych na ich zapis.
- KWANTYZACJA:
Zamiana wartości zmiennoprzecinkowych na skwantyzowaną wielkość
jasności - na tym etapie utrata informacji polegająca na zaokrągleniu wartości
jasności do pełnych liczb. W tym momencie okazuje się że niewielkie wartości
obrazu w przestrzeni Fourierowskiej zaokrąglają się do 0 - można pominąć ich
zapisywanie w pewien sposób, ergo zmniejszyć wagę całego pliku poprzez
pominięcie tej części informacji (zer).

- KODOWANIE HUFFMANA LUB ARYTMETYCZNE:


Sposób zapisu obrazu współgrający z kwantyzacją, tj. dający wynikowo długie
szeregi zer które podczas zapisu można pomijać (zapisując np. informację o
ilości zer, nie same zera (obrazowo mówiąc)).
Współczynniki DCT są uporządkowywane zygzakowato, aby zera leżały obok
siebie. Współczynniki niezerowe są kompresowane algorytmem Huffmana. Są
specjalne kody dla ciągów zer.

78. Kiedy kompresja JPEG jest efektywniejsza: dla zdjęć wielotonalnych czy
małotonalnych (np. złożonych z elementów o kilku kolorach i mało zmiennym
nasyceniu i jasności)?
Im mniej szczegółów i złożoności obrazu, tym efektywniejsza kompresja.
Skuteczność kompresji jest duża wtedy, gdy występują długie ciągi takich samych
wartości. Jeżeli jednak pojawiają się pojedyncze wartości, to zamiast zysku może
wystąpić strata.
Zwróćmy uwagę na pewien problem związany z kodowaniem obrazów barwnych.
Jeżeli każdy piksel jest reprezentowany za pomocą trzech składowych RGB, to obraz
może być zapisany jako ciąg trójek RGB reprezentujących kolejne piksele albo za
pomocą trzech ciągów zawierających odpowiednio tylko składowe R albo tylko
składowe G albo tylko składowe B kolejnych pikseli (por. rysunek XV.2). Można
zauważyć, że w tym drugim przypadku efektywność kompresji może być większa, co
wynika stąd, że szansa na pojawienie się dłuższych ciągów identycznych wartości
jest większa w obrębie ciągu tych samych składowych (tworzących tak zwane
płaszczyzny odpowiednio R, G i B).

Matching
Znajdowanie odpowiednika, rozpoznanie podobnej cechy. To określenie
zależności między dwoma zestawami danych.

79. Realizacja ABM metodą korelacji krzyżowej – istota, opis matematyczny


ABM - Area Based Matching. - są to wysoko dokładnościowe techniki matchingu
(największa dokładność spośród pozostałych metod); wykorzystuje jasności pikseli (z
notatek)
- bazuje na algorytmach analizy sygnału, poszukuje charakterystycznych
wartości lub różnic sygnałów (np. gęstości optyczne)
- korelację bada się w 2 oknach (pierwotnym i poszukiwawczym)
- 2 metody: CC (Cross Correlation) - liczony max współczynnik korelacji
LSM (Least Squares Matching) - warunek (suma vv=min)
- możliwa transformacja afiniczna okna przeszukującego
- metoda dobra dla obszarów o dobrej teksturze

Metoda CC - zaliczana do grupy metod dopasowujących obszarami (area based


matching), której miarą jest współczynnik korelacji
80. Realizacja ABM metodą najmniejszych kwadratów (LSM) – istota, opis
matematyczny (ogólnie).
- hierarchiczne podejście “od ogółu do szczegółu”, bazowanie na piramidzie
obrazów
- poziom dokładności 0,1 piksela
- wieloobrazowe rozwiązania
- zmienna generalizacja
Least Squares Correlations Method używa estymacji metodą najmniejszych
kwadratów do określenia parametrów najlepiej określających okno pierwotne i
poszukiwawcze. Dotyczą zarówno wartości pxl jak i różnic geometrycznych, co jest
bardzo pomocne gdy element wygląda odrobinę inaczej na obu zdjęciach (wpływ
nachylenia terenu lub kąta fotografowania). Metoda jest iteracyjna, daje dobre efekty.
Początkowe położenie okna poszukiwawczego musi być dobrze określone z
dokładnością 2 pxl. Opis matematyczny zależy od tego, czy zmiany wartości szarości
między dwoma korelowanymi oknami mają charakter liniowej zależności czy nie, a
także od tego charakter jakiej transformacji (np. afinicznej) mają zmiany zachodzące
w geometrii obrazu.

81. Na czym polega FBM? (Feature Based Matching)


- wydzielenie grup pikseli (punkty, linie - zwane primitives)
- korelowanie primitives
- korelowanie listy cech (punkty, krawędzie, odcinki, poligony)
- element (feature) jest charakteryzowany przez: współrzędne, gęstość
optyczną, orientację, gradient, długość, krzywiznę linii, wielkość i średnią
gęstość optyczna poligonu
- jest bardzo szybki
- nie operuje na jasnościach
- główna technika: LSM (MNK); warunek suma vv=min (suma kwadratów
odchyłek między cechami oraz min funkcji kosztów)
- bazuje na wydobytych obiektach: extract features, lista, konsystencja

82. Na czym polega matching SIFT?


http://etacar.put.poznan.pl/marcin.kielczewski/SWwR9.pdf
83. Pola zastosowań matchingu w fotogrametrii.
Metody oparte na matchingu wykorzystywane są w fotogrametrii do różnych celów.
Główne zastosowania mają w następujących procesach:
- kalibracja,
- orientacja wewnętrzna,
- orientacja wzajemna (szukanie punktów wiążących)
- orientacja bezwzględna
- aerotriangulacja
- pozyskiwanie danych do NMT
- pozyskiwanie danych do 3D
- mozaikowanie
- wyrównanie totalne a nie tonalne? :D

84. Przydatność zdjęć epipolarnych w matchingu


Algorytm nie musi przeszukiwać całego zdjęcia, tylko szuka odpowiedników wzdłuż
promieni epipolarnych (rdzennych), na modelu stereoskopowym zbudowanym z
obrazów znormalizowanych.

85. Na czym polega gęsty matching.


Gęsty matching generuje model piksel po pikselu w odróżnieniu od
klasycznego matchingu który generuje model w siatce.
Dense Image Matching DIM aims at computing a depth value for each and every
pixel of image. This facilitates the generation of accurate and highly detailed digital
surface models DSMs.
//Until now, the studies performed on DIM have been mainly limited to nadir imagery,
with only a few studies addressing oblique images.

Celem gęstego matchingu jest znalezienie odpowiednika na drugim obrazie


stereopary dla każdego piksela obrazu bazowego.
To wyróżnia gęsty matching od tradycyjnego. Gęsty matching można przedstawić w
formie tablicy pikseli (mapa dysparycji) z wyznaczoną paralaksa podłużną – zwaną
dysparycją.

86. "Semi Global Matching" wg. Hirschmüllera.


SGM jest metodą wymyśloną przez Heiko Hirschmueller’a z DLR, Oberpfaffenhofen.
W odróżnieniu od najczęściej stosowanych dotychczas w pomiarach
fotogrametrycznych algorytmów bazujących na korelacji fragmentów obrazów,
algorytm SGM dopasowuje do siebie pojedyncze piksele zdjęć. Dzięki temu
rezultatem dopasowania obrazów metodą SGM jest bardzo gęsta chmura punktów.
Jej wygenerowanie wymaga bardzo niewielkiego nakładu dodatkowej pracy, gdyż
jednym elementem wejściowym są zdjęcia wraz z orientacją zewnętrzną.

Łączy zalety metod lokalnych i globalnych. Cechy algorytmu :


- poprawność odwzorowania krawędzi,a
- odporność na różnice co do radiometrii za rejestrowanych zdjęć,
- bardzo wysoka efektywność przetwarzania zbiorów danych o wysokiej
rozdzielczości

Odporność na zmiany radiometrii została zapewniona poprzez dobranie


odpowiedniej miary podobieństwa (funkcji kosztu).

Algorytm SGM zmodyfikował podejście z jakim wyznaczana była funkcja


energii w metodach globalnych poprzez wprowadzenie dwóch wysokości
kar, których to zadaniem jest zapewnienie lepszego modelowania krawędzi
obiektów. Algorytm pozwolił na wielokierunkową kumulację kosztu.
Przykłady pytań na stosowanie wiedzy w praktyce - ortorektyfikacja

1. Czy NMT musi być tak samo dokładny w całym obszarze opracowania, aby
wynik ortorektyfikacji spełniał kryteria dokładnościowe? Uzasadnić.

2. Jaki obraz powstanie w strefie zaznaczonej na rysunku, gdy jako model


użyty zostanie DTM (Digital Terrain Model), a jaki w przypadku DSM (Digital
Surface Model) (ortorektyfikacja wstecz)?

3. Obliczyć objętości plików obrazowych bez kompresji, warunki: zdjęcie


barwne, 23x23 cm, skanowanie z rozdzielczością 2000 dpi.

PAN=8 bit =1 bajt=1px


1px=1 bajt
dla zdjęcia 100x100px -> 10000 bajt *8=80000 bit

RGB=3*8 bit = 24 bit


24 bit = 3 bajt = 3 px

1 cal = 2,54 cm
zdjęcie 23 x 23 cm
rozdzielczość: 2000 dpi
1um= ?dpi

(23/2,54)x(23/2,54)= 9,06 x 9,06 cal


lp1= 9,06 cal * 2000 dpi= 27180 px
lp2= 9,06 cal * 2000 dpi= 27180 px

lc=lp/dpi -> dpi=lp/lc


1cm=0,394 cal
1um=0,0000394 cal
dpi=...
……………………..?

___________

piksel w mikrometrach to (25,4*1000)/DPI ← wzór z pytania 32


czyli jakby podstawić DPI=2000, to wyjdzie piksel skanowania 12,7 mikrometrów

1 piksel -------- 12,7 mikrometrów


x -------- 230 * 1000 mikrometrów (przeliczenie mm na um)

x=18110 pikseli ← wymiar zdjęcia w pikselach

powierzchnia zdjęcia to 18110*18110 pikseli i mnożymy to jeszcze razy 3, bo RGB.


Dla RGB 1 piksel to 3 bajty, więc 18110*18110*3 = 983916300 bajtów = 984 Mb

nie wiem czy to ma sens, ale wszystkie dane zostały wykorzystane i nic nie brakło :P

You might also like