Fotogrametria Flashcards

1
Q

Po co tworzy się mapy cieni?

A

Aby otrzymać informacje o terenie. Gdzie są jego przewyższenia, a gdzie obniżenia.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Z jakim pikselem najlepiej tworzyć mapę spadków?

A

Jeżeli chcemy je bardzo dokładnie zbadać, to piksel musi być zbliżony do odległości pomiędzy punktami w chmurze punktów albo większy, żeby nie było w mapie dziur.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Co jest potrzebne do stworzenia chmury punktów?

A

Elementy orientacji zewnętrznej, metryka kamery, NMT.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Kamera typu FMC oznacza kamerę

A

z kompresją rozmazania

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

TDI to

A

elektroniczny system kompresji rozmazania obrazu

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Kamera typu AMC oznacza kamerę:

A

na stabilizowanym podwieszeniu.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Dystorsja radialna jest wynikiem

A

konstrukcji obiektywu i położenia przysłony

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Powłoka antywinietowa obiektywu

A

wyrównuje spadek jasności w polu widzenia

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Rozkład normalny, rozkład Gaussa N(μ,σ)

A

Wykres funkcji prawdopodobieństwa tego rozkładu jest krzywą w kształcie dzwonu (tak zwaną krzywą dzwonową). Rozkład normalny jest też bardzo intuicyjny: większość obserwacji jest skupiona wokoło średniej, obserwacje leżące dalej od średniej występują rzadziej.

N(μ,σ)
μ oznacza wartość oczekiwaną, czyli średnią
σ oznacza odchylenie standardowe- im większe odchylenie standardowe tym częściej występują obserwacje bardziej oddalone od średniej.

W okolicy wartości średniej(w odległości σ) znajduje się 68% obserwacji.
[μ−σ,μ+σ] 68.2%
[μ−2σ,μ+2σ] 95.4%
[μ−3σ,μ+3σ] 99.7%

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Porównywanie możliwości interpretacyjnych (zdolności rozdzielczej) zdjęć analogowych i zdjęć cyfrowych (o takim samym pikselu terenowym) pokazuje, że

A

zdjęcia cyfrowe mają 1,5 – 2,0 razy większą zdolność rozdzielczą

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

W czystej atmosferze

A

przeważa rozproszenie molekularne

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Kamera DMC ma

A

4 głowice panchromatyczne i 4 głowice wielospektralne

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

AWAR oznacza:

A

średnią zdolność rozdzielczą w formacie zdjęcia

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Graniczna zdolność rozdzielcza układu obiektyw – emulsja to:

A

punkt przecięcia obiektywu MTF (obiektywu) z progiem kontrastu emulsji

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Stabilizacja podwieszenia współczesnych kamer pozwala poziomować kamerę z dokładnością około:

A

0,5 stopnia

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

We współczesnych analogowych kamerach pomiarowych stosowane są migawki

A

centralne rotacyjne

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Porównywanie współczesnych kamer cyfrowych (wielkoformatowych) z szerokokątna kamerą analogową w zakresie dokładności opracowania wysokościowego pokazuje, że

A

oba typy kamer dają zbliżone dokładności opracowania wysokościowego

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Przy pomiarze położenia kamery w locie opartym o GPS, położenie kamery rejestruje się:

A

co 1 sek.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Zdjęcia prawie pionowe mają odchylenia od linii pionu nie większe niż:

A

3 stopnie

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

Skanowanie lotniczych współczesnych zdjęć analogowych bez utraty rozdzielczości zapewnia rozdzielczość skanowania (piksel) około:

A

11-15 m*10^(-6) (mikrometrów)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

Integracja GPS/INS jest konieczna do:

A

wyznaczenia położenia środków rzutów i kątów nachylenia kamery

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

Do wykonawstwa zdjęć lotniczych do celów pomiarowych dopuszcza się minimalną wysokość słońca

A

25 stopni

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
23
Q

Polska jest regularnie kryta (cykl 5 lat) zdjęciami w skali

A

1:26 000 i 1:13 000

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
24
Q

Orbita heliosynchroniczna umożliwia obrazowanie:

A

przy tym samym azymucie słońca

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
25
Q

Obrazowanie mikrofalowe (radarowe) wykorzystuje zakres fal o długości:

A

kilka cm

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
26
Q

Wynikiem lotniczego skanera laserowego (LIDAR) jest chmura punktów tworząca w przybliżeniu:

A

NMPT

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
27
Q

Źrenica wejściowa obiektywu to:

A

obraz fizycznej przesłony utworzony przez część obiektywu poza przysłoną

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
28
Q

Elementy orientacji zewnętrznej kamery to:

A

kąt nachylenia kamery i współrzędne położenia kamery

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
29
Q

Punkt nadirowy zdjęcia ma te własności, że:

A

kąty na zdjęciu o wierzchołku w tym punkcie nie są obarczone wpływem nachylenia

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
30
Q

Typowe pokrycie podłużne zdjęć w szeregu (dla opracowań sty.- wys.) wynosi:

A

60%

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
31
Q

Promien rdzenny na zdjeciu to:

A

prosta przechodzaca przez punkt glowny zdjecia

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
32
Q

Punkt nadirowy zdjecia to:

A

przeciecie plaszczyzny zdjecia linia pionu przechodzaca przez srodek rzutow.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
33
Q

Elementy orientacji zewnetrznej obrazu pozyskiwanego lotniczym skanerem elektrooptycznym muszą być mierzone w locie z wykorzystaniem:

A

polączenia systemu GPS i INS

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
34
Q

Podstawą komputerowego rozpoznawania obiektow ( klasyfikacja nadzorowana i nienadzorowana) jest:

A

komputerowa analiza kształtu tekstury i struktury obrazu rozpoznawanych obiektów

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
35
Q

Do wytworzenia cyfrowej ortofotomapy konieczne są następujące dane początkowe:

A

zdjęcie w postaci cyfrowej, elementy orientacji wewnętrznej i zewnętrznej zdjęcia, NMT.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
36
Q

Ze zdjec lotniczych wykonywanych z kamerą szerokokątną w skali 1:13000 można wygenerować NMT o dokładności wysokościowej (blad sredni):

A

04-0,6m

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
37
Q

Numeryczny model pokrycia terenu (NMPT) zawiera informacje o wysokosci:

A

Powierzchni topograficznej gruntu oraz obiektow wystajacych ponad teren

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
38
Q

Numeryczny model terenu (NMT) reprezentowany w strukturze GRID zwiera:

A

wys. punktow w regularnej siatce

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
39
Q

Kompensacja rozmazana w kamerach z matryca CCD o duzej rozdzielczosci realizowana jest poprzez:

A

ruchy matry CCD podczas ekspozycji

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
40
Q

Na segment pokładowy lotniczego skanera laserowego LIDAR składają się następujące niezbędne do działania elementy:

A

dalmierz laserowy, GPS, INS

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
41
Q

Zdjęcie przetworzone na przetworniku fotomechanicznym różni się od zdjęcia nieprzetworzonego tym, że:

A

w zdjęciu przetworzonym są wyeliminowane błędy spowodowane nachyleniem zdjęcia

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
42
Q

W opracowaniu stereogramu na autografie można wyróżnić etapy realizacji.

A
  1. Rekonstrukcja elementów orientacji wewnętrznej
  2. Orientacja wzajemna
  3. Orientacja bezwzględna
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
43
Q

Warunek kolinearności to wyraz zależność między:

A

współrzędnymi tłowymi obrazu punktu na zdjęciu, współrzędnymi terenowymi tego punktu i el. or. wew. i zew. zdjęcia.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
44
Q

Paralaksa poprzeczna to:

A

q = y’-y”

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
45
Q

Elementy orientacji zewnętrznej zdjęcia kamery to:

A

kąt nachylenia kamery ω,φ,κ i współrzędne położenia kamery (X,Y,Z)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
46
Q

Dla zbudowania modelu (t. orientacji wzajemnej) potrzebne są punkty o danych współrz. ter. W liczbie nie mniejszej niż:

A

4

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
47
Q

Macierz obrotu zdjęcia jest:

A

macierzą 3 x 3 elementarną, której parametrami są kąty obrotu ω,φ,κ

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
48
Q

Współrzędne przestrzenne obiektu dla przypadku „normalnego” zdjęć naziemnych wytyczna Y=B/py”, X=B/px”, Z=B/p*z” współrzędne te są wyrażane w układzie współrzędnych takim że:

A

początek znajduje się w połowie długości i bazy, oś „Z” pokrywa się z linią pionu, oś „Y” pokrywa się z linia bazy, oś „Y” jest równoległa do osi lewego zdjęcia.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
49
Q

Przestrzenne wcięcie wstecz pozwala:

A

wyznaczyć elementy orientacji zewnętrznej zdjęcia, konieczne są do tego min 3 fotopunkty odfotografowane na każdym z nich.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
50
Q

Fotopunkty stanowiące wysokościową osnowę fotogrametryczną położone są w bloku aretrangulacji:

A

w strefie brzegowej bloku, wokół po jego obwodzie

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
51
Q

W kontekście orientacji wzajemnej warunek: iloczyn mieszany wektorów ma się równać zero.

A

dotyczy komplenarności wektora bazy i wektorów zdjęcia lewego i prawego

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
52
Q

Punkt izometryczny zdjęcia to:

A

punkt przebicia płaszczyzny zdjęcia przez dwusieczna kąta utworzonego przez główna oś kamery i linie pionową przechodzącą przez środek rzutów.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
53
Q

Punkt główny zdjęcia to:

A

spadek prostopadły środka rzutów na płaszczyznę zdjęcia.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
54
Q

Fotogrametria

A

photos - światło
gramma - zapis
metreo - pomiar
fotogrametria - pomiar obrazów zapisanych światłem

Fotogrametria jest działem nauki i praktyki zajmującym się określaniem położenia, wymiarów i kształtu obiektów przestrzennych na podstawie ich zdjęć fotograficznych (i obrazów).

55
Q

Kamera typu kadrowego to:

A

zespół kamer złożony z kilku (zwykle 4) głowic panchromatycznych i 4 głowic wielospektralnych. 4 głowice panchromatyczne dają łącznie wirtualny obraz panchromatyczny o bardzo dużej rozdzielczości. Głowice wielospektralne mają mniejszą zdolność rodzielczą, kąt widzenia każdej z nich odpowiada łącznemu polu widzenia 4-ch głowic panchromatycznych.

56
Q

Błędy geometryczne zdjęcia lotniczego:

A
  • deniwelacje terenu
  • nachylenie zdjęcia
  • dystorsja obiektywu

Te błędy mogą zostać usunięte w procesie opracowania.

zdjęcie lotnicze => rzut środkowy
mapa => rzut ortogonalny

57
Q

Idea analogowego opracowania pojedynczego stereogramu

A

Opracowanie autogrametryczne sprowadza się do zasady „podwójnej
projekcji”, tzn. rekonstrukcji wiązek, rekonstrukcji położenia wiązek
i przestrzennego wcięcia w przód z bazy projekcji.
Jest to więc zadanie odwrotne do fotografowania.

Rekonstrukcja wiązek (tj. rekonstrukcja elementów orientacji
wewnętrznej kamery/zdjęcia) sprowadza się to odpowiedniego
scentrowania zdjęć na nośnikach w projektorach autografu
(koszach kamer) i odłożeniu odpowiedniej odległości
obrazowej zdjęć.

58
Q

Etapy opracowania na autografie

A
  1. Rekonstrukcja wiązek (tj. el. or. wewnętrznej)
  2. Orientacja wzajemna zdjęć (wiązek), tj. budowa modelu
  3. Orientacja bezwzględna modelu
     skalowanie modelu
     poziomowanie modelu
  4. Właściwy pomiar (np. tworzenie mapy syt. - wys.)
59
Q

Orientacja wzajemna zdjęć. Budowa modelu

A

Orientacja wzajemna zdjęć sprowadza się do usunięcia paralaks
poprzecznych z powierzchni stereogramu (tzw. strojenie zdjęć).
W praktyce sprowadza się to usunięcia paralaks w 6 charakterystycznych
obszarach stereogramu. Paralaksę usuwa się ruchami (liniowymi i
obrotami kątowymi) wiązek (zdjęć).
Do budowy modelu nie są konieczne fotopunkty.
Są 2 grupy metod strojenia zdjęć :
1. Orientacja metodą ruchów
kątowych obu kamer.
Wykorzystuje się ruchy:
2. Orientacja metodą „dostrajania”
zdjęcia prawego do lewego.
Wykorzystuje się ruchy:
Istnieją różne „recepty” or. wzajemnej. Zawsze jest to proces iteracyjny.

60
Q

Orientacja bezwzględna modelu

A

 skalowanie modelu
 poziomowanie modelu
Do orientacji bezwzględnej
modelu konieczne są 3 fotopunkty

61
Q

Klasyfikacja autografów (wg. rodzaju projekcji):

A

 a. z projekcją optyczną
 a. z projekcją mechaniczną
 a. z projekcją optyczno-mechaniczną
 a. z projekcją analityczną (a. analityczne)
 a. cyfrowe (cyfrowe stacje fotogrametryczne) DPW

62
Q

Istota obserwacji stereoskopowych:

A

“wskazanie” punktów homologicznych

63
Q

Podstawy dopasowania obrazów

A

 Pomiar (manualny) stereoskopowy a dopasowanie obrazów
=> znalezienie odpowiedniości dwóch fragmentów obrazów,
reprezentowanych przez elementy źródłowe obrazów, tzw. prymitywy
(np. gęstości optyczne, lub cechy wyekstrahowane, np. krawędzie)

 Zastosowanie w fotogrametrii:
- Automatyczny pomiar znaczków tłowych (orientacja wewnętrzna zdjęć)
- Automatyczny pomiar punktów przejściowych (orientacja wzajemne,
aerotriangulacja)
- Generowanie NMT (automatyczny pomiar wysokości)

Dopasowanie obrazów => ang: Image Matching

64
Q

Korelacja krzyżowa

A

Idea automatycznego poszukiwania punktów homologicznych na parze zdjęć
stereoskopowych, oparta na porównaniu jasności pikseli

65
Q

Warunki udanego dopasowania

A

 oba obrazy muszą być pozyskane w tym samym zakresie spektralnym,
 obrazowanie w tym samym czasie
 obiekty są nieruchome
 powierzchnia obrazowanego obiektu jest „gładka” (nie występują
nieciągłości powierzchni)
 powierzchnia obiektu jest nieprzezroczysta

66
Q

Metody dopasowania obrazów

A

 Dopasowanie powierzchniami – ABM (ang. Area Based Matching).
 Dopasowanie cechami – FBM (ang. Feature Based Matching).
 Dopasowanie relacyjne (lub symboliczne) (ang. Relational Matching,
Symbolic Matching).

67
Q

Zalety metody FBM (w porównaniu z ABM):

A

 wystarcza gorsze przybliżenie początkowe
 bardziej odporna na różnice gęstości optycznej spowodowane
oświetleniem, kątem obserwacji, czy innymi czynnikami
 bardziej odporna na różną geometrię obrazów spowodowaną
deniwelacjami i nieciągłością powierzchni
 szybka

68
Q

Zdjęcia znormalizowane

A

 Podejście powszechnie stosowane w cyfrowych stacjach
fotogrametrycznych (wyświetlane obrazy są pozbawione paralaksy
poprzecznej)
 Obecnie proces przekształcenia realizowany „w locie”

69
Q

Tworzenie piramidy obrazu

A

Metody:
 metoda próbkowania co n-ty piksel (ang. subsampling), zwykle co 2-gi
piksel, bez uśrednienia (bez zmiany gęstości optycznej),
 przepróbkowanie z uśrednieniem (ang. averaging),
 przepróbkowanie z filtrowaniem metodą Gaussa

70
Q

Porównanie metod tworzenia piramidy obrazu

A

Metody:
 Metoda próbkowanie bez uśredniania jest metodą najszybszą
 Przepróbkowanie z uśrednieniem jest metodą wolniejszą od poprzedniej,
ale szybszą od przepróbkowania z filtrowaniem metodą Gaussa. Daje lepszy efekt końcowy
 Przepróbkowanie z filtrowaniem metodą Gaussa jest metodą najwolniejszą, ale daje najlepsze rezultaty. Ta metoda jest zalecana jeśli
przewiduje się dopasowanie obrazów na dalszych etapach opracowania.

Piramida obrazu przydatna również:
 Przy automatycznym generowaniu NMT
 Pozwala na znaczne usprawnienie wyświetlania obrazów na monitorze,
oraz zmianę powiększenia

71
Q

Obserwacje stereoskopowe na DPW:

A
 Separacja przestrzenna
 Separacja spektralna
 Separacja czasowa:
- metoda polaryzacyjna (metoda pasywna)
- metoda aktywna (aktywne okulary LCD)
72
Q

DPW – automatyzacja

A

 Fotogrametria cyfrowa wyróżnia się na tle fotogrametrii analogowej
i analitycznej możliwością automatyzacji procesów pomiaru i opracowania
zdjęć. To głównie stanowi o zaletach DPW, w porównaniu z autografem analitycznym.

 W zakresie automatyzacji największy udział i sukces mają techniki dopasowania obrazów. Pozwoliło to wyeliminować obserwatora
i obserwacje stereoskopowe z wielu operacji pomiarowych.

 Dopasowanie obrazów pozwoliło zautomatyzować proces orientacji wewnętrznej zdjęć i pomiar punktów homologicznych na stereogramie (opracowanie pojedynczego stereogramu), czy zespole zdjęć
(aerotriangulacja). Uczyniło to tak złożony proces jak aerotriangulacja prawie całkowicie zautomatyzowanym.

 Automatyczne dopasowanie obrazów pozostawia część obserwacji
błędnych. Bardzo duża nadliczbowość obserwacji pozwala wbudować
w przebiegi procesów procedury mające na celu automatyczne
wychwycenie i wyeliminowanie takich „odstających” obserwacji. Jest to możliwe właśnie dzięki nadliczbowości obserwacji, a proces może
przebiegać płynnie, bez zacięć i ingerencji operatora.

73
Q

Przebieg podstawowych etapów opracowania zdjęć na DPW

A

Przebieg podstawowych etapów opracowania zdjęć na DPW:
 Prace przygotowawcze
- definicję projektu, włączającą przyjęte jednostki, założone tolerancje
dokładnościowe, skalę zdjęć, dane kalibracyjne kamery, dane
fotogrametrycznej osnowy terenowej, parametry systemu, dane o
zdjęciach

 Orientacja wewnętrzna:
Polega na transformacji z układu pikselowego (kolumny, wiersze) do
układu współrzędnych tłowych zdjęcia, definiowanego przez znaczki
tłowe
- pomiar (wskazanie) obrazów znaczków tłowych zdjęcia:
* monokularny
* automatyczny
* półautomatyczny
W przypadku zdjęć wykonanych kamerami cyfrowymi nie ma znaczków
tłowych, a układ współrzędnych tłowych jest definiowany przez
strukturę wierszy i kolumn przetwornika CCD (patrz: wykład, sem. 4).

 Orientacja wzajemna
Celem orientacji wzajemnej jest określenie wzajemnych relacji
geometrycznych obu zdjęć tworzących stereogram. W rezultacie tworzy
się model przestrzenny, a ze stereogramu zostają usunięte paralaksy
poprzeczne. Polega na usunięciu paralaks w wybranych miejscach
stereogramu:
- manualnie
- automatycznie
- półautomatycznie (manualnie ze wspomaganiem korelatora obrazów)
Po wykonaniu orientacji wzajemnej zdjęcia mogą być przetworzone do tzw.
zdjęć znormalizowanych. Zdjęcia takie są wyświetlane na monitorze bez
paralaks poprzecznych (dobry efekt stereo na całym ekranie)

 Orientacja bezwzględna
Polega na przetransformowaniu przestrzennego modelu (zbudowanego w
wyniku orientacji wzajemnej) na układ zewnętrzny na podstawie
pomierzonych na modelu kilku fotopunktów o znanych współrzędnych
terenowych
- W praktyce orientacja bezwzględna na DPW sprowadza się do
manualnego pomiaru fotopunktów (mono lub stereo)

 Inne procesy technologiczne na DPW:
Powyższe etapy stanowią rutynowe prace przygotowawcze przed
właściwym opracowaniem. To opracowanie może przybrać różną postać:
- pomiaru wysokościowego form i punktów dla zbudowania NMT,
- pomiaru obiektów terenowych dla tworzenia mapy numerycznej w
postaci wektorowej,
- ortorektyfikacji zdjęć, z wykorzystaniem NMT opracowanego
wcześniej z tych samych zdjęć, lub z wykorzystaniem już gotowego
NMT,
- innego opracowania, bazującego na pomiarze przestrzennym.

74
Q

DPW a autograf analityczny

A

Kluczowa różnica to forma danych wejściowych, tj. zdjęć
Wśród konkretnych różnić wskazujących na przewagę DWP można wymienić:
1. Możliwości korekcji radiometrycznej wyświetlanych zdjęć bezpośrednio w zasięgu
operatora: zmiana powiększenia, zmiana kontrastu, jasności, koloru, wyrównanie tonalne w
obrębie zdjęcia i bloku zdjęć, itp.
2. Znacznie większa uniwersalność DWP dzięki nieobecności tradycyjnego sprzętu
fotogrametrycznego jak stereokomparator, czy nakłuwacz i przejęcie ich roli przez DWP.
3. Brak komponentów mechaniczno-optycznych z ruchomymi elementami, wymagającymi
serwisowania i okresowej kalibracji.
4. Możliwość obserwacji więcej niż jednej pary zdjęć, co ma doniosłe znaczenie przy pomiarze
punktów przejściowych w bloku zdjęć podczas realizacji aerotriangulacji.
5. Możliwość obserwacji stereoskopowej bez układu optycznego przez kilka osób
jednocześnie, co ma znaczenie np. w procesie szkolenia.
6. Obsługa DWP jest bardziej przyjazna dla operatora niż autograf analityczny, co umożliwia jej
obsługę przez mniej zaawansowanych operatorów.
7. Możliwość generowania cyfrowej ortofotomapy, obecnie najbardziej popularnego produktu
fotogrametrycznego. Ortofotomapa ma postać rastrową i jako taka nie jest możliwa do
opracowania na autografie analitycznym.
8. Łatwość wizualizacji produktów DWP i łączenia ich z innymi aplikacjami użytkownika,
a w tym ze środowiskiem GIS.
9. Duży stopień automatyzacji procesów opracowania zdjęć.
10. Możliwość pracy w sieci.

75
Q

Aerotriangulacja – uwagi wstępne

A
1. Opracowanie fotogrametryczne można sprowadzić do opracowania
kolejnych modeli (stereogramów) pokrywających obiekt.
  1. Do takiego opracowania konieczna jest znajomość:
     elementów orientacji zewnętrznej każdego ze zdjęć,
    lub
     terenowych współrzędnych przestrzennych (X,Y,Z) grupy punktów
    na każdym stereogramie.
  2. Dane te (tj. elementy orientacji zewnętrznej każdego ze zdjęć lub
    współrzędne przestrzenne (X,Y,Z) grupy punktów) wyznacza się zwykle
    nie poprze pomiar (elementy w locie a punkty w terenie), ale kameralnie, metodami fotogrametrycznymi, w tzw. procesie aerotriangulacji.
 Na obszarze opracowania,
złożonym z wielu szeregów
i zdjęć, istnieje pewna
(nieliczna) grupa punktów o
współrzędnych wyznaczonych
metodami geodezyjnymi – tzw. fotopunktów.
 W procesie aerotriangulacji
wyznacza się (kameralnie)
współrzędne punktów na
każdym stereogramie w liczbie
koniecznej do dalszego
opracowania stereogramu, stąd
mówi się, że aerotriangulacja to
kameralne zagęszczenie
istniejącej osnowy geodezyjnej

Aerotriangulacja sprowadza się do połączenia dużej liczby zdjęć (bloku
zdjęć złożonego z wielu szeregów) w jednolitą sieć geometryczną,
wyrażoną zwykle w zewnętrznym, przestrzennym układzie
współrzędnych geodezyjnych.
Warunkiem jest pokrycie wzajemne szeregów i zdjęć w szeregach:
 podłużne p > 60%,
 poprzeczne q > 25%.

Celem aerotriangulacji jest:
 określenie (wyznaczenie) elementów orientacji zewnętrznej zdjęć
(XO, YO, ZO, ω, φ, κ),
 wyznaczenie przestrzennych współrzędnych terenowych punktów
przejściowych (X, Y, Z)

76
Q

Georeferencja wprost

A

Georeferencja wprost polega na bezpośrednim pomiarze elementów orientacji
zewnętrznej kamery, tj. bez udziału fotopunktów. Konieczne jest w tym celu
uwzględnienie przestrzennych i czasowych relacji między trzema systemami:
GPS, INS i kamery. Sprowadza się to do przestrzennej (3D) transformacji
wektora obrazowego r^0 (wektora obrazu punktu w przestrzennym układzie
współrzędnych kamery) do wektora ri^m
m punktu terenowego w terenowym
(geodezyjnym) układzie współrzędnych.

77
Q

Systemy INS

A

Sercem systemu INS jest inercyjna jednostka pomiarowa – IMU (Inertial
Measurement Unit), „na głucho” zintegrowana z obudową kamery. W
jednostce znajdują się trzy akcelerometry mierzące przyśpieszenia wzdłuż
trzech ortogonalnych osi i triada żyroskopów sztywno związanych z osiami
poruszającej się kamery. Obecnie nie są to tradycyjne żyroskopy z wirującymi masami, lecz żyroskopy laserowe, oparte na technologii światłowodowej, nie zawierające ruchomych elementów.

Pozycja oraz orientacja w systemach INS jest wyliczana na podstawie zmierzonych przyśpieszeń i kursu. Integracja tych wielkości nazywana jest mechanizacją surowych pomiarów.

W wyniku dość złożonej obróbki pomiarów można wyznaczyć wartości kątowe orientacji kamery oraz przyrosty współrzędnych przebyte przez kamerę.

System INS dostarcza bardzo dokładne wyniki względne, niestety, wartości bezwzględne pogarszają się istotnie wraz z upływem czasu pracy systemu (tzw. dryft).

78
Q

Integracja GPS/INS

A

Integracja obserwacji uzyskanych w systemach GPS i INS w znaczący sposób poprawia osiągane dokładności i eliminuje ich wady.

Wykorzystuje się tu fakt, że oba systemy pozycjonowania mają różną propagację błędów, co czyni je wzajemnie komplementarnymi.

Z jednej strony to wykorzystanie wysokiej dokładności, jaką w krótkim
okresie czasu osiągają systemy INS, do wygładzenia obserwacji GPS. Położenie i prędkość pomierzone przez INS pomaga odbiornikowi GPS
wyznaczyć nieoznaczoność fazy, zniwelować wpływ utraty cykli oraz zakłóceń odbioru sygnału z satelitów GPS.

Z drugiej strony, wysoka stabilność GPS umożliwia wykorzystanie jego
obserwacji do kompensacji błędów systematycznych systemu INS, związanych z pogarszaniem wyników wraz z upływem czasu.

W pierwszym etapie obserwacje z obu urządzeń są filtrowane przez własne
dedykowane filtry i dopiero po tym następuje integracja w filtrze wspólnym.

Praktycznie realizowane jest to w ten sposób, że filtry przez większość czasu pracują oddzielnie i co jakiś określony interwał wyniki z jednego systemu są używane jako pseudoobserwacje do korekcji pomiarów drugiego systemu. W tym procesie powszechnie stosuje się filtr
Kalmana.

79
Q

Numeryczny Model Terenu - definicja

A

Numeryczny Model Terenu jest dyskretną (punktową,
liniową) reprezentacją wysokości topograficznej
terenu, wraz z algorytmem interpolacyjnym
umożliwiającym odtworzenie jej kształtu w określonym
obszarze
z = f(x,y)

(DTM - Digital Terrain Model)

80
Q

Numeryczny Model Pokrycia Terenu (NMPT) - definicja

A

Numeryczny Model Pokrycia Terenu (NMPT) odnosi się do
powierzchni terenu wraz ze znajdującym się na niej naturalnym
(np. lasy) lub sztucznym pokryciem (np. zabudowania), tj.
opisuje powierzchnię terenu wraz z obiektami ponad nią
„wystającymi”

Inaczej:
 Numeryczny Model Powierzchni Topograficznej wraz z
pokryciem
 Numeryczny Model Powierzchni

Odpowiednik w literaturze:
Digital Surface Model (DSM)

81
Q

Numeryczny Model Terenu – produkty pochodne:

A
 profile poprzeczne
 mapa warstwicowa
 mapa spadków
 mapa ekspozycji stoków (mapa nasłonecznienia)
 mapa widoczności
 różne rodzaje wizualizacji terenu.
82
Q

Lotniczy skaning laserowy – zasada działania

A
  • Wykorzystuje dalmierz laserowy.
  • Działa w zakresie
    podczerwieni (bliska podczerwień, do 1540 nm) lub rzadziej w zakresie widzialnym;
  • Wykorzystuje impulsową metodę pomiaru z częstotliwością rzędu 2 - 100 kHz, czyli próbkuje kilka - kilkadziesiąt tysięcy punktów na sekundę;
  • Promienie światła są kierowane na teren
    w płaszczyźnie poprzecznej do kierunku lotu, za pomocą zwierciadła (obrotowego lub
    wahadłowego); lub światłowodem
83
Q

Przetwarzanie rzutowe zdjęcia lotniczego

A

Przetworzenie (opracowanie) pojedynczego zdjęcia

Cel opracowania:
 wyeliminowanie zniekształceń perspektywicznych, spowodowanych
nachyleniem zdjęcia,
 doprowadzenie do jednorodnej, żądanej skali

84
Q

Idea ortorektyfikacji zdjęcia lotniczego

A
Istnieje matematyczna zależność
między punktem terenowym (XYZ),
pikselem ortofoto (XY) i jego
obrazem (xy).
Zależność tą stanowi warunek
kolinearności
85
Q

Cyfrowa ortofotomapa

A

Ortofotomapa cyfrowa
jest rastrowym, ortogonalnym i kartometrycznym obrazem
terenu, który powstał w wyniku cyfrowego przetworzenia
skanowanych zdjęć lotniczych
i satelitarnych, lub obrazów cyfrowych.
W trakcie przetworzenia usunięte zostają zniekształcenia
występujące na zdjęciu (obrazie) spowodowane geometrią
i deniwelacjami terenu. Ortofotomapa zachowuje zasób
informacji jak zdjęcie (obraz) z dodatkową możliwością
pomiaru współrzędnych płaskich (posiada georeferencję).

86
Q

Przepróbkowanie (resampling) - metody

A

Metody:
 najbliższego sąsiedztwa (Nearest Neighbor),
 interpolacja bilinearna (Bilinear Interpolation),
 splotu sześciennego (Cubic Convolution),
 wykładnicza (Expotential).

87
Q

3D model miasta

A

3D model miasta to cyfrowy opis, w tym trójwymiarowej geometrii, terenu,
ulic, roślinności oraz budynków w terenie zabudowanym.

Model miasta 3D jest przestrzennym, wirtualnym odwzorowaniem bryły
miasta (lub pojedynczego obiektu) w przyjętym, przestrzennym układzie
odniesienia. Modeli taki zawiera powierzchnię topograficzną terenu w formie
numerycznego modelu terenu (NMT), wraz z obiektami „wystającymi” ponad tę powierzchnię, a więc bryły budynków i inne obiekty topograficzne (drogi,
cieki, mosty, itp.), oraz obiekty infrastruktury technicznej (rurociągi, linie
energetyczne, mosty itd.). Model taki zawiera zwykle również model roślinności. Poszczególne obiekty oprócz reprezentacji geometrycznej
mogą mieć również atrybuty opisowe (tak jak obiekty w bazie danych topograficznych).

Wszystkie elementy modelu (wszystkie punkty modelu) mają przestrzenne współrzędne (X, Y, Z) w przyjętym układzie
współrzędnych (podobnie jak mapa numeryczna).
Istotna różnica sprowadza się do trójwymiarowej reprezentacji (zwykła mapa jest „plaska”).

Obiekty oprócz reprezentacji graficznej mogą mieć listę
atrybutów opisowych (tak jak obiekty w bazie danych
topograficznych).

Obiekty w modelu mogą mieć różny stopień szczegółowości
reprezentacji detali, aż do pokrycia ścian budynków teksturami wziętymi ze zdjęć fotograficznych i nadania światłocienia, co przydaje modelowi znamion „realności”.

88
Q

Poziomy szczegółowości LoD (Level-of-Detail) wg. CityGML:

A

 LoD 0:
model regionalny, typu 2.5D, NMT z nałożoną ortofotomapą,
bez reprezentacji 3D budynków.
Odpowiednik skali: < 1:50 000
 LoD 1:
blokowy model miasta, bez kształtu dachów, budowany
poprzez „podniesienie” obrysów budynków. Kompletność
powyżej 6x6 m. Odpowiednik skali: 1:5000 – 1:50 000
 LoD 2:
model miasta z oddaniem kształtu dachów, teksturami
i roślinnością. Kompletność powyżej 4x4 m.
Odpowiednik skali: 1:1000 – 1:5000
 LoD 3:
model miasta ze szczegółowymi elementami kształtu (oknami i
drzwiami), roślinnością, uzbrojeniem pasa drogowego.
Kompletność powyżej 2x2 m
 LoD 4:
model wnętrz, szczegółowe modele architektoniczne z
wewnętrznymi strukturami jak np. ścianami wewnętrznymi,
pomieszczeniami i meblami. Kompletność powyżej 0,2x0,2 m.

89
Q

Klasyfikacja technik / metod budowy modeli 3D:

A
 Model blokowy (metoda uproszczona)
 Metoda fotogrametryczna (lotnicza)
 ALS – lotniczy skaning laserowy (LiDAR)
(Airborne Laser Scanning)
 TLS – naziemny skaning laserowy
(Terrestrial Laser Scanning)
 Fotogrametria naziemna (cyfrowa)
 MMS – mobilny system pomiarowy
(Mobile Mapping System)
90
Q

Piramida obrazów

A

Piramida obrazów- obrazy posiadające strukturę hierarchiczną, tworzone przez redukowanie
rozdzielczości obrazu pierwotnego. Proces matchingu (automatycznego dopasowania obrazów) jest
powtarzany na każdym poziomie, aż do znalezienia dokładnej pozycji. Metody wykorzystywane na
poszczególnych poziomach:
Feature based Matching- obiekty z obrazów oryginalnych są porównywane do odpowiednich
obiektów na pozostałych obrazach.
Least Squares Matching- porównuje się małe fragmenty obrazów, a następnie mierzy się ich
podobieństwa na podstawie korelacji lub metody najmniejszych kwadratów. Piramidę obrazów wykorzystuje się w celu ograniczenia obszaru poszukiwań odpowiedników na
innych obrazach.

91
Q

Mapa spadków

A

Mapa spadków przedstawia kąt nachylenia terenu w danym miejscu albo procentowy spadek
(tutaj: kąt nachylenia terenu). Im mniejsza rozdzielczość tym wynikowa mapa bliższa jest
rzeczywistości (dokładniejsza).

92
Q

Ortofotomapa

A

Ortofotomapa- mapa, której treść jest przedstawiona obrazem fotograficznym. Charakteryzuje się:
rzutem ortogonalnym oraz jednolitą skalą dla całej powierzchni terenu (skali nie mają jednak obiekty
wystające ponad teren).
Do stworzenia ortofotomapy są potrzebne: zdjęcia, elementy orientacji zewnętrznej i wewnętrznej
zdjęć oraz NMT (tutaj: ze skaningu lotniczego).

93
Q

Ortorektyfikacja

A

zamiana rzutu środkowego na ortogonalny. Zdjęcia fotogrametryczne są rzutem
środkowym przestrzeni na płaszczyznę.

94
Q

Ortoobrazy

A

Ortoobrazy generowane z chmury punktów charakteryzują się tym, że są w pełni ortogonalne,
w przeciwieństwie do Orthophoto. W wykonanej ortofotomapie obiekty wystające ponad
powierzchnię terenu odwzorowane są w rzucie środkowym. Można ten efekt skorygować, np.
przesuwając dachy budynków zgodnie z rzutem prostokątnym oraz uzupełniając brakujące obrazy
terenu fragmentami z sąsiednich zdjęć. True-Ortho, czyli rzeczywista ortofotomapa jest w pełni
ortogonalna.
Wadą ortoobrazów generowanych z chmury punktów są białe pola, które świadczą o braku
punktów w tych miejscach. Opracowanie tego jest bardzo czasochłonne. Dużo zależy także od gęstości
punktów w chmurze. Tru-Ortho, czy Orthophoto są lepszym rozwiązaniem.

95
Q

True ortofoto - prawdziwa ortofotomapa -

A

True ortofoto - prawdziwa ortofotomapa - jest to mapa fotograficzna na której
obrazy wszystkich (lub wybranych) obiektów s
ą zrektyfikowane do
poło
Ŝenia ortogonalnego.

96
Q

Fotogrametria analogowa

A

Fotogrametria analogowa wykorzystuje analogową postać danych (zdjęcia analogowe na filmie zwojowym) i analogowe metody opracowania. Również postać końcowa ma postać analogową (mapa papierowa).

97
Q

Fotogrametria analityczna

A

Fotogrametria analityczna wykorzystuje analityczne metody opracowania. Wynik opracowania ma zwykle postać wektorową, zapisaną na nośnikach komputerowych. Typowym produktem fotogrametrii analitycznej jest mapa numeryczna.

98
Q

Fotogrametria cyfrowa

A

Fotogrametria cyfrowa wykorzystuje cyfrową postać danych początkowych (postać rastrową), tj. zeskanowane zdjęcia analogowe lub pozyskane bezpośrednio kamerami cyfrowymi. Wynik opracowania może przybierać formę wektorową (np. mapa numeryczna) lub rastrową (np. cyfrowa ortofotomapa). Cechą wyróżniającą metody fotogrametrii cyfrowej spośród wcześniejszych jest bardzo wysoki poziom automatyzacji technologicznych procesów opracowania.

99
Q

Rodzaje rozproszenia w atmosferze:

A
  • rozproszenie molekularne (Rayleigha), stosuje się do rozproszenia w ośrodku o cząstkach nie większych niż długość fali światła, dobrze opisuje rozproszenie w czystej atmosferze (tj. wolnej od aerozoli),
  • rozproszenie Mie, opisuje rozproszenie na cząstkach o wielkości porównywalnych lub większych do długości fali, ten model jest szczególnie odpowiedni do rozproszenia w aerozolu atmosferycznym (pewna ilość zawiesin znajdująca się w atmosferze - oprócz gazów, np. para wodna, dymy, pyły)
100
Q

system pasywny

A

wykorzystuje promieniowanie słoneczne odbite od powierzchni Ziemi lub promieniowanie własne Ziemi

101
Q

system aktywny

A

sam oświetla powierzchnię Ziemi i rejestruje energię odbitą (np. systemy radarowe)

102
Q

martwe pola

A

są fragmentami terenu zasłoniętymi przez przeszkody

103
Q

stosunek bazowy

A

to stosunek długości bazy (tj. odległości sąsiednich miejsc fotografowania) do wysokości lotu

104
Q

zdolność rozdzielcza zdjęcia

A

Szczegółowość zdjęcia zależy od jego zdolności rozdzielczej, a ta zależy od:

  • zdolności rozdzielczej obiektywu,
  • zdolności rozdzielczej emulsji fotograficznej,
  • rozmazania obrazu wskutek ruchu kamery w czasie otwarcia migawki (ruch postępowy nośnika i wibracje korpusu),
  • rozproszenia światła i innych zjawisk optycznych zachodzących w atmosferze.
105
Q

resampling

A

Obraz cyfrowy jest tablicą składającą się z pikseli poukładanych w kolumny i wiersze, charakteryzujących się wartością radialną. Jednym z podstawowych procesów w produkcji ortofotomap jest transformacja tablicy zeskanowanego zdjęcia pomiędzy układem kamery i terenowym układem współrzędnych (przepróbkowanie - resampling).

106
Q

stereo-matching

A

Technika matching’u znajduje punkty homograficzne na dwóch (stereo) lub większej ilości obrazów (2D) zawierających ten sam obszar przestrzeni.

107
Q

korelacja obrazów

A

Korelacja obrazów polega na automatycznym odnajdywaniu na zdjęciu fragmentów, które mają największy stopień prawdopodobieństwa do przyjętego wzorca.

Mając tablicę wzorcową, np. znaczka tłowego i znając jego przybliżone położenie, przeszukujemy obszar wokół tego położenia.

108
Q

piramida obrazów

A

Metoda piramid jest metodą hierarchiczną stosowaną w wielu algorytmach korelacji (matching’u). Polega ona na hierarchicznej wielopoziomowej korelacji, która rozpoczyna się od utworzenia piramidy. Materiałem wyjściowym do tworzenia piramidy są zdjęcia. Pierwszy poziom wygładzany jest przez odpowiedni filtr Gaussa. Poszczególne poziomy piramidy różnią się rozdzielczością.

109
Q

aerotriangulacja

A

Technologia kameralnego zagęszczenia osnowy. Aerotriangulacja cyfrowa wykorzystuje korelację obrazów.

110
Q

TIN (Triangular Irregular Network)

A

Nieregularna sieć trójkątów wraz z topologią. Wierzchołki trójkątów opierają się na punktach pomiarowych.

111
Q

regularna sieć (kwadratów, prostokątów lub trójkątów, zwykle kwadratów)

A

Powstaje zwykle nie poprzez pomiar, lecz poprzez interpolację między rozproszonymi punktami pomiarowymi. Określana jako “sieć wtórna” lub “sieć wynikowa” DTM.

112
Q

Rozdzielczość przestrzenna

A

wielkość terenowa piksela, rozmiar terenu odwzorowany na zdjęciu przez piksel, np. 30x30[m] dla Landsat.

113
Q

Rozdzielczość spektralna

A

zakres długości fali, który może być odbierany przez detektor na satelicie, podział na kanały spektralne.

114
Q

Rozdzielczość radiometryczna

A

ilość bitów określająca zakres wartości radiometrycznych pikseli obrazu (dla 8 bitów – 256 stopni, od 0 do 255, najczęściej stosowana rozdzielczość radiometryczna).

115
Q

Pokrycie podłużne

A

stosunek procentowy długości wzajemnie pokrywających się części zdjęć sąsiednich szeregów do długości pojedynczego zdjęcia mierzonej wzdłuż prostej prostopadłej do kierunku lotu samolotu.
Pokrycie podlużne – ok. 60%.

116
Q

Pokrycie poprzeczne

A

stosunek dwukrotnie sfotografowanej części zdjęcia do długości całego zdjęcia mierząc wzdłuż prostej równoległej do kierunku lotu.
Pokrycie poprzeczne – ok. 30%.

117
Q

Baza poprzeczna fotografowania (w skali zdjęcia i w terenie).

A

odległość osi sąsiednich szeregów w terenie

118
Q

Podstawowe parametry geometryczne zdjec:

A

wysokosc fotografowania (lotu), baza zdjec, pokrycie podłużne i poprzeczne pomiedzy zdjeciami.

119
Q

Skala

A

stosunek odległości obrazu kamery pomiarowej do wysokości lotu

120
Q

wysokosc fotografowania (lotu)

A

iloczyn skali zdjęcia i odległości obrazowej kamery (przybliżona wartość)

121
Q

Georeferencja bezpośrednia (metoda bezpośredniego kodowania)

A

określenie
elementów orientacji zewnętrznej w czasie lotu.

W celu określenia orientacji zewnętrznej (elementów liniowych i kątowych) zdjęć w szeregu i w bloku w czasie lotu, stosowane są obecnie zintegrowane systemy GPS/INS.
Dla określenia w czasie lotu tylko liniowych elementów (współrzędnych x,y,z środków rzutów) stosowane są niezależne systemy GPS. INS określa parametry kątowe (nachylenie podłużne, poprzeczne i azymut).

Znaczenie: elementy orientacji zewnętrznej są już wyznaczone w trakcie lotu, nie trzeba nad tym pracować na autografach cyfrowych.

122
Q

Orientacja wewnętrzna

A

Orientacja wewnętrzna definiuje perspektywiczną geometrię zdjęcia i określa kształt wiązki promieni wychodzących ze środka rzutów. Orientacja wewnętrzna ma wpływ na wierność odtworzenia wiązki promieni w przestrzeni obrazowej w stosunku do odpowiadającej jej wiązki w przestrzeni obiektu.

Orientacja wewnętrzna jest opisana przez:

  • kalibrowaną odległość obrazuf (ck),
  • położenie punktu głównego zdjęcia O(xo yo)w układzie znaczków tłowych xt yt,
  • charakterystykę geometryczną dystorsji obiektywu kamery.
123
Q

punkt główny zdjęcia

A

punkt w którym oś optyczna (wzdłuż promienia głównego wiązki) przebija płaszczyznę zdjęcia–współrzędne tego punktu są określone w układzie znaczków tłowych

124
Q

Orientacja wzajemna dwóch kolejnych zdjęć w szeregu

A

oznacza określenie takiego ich wzajemnego przestrzennego położenia, jakie miały one w trakcie wykonania zdjęć kamerą lotniczą. Parametry orientacji wzajemnej wyznacza się zawsze w stosunku do lokalnego układu odniesienia jakim jest baza fotografowania, dowolnie zorientowana w stosunku do układu terenowego.

Równanie określające paralaksę poprzeczną, jest zatem podstawą do określenia modelu matematycznego dla wyznaczenia orientacji wzajemnej dwóch zdjęć.

125
Q

Aerotriangulacja przestrzenna zdjęć

A

Głównym celem aerotriangulacji jest określenie elementów orientacji zewnętrznej zdjęć, co dotyczy zadania georeferencji obrazów.

W procesie aerotriangulacji, zdjęcia w szeregu i bloku są powiązane (łączone pomiędzy sobą w szeregu i pomiędzy szeregami) na podstawie punktów wiążących, dla których ostatecznie zostają wyznaczone współrzędne w układzie terenowym.

W trakcie aerotriangulacji, następuje rekonstrukcja położenia przestrzennego zdjęć, jakie one miały w czasie fotografowania, czyli zostają wyznaczone elementy orientacji zewnętrznej zdjęć.

Jeśli elementy te zostają wyznaczone w trakcie nalotu przez zintegrowane systemy GPS/INS (środki rzutów zdjęć i elementy kątowe), lub tylko przez GPS (środki rzutów), wówczas zostają one uwzględnione w procesie aero i jedynie poprawione ze względu na błędy systematyczne systemu.

Metoda rejestracji elementów orientacji zewnętrznej w czasie lotu przy użyciu systemu GPS/INS zwana jest: metodą bezpośredniego geokodowania lub georeferencja wprost.

126
Q

Automatyczna aerotriangulacja

A

Automatyczna aerotriangulacja jest wykonywana na stacjach cyfrowych, gdzie pomiar punktów wykonuje się w trybie pół-automatycznym lub automatycznym. Programy do wyrównania aerotriangulacji bazują na takich samych podstawach, jakie są w klasycznych metodach aerotriangulacji analitycznej. Jednakże zwykle stosuje się wyrównanie obserwacji metodą niezależnych zdjęć (wiązek).

127
Q

Korekcja atmosferyczna

A

metoda optycznego lub numerycznego eliminowania szumu, czyli części promieniowania rozproszonego w atmosferze, które nie miało kontaktu z badanym obiektem i nie przenosi o nim informacji a dociera do urządzenia rejestrującego i jest przez niego rejestrowana.

128
Q

Teledetekcja

A

obejmuje zespół technik i metod umożliwiających rozpoznawanie i badanie obiektów oraz zjawisk z odległości, tj. bez kontaktu z tymi obiektami i zjawiskami.

129
Q

Okna atmosferyczne

A

zakresy promieniowania elektromagnetycznego, w których atmosfera nie pochłania promieniowania. Są to: pasmo widzialne i bliska podczerwień (odbita), podczerwień średnia, podczerwień termalna, zakres mikrofalowy.

130
Q

Charakterystyka spektralna

A

rozkład energii odbitej i wypromieniowanej przez obiekt w różnych zakresach spektralnych.

131
Q

Sposoby rejestracji stereopar obrazów z pułapu satelitarnego.

A

Wychylanie układu optycznego w przód i wstecz pozwala uzyskać stereoskopię z jednej orbity. System obrazuje dany obszar dwa razy: raz wychylając układ do przodu i drugi raz wstecz, z opóźnieniem kilkudziesięciu sekund.
Stereoskopia z sąsiednich orbit stosowana w satelitach SPOT i IRS jest gorszym rozwiązaniem. W tym wypadku obrazy stereo otrzymuje się przez wychylenie układów w poprzek.

132
Q

Przetwarzanie cyfrowe zdjęć

A

techniki analizy komputerowej zdjęć w postaci cyfrowej, których podstawowym celem jest ułatwienie pozyskania bądź bezpośrednie pozyskanie określonej kategorii informacji.

Główna idea przetwarzania cyfrowego sprowadza się do sekwencyjnego przeliczania wartości radiometrycznych pikseli z wykorzystaniem zadanego algorytmu.

133
Q

Przetwarzanie wstępne zdjęć cyfrowych

A

procedury korygujące zdjęcie satelitarne z uwagi na zniekształcenia w zakresie radiometrii oraz geometrii obrazu powstałe w trakcie rejestracji.

134
Q

Klasyfikacja nadzorowana

A

wykorzystuje tzw. „pola treningowe”, czyli wybrane fragmenty obrazu (określamy ich granice w postaci odpowiedniego pliku wektorowego), które można uznać za reprezentatywne dla poszczególnych kategorii użytkowania terenu, stanowiące wzorce klas. Dzięki temu interpretator może „nadzorować” przebieg automatycznego procesu klasyfikacji, opierając się na wszelkich dostępnych informacjach, pozyskiwanych nie tylko z treści obrazu, ale także innych źródeł (materiały kartograficzne, zdjęcia lotnicze, opisy tekstowe, obserwacje terenowe, itp.).