egzaminSam Flashcards
Planiści w systemach komputerowych. Jakie rodzaje są, czym się różnią, do czego służą
Planista jest to proces systemowy (program szeregujący) dokonujący wyboru tego, który proces (w sensie zadanie - wykonujący się program) ma przejść do stanu aktywnego tym samym przydzielając mu zasoby systemowe takie jak pamięć operacyjna czy procesor. Planiści dążą do optymalizacji przetwarzania procesów systemie. Przykład optymalizacji to optymalizacja pod względem wykorzystywanych zasobów systemu. Planiści mają zapobiegać powstawaniu “wąskich gardeł”, które doprowadzają do spowolnienia pracy systemu.
Możemy wyróżnić dwa rodzaje planistów:
Planista długoterminowy (albo planista zadań) - decyduje o tym, który z procesów ma być załadowany do pamięci. Swoje działania podejmuje stosunkowo rzadko (sekundy, minuty, itp). Nie musi być szybki. Zadaniem planisty długoterminowego jest dobór optymalnej kombinacji zadań ograniczonych przez procesor i przez we-wy. .
Planista krótkoterminowy (albo planista procesora) - decyduje o tym, który z procesów gotowych i załadowanych do pamięci ma być wykonywany na procesorze. Swoje działania podejmuje stosunkowo często (np. co 10-100 milisekund), żeby użytkownik miał wrażenie płynnej współbieżności wszystkich działających procesów. Jest to szczególnie ważne w systemach interakcyjnych z podziałem czasu.
Różnią się częstotliwością wykonywania. Planista długoterminowy ładuje do pamięci procesy gotowe do wykonania jak również upewnia się, że obecna kombinacja zadań jest optymalna pod względem występowania wzajemnych ograniczeń spowodowanych np. wejściami i wyjściami. Krótkoterminowy decyduje, który z procesów gotowych ma być wykonany na procesorze.
Planista średnioterminowy – w niektórych systemach z podziałem czasu - jego zadaniem zmniejszanie stopnia wieloprogramowości poprzez wysyłanie części zadań chwilowo na dysk (swapping). Pomaga to w doborze lepszego zestawu procesów w danej chwili, lub dla zwolnienia obszaru pamięci.
Mechanizmy zabezpieczeń w aktualnych systemach operacyjnych
Antywirus – program komputerowy, którego zadaniem jest wykrywanie, zwalczanie i usuwanie wirusów. Antywirusy są wyposażone w dwa moduły. Pierwszym jest skaner, który ma za zadanie badanie plików w ustalonym czasie. Drugim jest monitor, służący do kontroli bieżących operacji.
Antymalware - rodzaj oprogramowania, które zostało stworzone i zaprojektowane w celu: przewidywanie, wykrywanie i korygowanie złośliwego oprogramowania (w tym wirusów) które mogą przeniknąć do każdego indywidualnego, urządzenia komputerowego, a nawet do systemów komputerowych. W ten sposób jest to bardzo skuteczny i wydajny sposób, który ma możliwość zapobieżenia automatycznej instalacji złośliwego oprogramowania, a ponadto, jeśli z jakiegoś powodu uda mu się dostać do systemu, natychmiast go usuwa.
Automatyczne aktualizacje – automatyczne zastąpienie wykorzystywanej przez nas systemu operacyjnego lub aplikacji czy oprogramowania przez jej nowe wydanie. Najczęściej służy do poprawy błędów, które mogły być wykorzystywane przez wirusy itp oraz dodania nowej zawartości i funkcji.
Szyfrowanie dysku - zaszyfrowanie całego dysku twardego na danym komputerze. Pozwala na zabezpieczenie tego, co widoczne i tego, co niewidoczne: plików na poszczególnych partycjach, tzw. plików wymiany i plików tymczasowych. Pozwala także ukryć wszystkie metadane czyli strukturę katalogów, nazwy plików, ich rozmiary etc. Dzięki szyfrowaniu danych w wypadku wykradnięcia danych złodziej nie będzie w stanie nic zrobić
systemy IDS/IPS - co to, różnice
IDS (Intrusion Detection Systems) systemy wykrywania intruzów, zajmują się wykrywaniem prób uzyskania dostępu do systemu. Ich zadaniem jest wykrycie takiego zdarzenia i poinformowanie o tym odpowiednich osób. IDS są wykorzystywane do uzupełnienia całości dobrze zorganizowanego systemu bezpieczeństwa, na który oprócz nich powinny się składać m.in:
polityka bezpieczeństwa
szyfrowanie danych
weryfikacja użytkowników
kontrola dostępu
zapory sieciowe
IPS - (Intrusion Prevention Systems) to sprzętowe bądź programowe rozwiązania, których zadaniem jest wykrywanie ataków na system komputerowy z wewnątrz jak i od zewnątrz systemu oraz uniemożliwianie przeprowadzenia takich ataków. Od strony technicznej systemy IPS to mniej więcej połączenie zapory sieciowej i systemu IDS.
IDS jest odpowiedzialny za monitorowanie oraz poinformowanie w razie zidentyfikowania niebezpieczeństwa. IPS może powstrzymać przeprowadzany atak lub zminimalizować jego skutki
Routing statyczny- co to? wady zalety
W przypadku rutingu statycznego, tras statycznych, główną rolę w konfiguracji sieci odgrywa administrator sieci. To on jest odpowiedzialny za aktualizację tras na ruterze jak również ich pierwotne ustawianie (chodzi o tablicę routingu), podobnie jak odpowiedzialny jest za statyczne przypisywanie adresów IP na komputerach użytkowników.
Zaletą stosowania tras statycznych jest ich niezawodność oraz znacznie mniejsze wykorzystanie mocy obliczeniowej ruterów, wymaganej do przetwarzania danych. Dodatkowo sieci te są przewidywalne. Z drugiej jednak strony pojawia się kwestia stałego nadzoru administratora i ciągłego, ręcznego aktualizowania tras. Jeśli administrator nie będzie nadążał z aktualizacją tras, to w pewnym momencie może to skutkować sporymi opóźnieniami lub nawet utratą pakietów. Trzeba również pamiętać o tym, że sieć może zostać skonfigurowana niepoprawnie.
Routing statyczny sprawdza się w małych sieciach o nieskomplikowanej budowie.
Routing dynamiczny - przykłady, klasyfikacja, wady zalety
Dzięki rutingowi dynamicznemu rutery mogą automatycznie uczyć się tras, zdobywają o nich informację od innych ruterów, bez ingerencji administratora. Oczywiście konieczna jest początkowa konfiguracja protokołów rutingu.
Routing dynamiczny możemy zdefiniować jako zestaw algorytmów odpowiedzialnych za wymianę informacji pomiędzy routerami tak by urządzenia te uzyskały pełny obraz topologii naszej sieci oraz by były w stanie wypełnić swoje tablice routingu co w konsekwencji przełoży się wybór najlepszych tras do sieci zdalnych.
Zalety:
- automatyczna wymiana informacji o zdalnych sieciach
- określenie najlepszej trasy do każdej z sieci
- protokoły wymagają mniejszej pracy administratora
- automatyczna adaptacja do zmian topologii
- niezależny od rozmiaru sieci
Wady:
- bardziej skomplikowane zastosowanie protokołu
- mniej bezpieczny
- trasy są zależne od topologii
- wymaga dodatkowych zasobów procesora, pamięci i szerokości pasma łącza
Podział ze względu na obszary zastosowań
– protokoły wewnętrzne (IGPs)
Stosowane wewnątrz jednej domeny administracyjnej
Proste, w małym stopniu obciążają routery
Mało skalowalne
RIP (Routing Information Protocol), IGRP (Interior Gateway Routing Protocol), OSPF (Open Shortest Path First)
– protokoły zewnętrzne (EGPs)
Odpowiadają za wymianę informacji pomiędzy dwiema niezależnymi administracyjnie sieciami
Dają się skalować, łatwo obsługują duże sieci
Są skomplikowane, ilość dodatkowych informacji przesyłanych siecią może szybko zablokować pracę małej lub średniej sieci
EGP (exterior gateway protocol), BGP (border gateway protocol)
jak działa routing w internecie
Proces określania trasy przesyłu pakietów nazywany jest procesem rutingu.
Internet jest to sieć sieci komputerowych
BGP ( ang. Border Gateway Protocol) protokół bramy brzegowej – zewnętrzny protokół trasowania. BGP w wersji czwartej jest podstawą działania współczesnego internetu. Umożliwia on połączenie ze sobą systemów autonomicznych (zbiór prefiksów, adresów sieci IP, pod wspólną administracyjną kontrolą, w którym utrzymywany jest spójny schemat trasowania - można powiedzieć, że sieci komputerowych), jest także odpowiedzialny za trasowanie (wybieranie drogi między węzłami, którą mają się przemieszczać dane). Wykorzystuje on warstwę transportową modelu TCP/IP
Adresy sieci autonomicznych wykorzystywane przez protokół BGP w wypadku bezpośredniego połączenia są ustawiane statycznie. Protokół BGP co jakiś czas rozsyła sąsiadom informacje o tym z jakimi sieciami autonomicznymi może się połączyć. Wysyłane są specjalne pakiety keep alive, aby zaznaczyć, że sieć dalej istnieje. Protokół zapewnia, że nie powstaną nieskończone pętle.
Algorytmy przeszukiwania pamięci masowej. Jakie rodzaje, wady zalety
Zagłodzenie procesu
Sytuacja, w której dany proces nie jest w stanie zakończyć działania, ponieważ nie ma dostępu do procesora lub innego współdzielonego zasobu
● FCFS (first come first serve) Obsługuje żądania w kolejności zgłoszenia - brak optymalizacji, ale za to prosty. - odporny na zagłodzenia, ale nioptymalny
● SSTF (shortest seek time first) Odczytywana jest najbliższa poszukiwana wartość łatwy do zaimplementowania i ma dobrą wydajność, gdy obciążenie
dysku jest niewielkie. Nie zawsze daje optymalne rezultaty, czas wyszukiwania jest proporcjonalny do odległości ścieżek, może doprowadzić do zagłodzenia
● Algorytmy typu SCAN (przesuwanie głowicy od jednego końca do drugiego i potem spowrotem) mają lepszą wydajność przy dużym obciążeniu dysku
– Brak możliwości zagłodzenia
● Algorytmy typu C-SCAN (przesuwanie głowicy od jednego końca do drugiego, po dotarciu do końca natychmiastowe przemieszczenie głowicy na początek) - dobra wydajność przy dużym obciążeniu dysku
● Algorytmy typu C-LOOK (przesuwanie głowicy od jednego końca do najdalej występującego zgłoszenia potem powrót na początek) - dobra wydajność przy dużym obciążeniu dysku
Scan, lock, c-scan i c-lock nie doprowadzają do zagłodzenia i wyrównują czasy oczekiwania
NCQ - native command queuing - aby głowica się fajnie przesuwała i odczytywać dane
* Kolejkowanie operacji po stronie urządzenia
* Uwzględnienie relacji przestrzennych
* Wykorzystywane także w dyskach SSD