Software Architecture Flashcards

1
Q

Pytanie: “Jakie są główne zalety i wyzwania związane z architekturą mikroserwisów?”

A

Odpowiedź: “Głównymi zaletami architektury mikroserwisów są modularność, łatwość wdrażania, skalowalność i możliwość niezależnego rozwoju poszczególnych serwisów. Wyzwania to zarządzanie złożonymi komunikacjami między serwisami, zapewnienie spójności danych i większa złożoność w monitorowaniu i debugowaniu.”

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Pytanie: “Czy możesz przedstawić przykład wzorca projektowego, który wykorzystałeś w ostatnim projekcie?”

A

???

Odpowiedź: “W moim ostatnim projekcie użyłem wzorca projektowego Dekorator do rozszerzenia funkcjonalności obiektów bez konieczności modyfikacji ich kodu. Pozwoliło to na dodanie nowych funkcji w sposób elastyczny i utrzymywalny.”

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Pytanie: “Jakie strategie stosujesz, aby zapewnić skalowalność i wydajność aplikacji?”

A

Odpowiedź: “Do zapewnienia skalowalności i wydajności aplikacji stosuję rozwiązania takie jak cachowanie, optymalizacja zapytań do bazy danych, asynchroniczne przetwarzanie i użycie load balancerów. Regularnie analizuję metryki wydajności i skaluję zasoby w odpowiedzi na zmieniające się obciążenie.”

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Pytanie: “Jakie są wyzwania związane z zarządzaniem stanem w rozproszonych systemach?”

A

Zarządzanie stanem w rozproszonych systemach wiąże się z różnymi wyzwaniami, które wynikają z ich natury rozproszenia, skalowalności i potrzeby zapewnienia wysokiej dostępności. Oto kilka kluczowych wyzwań:

  1. Spójność Danych: W systemach rozproszonych dane są często replikowane między wieloma węzłami. Utrzymanie spójności danych we wszystkich replikach, zwłaszcza w przypadku równoczesnych operacji zapisu, jest trudne. Konieczność wyboru między spójnością silną a ostateczną (eventual consistency) jest jednym z głównych dylematów.
  2. Partycjonowanie Danych: Decyzje dotyczące partycjonowania danych (dzielenie danych na mniejsze segmenty) mają znaczący wpływ na wydajność i dostępność. Nieprawidłowe partycjonowanie może prowadzić do nierównomiernego obciążenia węzłów, a także do trudności w zarządzaniu i skalowaniu.
  3. Tolerancja na Błędy i Odporność na Awarię: W rozproszonych systemach kluczowe jest zapewnienie, że awaria jednego węzła nie zakłóci działania całego systemu. Wymaga to mechanizmów redundancji i szybkiego przełączania na rezerwowe węzły.
  4. Zarządzanie Transakcjami: W środowisku rozproszonym transakcje wymagają koordynacji między wieloma węzłami. Wyzwaniem jest zapewnienie atomowości, spójności, izolacji i trwałości (ACID) transakcji w środowisku, gdzie każda operacja może być rozłożona na wiele węzłów.
  5. Zarządzanie Siecią: Opóźnienia sieciowe, przepustowość i niezawodność są kluczowe dla wydajności rozproszonych systemów. Wyzwania obejmują radzenie sobie z opóźnieniami, zarządzanie przepływem danych i zapewnienie wysokiej dostępności.
  6. Testowanie i Debugowanie: Testowanie systemów rozproszonych jest trudniejsze ze względu na ich złożoność i nieprzewidywalność środowiska rozproszonego. Debugowanie problemów, które występują tylko w określonych warunkach sieciowych lub przy określonym rozłożeniu obciążenia, może być wyjątkowo trudne.
  7. Skalowanie: Skalowanie systemu rozproszonego, zarówno wertykalne (dodawanie zasobów do istniejących węzłów) jak i horyzontalne (dodawanie więcej węzłów), niesie ze sobą wyzwania związane z równoważeniem obciążenia, partycjonowaniem danych i zarządzaniem zwiększoną złożonością.
  8. Bezpieczeństwo: Zapewnienie bezpieczeństwa danych w rozproszonym systemie jest skomplikowane z powodu wielu punktów dostępu i potrzeby bezpiecznej komunikacji między węzłami.

Zarządzanie stanem w rozproszonych systemach wymaga starannego planowania i implementacji, aby sprostać tym wyzwaniom i zapewnić wysoką dostępność, niezawodność oraz wydajność.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Wyjaśnij twierdzenie CAP

A

Twierdzenie CAP, znane także jako Zasada Brewer’a, jest fundamentalnym teoretycznym modelem dla rozproszonych systemów komputerowych. Sformułowane przez Erica Brewera w 2000 roku, twierdzenie to mówi, że rozproszony system danych może zapewnić co najwyżej dwie z trzech następujących gwarancji:

  1. Spójność (Consistency): Każde odczytanie danych zwróci najnowszą wersję tych danych lub błąd. Innymi słowy, jeśli dane zostały zapisane, każde kolejne zapytanie powinno zwrócić te dane lub ich nowszą wersję. To nie oznacza jednolitości danych w całym systemie w danym momencie, ale gwarantuje, że każde zapytanie odczytu zwróci najnowsze dane.
  2. Dostępność (Availability): Każde żądanie otrzyma odpowiedź — bez gwarancji, że będzie to najnowsza wersja danych. Oznacza to, że każdy węzeł systemu jest zawsze w stanie odpowiedzieć na zapytanie, niezależnie od tego, czy ma dostęp do najnowszej wersji danych.
  3. Tolerancja na partycjonowanie (Partition Tolerance): System będzie nadal działał pomimo dowolnej liczby wiadomości niewysłanych między węzłami systemu; innymi słowy, system radzi sobie z awariami w sieci. W rozproszonych systemach partycjonowanie jest nieuniknione, dlatego większość nowoczesnych systemów projektuje się z tolerancją na partycjonowanie jako podstawową cechą.

Według twierdzenia CAP, system rozproszony może zaoferować maksymalnie dwie z tych trzech gwarancji jednocześnie. Na przykład, system może być spójny i tolerować partycjonowanie, ale wtedy może nie być w stanie zagwarantować dostępności (tzn. nie każde żądanie otrzyma odpowiedź). Podobnie, system może być dostępny i tolerować partycjonowanie, ale wtedy spójność danych między węzłami może nie być zagwarantowana.

W praktyce, decyzja o tym, które z tych cech są priorytetowe, zależy od specyficznych wymagań aplikacji i środowiska. Na przykład, systemy bankowe mogą preferować spójność ponad dostępność, podczas gdy serwisy mediów społecznościowych mogą skłaniać się ku dostępności kosztem spójności.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Wyjaśnij powody dla których w CAP mogą jednocześnie być zachowane tylko 2 z 3 cech.

A

Twierdzenie CAP mówi, że w rozproszonych systemach komputerowych można jednocześnie zrealizować maksymalnie dwie z trzech cech: spójności (Consistency), dostępności (Availability) i tolerancji na partycjonowanie (Partition Tolerance). Przyczyny tego ograniczenia wynikają z fundamentalnych wyzwań i ograniczeń stawianych przez rozproszone środowiska komputerowe:

  1. Tolerancja na partycjonowanie: W środowiskach rozproszonych partycjonowanie jest nieuniknione. Partycjonowanie odnosi się do sytuacji, w której komunikacja między węzłami systemu zostaje przerwana - na przykład z powodu awarii sieci. W takich przypadkach, węzły mogą nie być w stanie komunikować się ze sobą, co prowadzi do odizolowania fragmentów systemu. Z uwagi na to, że partycjonowanie jest realnym problemem w każdym rozproszonym systemie, tolerancja na partycjonowanie jest uważana za wymóg.
  2. Spójność vs. Dostępność w kontekście partycjonowania:
    • Spójność (Consistency) wymaga, aby wszystkie węzły w systemie miały dostęp do najnowszej wersji danych. W przypadku partycjonowania, gdy węzły są odizolowane, staje się niemożliwe natychmiastowe rozpropagowanie aktualizacji do wszystkich węzłów. Utrzymanie spójności w takiej sytuacji oznaczałoby, że niektóre węzły muszą odmówić zwracania odpowiedzi do czasu odzyskania połączenia.
    • Dostępność (Availability) oznacza, że każde zapytanie otrzymuje odpowiedź, niezależnie od stanu systemu. W przypadku partycjonowania, jeśli system nadal odpowiada na zapytania, nie może zagwarantować, że odpowiedzi będą odzwierciedlać najnowszy stan danych (ponieważ nie wszystkie węzły mogą mieć dostęp do aktualizacji).

Zatem, jeśli system ma być zarówno spójny, jak i dostępny, musi być w stanie radzić sobie z partycjonowaniem. Jednakże, w praktyce, partycjonowanie ogranicza możliwość równoczesnego zapewnienia spójności i dostępności:

  • Jeśli priorytetem jest spójność, system może być zmuszony odmówić odpowiedzi na zapytania w przypadku partycjonowania, co zmniejsza jego dostępność.
  • Jeśli priorytetem jest dostępność, system będzie nadal odpowiadał na zapytania nawet w przypadku partycjonowania, ale może to skutkować tymczasowym brakiem spójności danych.

W rezultacie, twierdzenie CAP podkreśla istotny kompromis projektowy w rozproszonych systemach, wymuszając wybór między spójnością a dostępnością w obliczu partycjonowania.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

CI vs CD

A

“CI” (Continuous Integration) i “CD” (Continuous Deployment lub Continuous Delivery) to dwie fundamentalne praktyki w nowoczesnym rozwoju oprogramowania, które często są ze sobą łączone. Chociaż obie są częścią ciągłego procesu, różnią się znacząco w zakresie zakresu i celów.

Continuous Integration (CI)

  1. Definicja: CI to praktyka integracji kodu źródłowego do wspólnego repozytorium wielokrotnie w ciągu dnia.
  2. Główny Cel: Zapewnia szybką wykrywalność błędów i ułatwia ich naprawę, utrzymując kod aplikacji stabilnym i łatwym w utrzymaniu.
  3. Kluczowe Procesy:
    • Automatyzacja Testów: Automatyczne uruchamianie testów przy każdym commitcie do repozytorium, aby zapewnić, że nowy kod nie psuje istniejącej funkcjonalności.
    • Szybka Integracja: Regularna integracja kodu do głównego repozytorium, co minimalizuje problemy związane z łączeniem dużych zmian.
  4. Narzędzia: Jenkins, Travis CI, GitLab CI, CircleCI.

Continuous Deployment/Delivery (CD)

  1. Definicja:
    • Continuous Deployment oznacza automatyczne wdrażanie każdej zmiany, która przechodzi przez pipeline CI, bezpośrednio do środowiska produkcyjnego.
    • Continuous Delivery to podobna praktyka, ale wymaga ręcznego zatwierdzenia wdrażania do produkcji.
  2. Główny Cel: Umożliwienie szybkiego i niezawodnego wdrażania zmian w oprogramowaniu bezpośrednio do użytkowników końcowych.
  3. Kluczowe Procesy:
    • Automatyzacja Wdrażania: Zautomatyzowane procesy wdrażania, które umożliwiają szybkie przenoszenie zmian z repozytorium do środowisk testowych, a następnie do produkcji.
    • Zarządzanie Ryzykiem: Mechanizmy zapewniające, że nowe wersje są stabilne i gotowe do użycia przez użytkowników.
  4. Narzędzia: Spinnaker, Jenkins, GitLab, Ansible.

Porównanie i Współzależność

  • Współzależność: CI jest fundamentem dla CD. Bez solidnej praktyki CI, trudno jest skutecznie i bezpiecznie stosować CD.
  • Zakres: CI koncentruje się na integracji i testowaniu kodu, podczas gdy CD rozszerza proces na automatyczne wdrażanie kodu.
  • Ryzyko i Szybkość: CD zwiększa szybkość dostarczania oprogramowania, ale wymaga bardziej zaawansowanych praktyk zarządzania ryzykiem i jakością.

W rezultacie, choć CI i CD są różne, są ze sobą ściśle powiązane i często występują razem jako część ciągłego procesu rozwoju i wdrażania oprogramowania w szybkim i efektywnym stylu DevOps.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

architektura heksagonalna

A

Architektura heksagonalna, znana również jako architektura portów i adapterów, to wzorzec projektowy stosowany w projektowaniu oprogramowania. Została opracowana przez Alistaira Cockburna i jest często wykorzystywana do tworzenia aplikacji z łatwością testowalną, skalowalną i łatwą w utrzymaniu. Oto główne cechy i założenia tej architektury:

Kluczowe Cechy Architektury Heksagonalnej

  1. Oddzielenie Logiki Biznesowej od Interfejsów Użytkownika i Zewnętrznych Systemów: W centrum heksagonu znajduje się logika biznesowa aplikacji, odizolowana od zewnętrznych interakcji.
  2. Porty i Adaptery:
    • Porty: Są to abstrakcyjne punkty wejścia/wyjścia dla aplikacji, np. interfejsy API do komunikacji z logiką biznesową.
    • Adaptery: Stanowią implementacje tych portów, zapewniając komunikację między logiką biznesową a światem zewnętrznym (np. baza danych, interfejs użytkownika, zewnętrzne usługi).
  3. Wielokierunkowość: Architektura umożliwia łatwe dodawanie nowych sposobów interakcji (wejść/wyjść), co przypomina wielokierunkowość heksagonu.
  4. Zmienność Interfejsów Zewnętrznych: Możliwość łatwej wymiany adapterów bez wpływu na logikę biznesową. Na przykład, można zmienić bazę danych lub sposób komunikacji sieciowej bez zmian w kodzie biznesowym.

Zalety

  1. Testowalność: Logika biznesowa może być łatwo testowana w izolacji od zewnętrznych elementów.
  2. Modularność: Ułatwia rozwój, konserwację i rozszerzanie aplikacji.
  3. Elastyczność: Umożliwia łatwe adaptowanie do zmian w zewnętrznych usługach i interfejsach użytkownika.
  4. Odporność na Zmiany: Zmiany w jednym z adapterów nie wpływają bezpośrednio na logikę biznesową.

Przykłady Zastosowania

  • Aplikacje Webowe: Oddzielanie front-endu od logiki biznesowej.
  • Mikroserwisy: Definiowanie jasnych granic i sposobów komunikacji między serwisami.
  • Aplikacje Korporacyjne: Umożliwienie integracji z różnorodnymi zewnętrznymi systemami korporacyjnymi.

Wykonanie

  • Projektowanie Portów: Zdefiniowanie abstrakcyjnych interfejsów dla różnych rodzajów interakcji.
  • Implementacja Adapterów: Tworzenie konkretnych implementacji tych portów, które mogą komunikować się z bazą danych, systemami zewnętrznymi, użytkownikami itp.

W praktyce architektura heksagonalna sprzyja tworzeniu czystego i dobrze zorganizowanego kodu, gdzie zależności są jasno zdefiniowane, a interakcje z zewnętrznymi agentami są łatwo zarządzane i modyfikowane. Jest to szczególnie przydatne w środowiskach, gdzie wymagana jest elastyczność i skalowalność, oraz tam, gdzie testowanie i jakość oprogramowania są priorytetem.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Równoległość (parallelism) i asynchroniczność (asynchrony)

A

Równoległość (parallelism) i asynchroniczność (asynchrony) to dwa ważne, ale różne koncepcje w programowaniu i przetwarzaniu danych. Oba podejścia mają na celu zwiększenie wydajności i szybkości aplikacji, ale robią to na różne sposoby.

Równoległość (Parallelism)

  1. Definicja: Równoległość odnosi się do jednoczesnego wykonywania wielu obliczeń lub procesów. W kontekście programowania, równoległość oznacza, że dwa lub więcej fragmentów kodu wykonuje się równocześnie.
  2. Zastosowanie: Równoległość jest często stosowana w systemach wielordzeniowych lub wieloprocesorowych, gdzie różne procesory lub rdzenie wykonują różne zadania w tym samym momencie.
  3. Przykłady: Przetwarzanie dużych danych za pomocą wielu rdzeni procesora, równoległe obliczenia w grafice komputerowej, przetwarzanie równoległe w systemach rozproszonych.
  4. Celem: Zwiększenie wydajności przez jednoczesne wykonywanie zadań, co jest szczególnie korzystne w obliczeniach intensywnych i zadaniach wymagających dużej mocy obliczeniowej.

Asynchroniczność (Asynchrony)

  1. Definicja: Asynchroniczność w programowaniu odnosi się do wykonywania operacji bez blokowania przepływu wykonania programu. Kod asynchroniczny pozwala programowi kontynuować działanie, nie czekając na zakończenie operacji.
  2. Zastosowanie: Asynchroniczność jest często stosowana w operacjach wejścia/wyjścia, takich jak żądania sieciowe, operacje na plikach, komunikacja z bazami danych, gdzie czas oczekiwania na odpowiedź może być znaczny.
  3. Przykłady: Ładowanie danych z serwera w tle aplikacji internetowej, odczyt/zapis do plików w aplikacji desktopowej bez zatrzymywania interfejsu użytkownika.
  4. Celem: Zwiększenie reaktywności i wydajności aplikacji poprzez eliminację blokad i czekania, co pozwala na lepsze wykorzystanie zasobów i poprawę doświadczenia użytkownika.

Kluczowe Różnice

  • Model Wykonania: W równoległości wiele zadań wykonywanych jest jednocześnie na różnych procesorach lub rdzeniach. W asynchroniczności zadania są wykonywane niezależnie od głównego wątku, ale niekoniecznie równocześnie.
  • Sprzęt: Równoległość często wymaga wielordzeniowych lub wieloprocesorowych systemów, podczas gdy asynchroniczność może być zaimplementowana na pojedynczym procesorze.
  • Zastosowanie: Równoległość jest idealna do intensywnych obliczeniowo zadań, natomiast asynchroniczność jest lepsza do operacji z dużym czasem oczekiwania.

Podsumowując, równoległość i asynchroniczność to różne techniki, które mają na celu poprawę wydajności, ale stosuje się je w różnych kontekstach i dla różnych celów. Równoległość jest bardziej skoncentrowana na jednoczesnym przetwarzaniu danych, podczas gdy asynchroniczność koncentruje się na efektywnym zarządzaniu czasem oczekiwania i zasobami.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Model OSI

A

Model OSI (Open Systems Interconnection) to koncepcyjny model, który charakteryzuje i standaryzuje funkcje telekomunikacyjne lub komputerowego systemu komunikacyjnego bez względu na ich strukturę i technologię. Został opracowany przez Międzynarodową Organizację Normalizacyjną (ISO) w latach 80-tych. Model ten składa się z siedmiu warstw abstrakcyjnych, z których każda odpowiada zestawowi funkcji sieciowych. Oto krótki opis każdej z warstw:

  1. Warstwa Fizyczna (Physical Layer)
    - Funkcje: Przenoszenie surowych bitów przez medium transmisyjne.
    - Przykłady Urządzeń: Kable, przełączniki, koncentratory (huby).
  2. Warstwa Łącza Danych (Data Link Layer)
    - Funkcje: Zapewnienie niezawodnej transmisji danych między dwoma sąsiadującymi węzłami sieci.
    - Przykłady Protokołów: Ethernet, PPP.
    - Przykłady Urządzeń: Mosty, przełączniki.
  3. Warstwa Sieci (Network Layer)
    - Funkcje: Określenie trasy przesyłania danych w sieci.
    - Przykłady Protokołów: IP (Internet Protocol).
    - Przykłady Urządzeń: Routery.
  4. Warstwa Transportowa (Transport Layer)
    - Funkcje: Zapewnienie niezawodnej transmisji danych między punktami końcowymi, kontrola przepływu i zarządzanie błędami.
    - Przykłady Protokołów: TCP (Transmission Control Protocol), UDP (User Datagram Protocol).
  5. Warstwa Sesji (Session Layer)
    - Funkcje: Zarządzanie sesjami między aplikacjami, np. ustanawianie, zarządzanie i zakończenie połączeń.
    - Przykłady Zastosowań: Usługi zdalnego wywołania procedur, zarządzanie sesją w bazach danych.
  6. Warstwa Prezentacji (Presentation Layer)
    - Funkcje: Tłumaczenie, szyfrowanie i kompresja danych. Zapewnia, że dane wysyłane przez aplikację są zrozumiałe dla odbiorcy.
    - Przykłady: Formatowanie danych, konwersja kodowania znaków, szyfrowanie danych.
  7. Warstwa Aplikacji (Application Layer)
    - Funkcje: Zapewnienie interfejsu sieciowego dla aplikacji użytkownika.
    - Przykłady Protokołów: HTTP (Hypertext Transfer Protocol), FTP (File Transfer Protocol), SMTP (Simple Mail Transfer Protocol).

Znaczenie Modelu OSI
- Standardizacja Komunikacji Sieciowej: Model OSI pomaga różnym systemom komunikować się ze sobą poprzez standardowe protokoły i procedury.
- Rozwój i Rozszerzalność: Ułatwia projektowanie i rozwój nowych technologii sieciowych dzięki jasno określonym warstwom i funkcjom.
- Diagnostyka Problemów Sieciowych: Umożliwia analizę i rozwiązywanie problemów sieciowych poprzez identyfikację ich w określonej warstwie modelu.

Model OSI, choć teoretyczny i rzadko stosowany w czystej formie, miał ogromny wpływ na rozwój standardów sieciowych i jest nadal używany jako punkt odniesienia dla zrozumienia i nauczania zasad sieci komputerowych.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Na czym polega eventually consistent?

A

Ostateczna spójność (ang. eventual consistency) to model spójności stosowany w systemach rozproszonych, takich jak bazy danych NoSQL i systemy replikacji. Model ten zakłada, że zmiany w jednym węźle systemu rozproszonego mogą nie być natychmiast widoczne we wszystkich innych węzłach, ale ostatecznie (po pewnym czasie) wszystkie węzły będą zawierać te same dane.

Kluczowe Aspekty Ostatecznej Spójności:

  1. Zwłoka w Propagacji Danych: W systemie opartym na ostatecznej spójności, operacje zapisu w jednym węźle mogą nie być natychmiast odzwierciedlone w innych węzłach. Może to być spowodowane opóźnieniami sieciowymi, buforowaniem czy też optymalizacjami wydajnościowymi.
  2. Zalety Skalowalności: Model ten jest popularny w skalowalnych, rozproszonych systemach, ponieważ redukuje on potrzebę natychmiastowej synchronizacji między węzłami, co pozwala na szybsze operacje zapisu i lepszą ogólną wydajność.
  3. Spójność po Pewnym Czasie: Chociaż ostateczna spójność nie gwarantuje natychmiastowej spójności danych we wszystkich węzłach, zapewnia, że po pewnym czasie wszystkie węzły będą miały spójny stan danych.
  4. Kompleksowość dla Deweloperów: Programiści muszą być świadomi tego modelu i projektować aplikacje z myślą o potencjalnych niespójnościach czasowych, szczególnie w kontekście transakcji i wyświetlania danych użytkownikom.
  5. Zastosowanie w Bazach NoSQL: Bazy danych NoSQL, takie jak Cassandra, DynamoDB, czy Riak, często stosują model ostatecznej spójności w celu osiągnięcia wysokiej dostępności i wydajności w środowiskach rozproszonych.

Scenariusze Użycia:

  • Systemy E-Commerce: W systemach, gdzie natychmiastowa spójność nie jest krytyczna, ale ważna jest wysoka dostępność i szybkość odpowiedzi.
  • Aplikacje Rozproszone: W środowiskach, gdzie aplikacje są rozproszone geograficznie i gdzie opóźnienia w propagacji danych są akceptowalne.

Wady:

  • Trudności w Utrzymaniu Spójności: Może być trudno zapewnić spójność transakcji w systemach opartych na ostatecznej spójności.
  • Kompleksowość Aplikacji: Aplikacje muszą być zaprojektowane z myślą o potencjalnych opóźnieniach w spójności danych.

Podsumowując, ostateczna spójność jest kompromisem między natychmiastową spójnością a skalowalnością i wydajnością, często stosowanym w systemach rozproszonych i bazach danych NoSQL. Zapewnia ona dobre wyniki w środowiskach, gdzie akceptowalne jest pewne opóźnienie w osiąganiu spójności danych.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

What is CDN network?

A

CDN, czyli Content Delivery Network (Sieć Dostarczania Treści), to rozproszona platforma serwerów, które efektywnie dostarczają zawartość internetową użytkownikom na całym świecie. Główne cele CDN to zwiększenie prędkości dostępu do treści i poprawa ogólnej wydajności sieciowej.

Oto kluczowe aspekty CDN:

  1. Rozproszenie Geograficzne: Serwery CDN są rozmieszczone w różnych lokalizacjach geograficznych, co umożliwia szybsze dostarczanie treści użytkownikom poprzez zmniejszenie odległości między serwerem a klientem.
  2. Cache’owanie Treści: CDN przechowują kopie statycznych zasobów, takich jak pliki HTML, arkusze stylów CSS, pliki JavaScript, obrazy i filmy. Gdy użytkownik odwiedza stronę internetową, treści są dostarczane z najbliższego serwera CDN, co skraca czas ładowania.
  3. Zwiększona Wydajność: Używanie CDN może znacznie poprawić czas ładowania stron, zmniejszyć opóźnienia i zwiększyć szybkość pobierania.
  4. Zapewnienie Ciągłości Działania: W przypadku awarii jednego serwera, CDN mogą przekierować ruch na inny serwer, zapewniając ciągłość dostępu do treści.
  5. Ochrona przed Atakami: CDN często oferują dodatkowe funkcje bezpieczeństwa, takie jak ochrona przed atakami typu DDoS, które mogą paraliżować pojedynczy serwer lub centrum danych.
  6. Optymalizacja dla Różnych Typów Treści: CDN mogą być zoptymalizowane do obsługi różnych typów zawartości, w tym dużych plików multimedialnych, treści dynamicznych i aplikacji internetowych.

CDN są szeroko stosowane przez różne typy witryn internetowych, od blogów i stron informacyjnych po sklepy e-commerce i serwisy streamingowe, aby zapewnić szybszy i bardziej niezawodny dostęp do treści dla użytkowników na całym świecie.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

How does sharding work in DB?

A

Sharding w bazach danych to technika rozdzielenia dużego zbioru danych na mniejsze, łatwiejsze do zarządzania fragmenty, zwane shardami. Każdy shard jest unikatowy i zawiera część danych całego zbioru. Sharding jest często stosowany w dużych, rozproszonych systemach baz danych, aby poprawić wydajność i skalowalność. Oto jak działa sharding:

  1. Partycjonowanie Danych: Sharding polega na partycjonowaniu danych na podstawie określonego klucza shardowania. Klucz ten może być oparty na określonym atrybucie (np. ID użytkownika) lub zakresie wartości. Wybór klucza shardowania ma kluczowe znaczenie, ponieważ wpływa na równomierność rozłożenia danych i obciążenia między shardami.
  2. Rozmieszczenie Shardów: Po podziale, shardy są rozmieszczane na różnych serwerach lub klastrach. To rozdzielenie pozwala na równoległe przetwarzanie zapytań, zmniejszając obciążenie każdego serwera i zwiększając wydajność.
  3. Zarządzanie Shardami: System zarządzania bazą danych (DBMS) musi umieć lokalizować dane w odpowiednim shardzie podczas przetwarzania zapytań. W wielu systemach do zarządzania shardami wykorzystuje się dodatkowy poziom abstrakcji, taki jak serwer koordynujący lub router bazy danych, który przekierowuje zapytania do odpowiednich shardów.
  4. Skalowalność Horyzontalna: Sharding umożliwia skalowanie horyzontalne, co oznacza dodawanie więcej serwerów do obsługi rosnących zbiorów danych i ruchu. W przeciwieństwie do skalowania wertykalnego (upgrading istniejącego sprzętu), skalowanie horyzontalne jest często bardziej elastyczne i kosztowo efektywne.
  5. Replikacja: Każdy shard może być replikowany na wielu serwerach, co zwiększa dostępność i odporność na awarie. Replikacja może być również wykorzystana do zwiększenia wydajności odczytu poprzez rozłożenie zapytań odczytu między różne repliki.
  6. Problemy związane z Shardingiem: Chociaż sharding poprawia skalowalność i wydajność, wprowadza również złożoność w zarządzaniu bazą danych. Trudności mogą pojawić się przy wykonywaniu operacji transgranicznych (między shardami), zapytaniach obejmujących wiele shardów oraz przy konieczności re-sharding’u (reorganizacji shardów) w przypadku zmiany schematu rozkładu danych.
  7. Automatyczny vs Manualny Sharding: Niektóre systemy baz danych oferują automatyczne sharding, gdzie system sam zarządza podziałem i rozmieszczeniem danych. W innych przypadkach sharding może być realizowany manualnie przez administratorów baz danych.

Sharding jest szczególnie skuteczny w środowiskach, które wymagają dużego przetwarzania transakcji i mają duże wymagania dotyczące przechowywania danych, takich jak serwisy e-commerce, aplikacje społecznościowe czy gry online.

#######

Tak, można wykonać sharding w relacyjnych bazach danych, chociaż implementacja i zarządzanie shardami w takim środowisku mogą być bardziej złożone niż w bazach NoSQL. Sharding w relacyjnych bazach danych polega na podziale tabeli lub zestawu tabel na mniejsze, bardziej zarządzalne fragmenty, które są następnie rozpraszane na różne serwery lub klastry.

Kluczowe aspekty shardingu w relacyjnych bazach danych:

  1. Wybór Klucza Shardingowego: Podobnie jak w bazach NoSQL, klucz shardingowy jest używany do określenia, jak dane będą podzielone i rozdzielone na shardy. Wybór odpowiedniego klucza jest krytyczny, ponieważ wpływa na równomierny rozkład danych i wydajność zapytań.
  2. Złożoność Zarządzania: Relacyjne bazy danych często zawierają skomplikowane relacje i zależności między danymi. Sharding może wprowadzać wyzwania związane z zachowaniem integralności referencyjnej, spójności danych i wydajnością zapytań obejmujących wiele shardów.
  3. Transakcje i Spójność: Jednym z wyzwań jest zarządzanie transakcjami rozłożonymi na wielu shardach, zwłaszcza gdy wymagane jest przestrzeganie właściwości ACID. Zapewnienie spójności między shardami w czasie transakcji może być trudne.
  4. Modyfikacja Schematu: Implementacja sharding w istniejącej relacyjnej bazie danych często wymaga znacznych zmian w schemacie i logice aplikacji, aby wspierać rozproszone zapytania i transakcje.
  5. Narzędzia i Wsparcie: Niektóre nowoczesne relacyjne systemy zarządzania bazami danych oferują wbudowane wsparcie dla sharding, co ułatwia proces. Przykłady takich systemów to MySQL Cluster, PostgreSQL z rozszerzeniami takimi jak Postgres-XL, czy też rozwiązania komercyjne jak Oracle Sharding.
  6. Automatyzacja: W niektórych systemach istnieje możliwość automatyzacji procesu sharding, co minimalizuje potrzebę ręcznej interwencji i zmniejsza ryzyko błędów.

Sharding w relacyjnych bazach danych może znacznie zwiększyć skalowalność i wydajność, ale wymaga starannego planowania i implementacji, aby uniknąć problemów z wydajnością, spójnością danych i zarządzaniem transakcjami.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

What is GraphQL?

A

GraphQL is a query language for APIs and a runtime for executing those queries by using a type system you define for your data. It was developed by Facebook in 2012 and released publicly in 2015. Unlike the more traditional REST API, it offers a more efficient, powerful, and flexible approach to developing web APIs.

Key features and concepts of GraphQL include:

  1. Declarative Data Fetching: In GraphQL, the client specifies exactly what data it needs, and the server responds with precisely that data, in a single request. This contrasts with traditional REST APIs, where the server defines fixed data endpoints.
  2. Type System: GraphQL APIs are organized in terms of types and fields, not endpoints. This strong type system helps API consumers understand what data is available and how to query it.
  3. Single Endpoint: Unlike REST, which typically uses multiple URLs (endpoints) to access different data resources, GraphQL APIs usually expose a single endpoint. This simplifies the logic on the client side and can reduce the number of network requests.
  4. Real-time Updates with Subscriptions: Beyond queries and mutations (which are used to fetch and modify data, respectively), GraphQL supports real-time updates with subscriptions. When a client subscribes to an event, it will receive real-time updates from the server.
  5. Introspection: GraphQL APIs are self-documenting. Clients can query a GraphQL server for details about the schema, which helps with building and verifying queries.
  6. Efficiency and Performance: By allowing clients to request exactly what they need and nothing more, GraphQL minimizes over-fetching or under-fetching of data, which can lead to improved performance, especially for complex or nested data models.
  7. Flexibility: GraphQL can be used with any type of database or data source. It serves as an abstraction layer between clients and servers, providing a flexible and efficient data-fetching mechanism.

GraphQL has gained popularity in the development community for its ability to improve the performance and flexibility of web APIs. It’s especially useful for complex systems, mobile applications, and microservices architectures where control over data retrieval is crucial.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

What is gRPC?

A

gRPC (gRPC Remote Procedure Calls) is an open-source remote procedure call (RPC) framework developed by Google. It’s part of the Cloud Native Computing Foundation and is designed to enable efficient and robust communication between services in a distributed system. gRPC is widely used in microservices architectures for its high performance and language-agnostic design. Here are some of its key features:

  1. HTTP/2 Based: gRPC uses HTTP/2 for transport, which allows for multiplexing many requests over a single TCP connection, reducing latency and improving resource utilization.
  2. Protocol Buffers (Protobuf): By default, gRPC uses Protocol Buffers, Google’s language-neutral, platform-neutral, extensible mechanism for serializing structured data. Protobuf is more efficient and faster than JSON and XML.
  3. Language Agnosticism: gRPC supports many programming languages, enabling developers to create services in various languages that can seamlessly communicate with each other.
  4. Streaming Support: gRPC supports four types of streaming - unary (single request, single response), server streaming, client streaming, and bidirectional streaming. This makes it a good fit for real-time communication scenarios.
  5. Strong Typing: gRPC services are defined in a .proto file, which is a strict contract. This ensures that both client and server agree on the types and structures of data they exchange, leading to fewer runtime errors.
  6. Deadline/Timeouts and Cancellation: gRPC allows clients to specify how long they are willing to wait for an RPC to complete. Services can check these deadlines and attempt to complete the RPC within this time frame or abort if it’s no longer possible.
  7. Error Handling: gRPC has built-in support for rich error handling. It sends detailed error codes along with possible error details and metadata.
  8. Security: By using HTTP/2, gRPC has access to the security features built into this modern protocol, including the use of Transport Layer Security (TLS) for encrypted communication.

gRPC is well-suited for scenarios where high-performance inter-service communication is needed, such as in microservices architecture, cloud-native applications, and real-time data processing systems. Its performance, scalability, and cross-language support make it a popular choice among developers working on complex distributed systems.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q
A