Bądź na bieżąco - RSS

Aktualizacja Nextcloud w Dockerze: Nie zapomnij o tym kluczowym kroku!

31 stycznia, 2026 | Brak Komentarzy | Kategoria: Linux, Porady

Nextcloud Docker indeksyPodczas aktualizacji Nextcloud działającego w kontenerach Docker często pomija się jeden istotny element: indeksy bazy danych. Zaniedbanie przebudowy indeksów może powodować spowolnienie działania Nextcloud po aktualizacji. W tym artykule wyjaśniam krok po kroku, jak prawidłowo zadbać o Nextcloud Docker indeksy przed podniesieniem wersji.

To jeden z tych problemów, które trudno uchwycić na pierwszy rzut oka, bo wszystko działa – tylko wolniej. Czasem dochodzą do tego nieoczywiste komunikaty w logach lub w panelu administracyjnym: sugestie dotyczące bazy danych, ostrzeżenia o brakujących indeksach, albo zalecenia „optymalizacji”. W praktyce bardzo często winny jest pominięty krok przed główną aktualizacją: sprawdzenie i dodanie brakujących indeksów w bazie danych (w tym przypadku SQLite) komendą occ.

W tym artykule pokażę:

  • dlaczego Nextcloud potrafi zwolnić po aktualizacji, mimo że „nic się nie zepsuło”,
  • czym są indeksy w bazie danych i czemu mają krytyczne znaczenie dla wydajności,
  • dlaczego aktualizacje Nextcloud mogą wymagać nowych indeksów,
  • jak bezpiecznie wykonać procedurę krok po kroku w Dockerze (linuxserver/nextcloud),
  • co zrobić, gdy komenda zwróci błąd.

Zanim zrobisz większą aktualizację Nextcloud w kontenerze Docker, uruchom occ db:add-missing-indices i dopiero potem przechodź do aktualizacji obrazu. To prosty nawyk, który potrafi oszczędzić godziny diagnozy „dlaczego po update jest wolniej”.

Skąd bierze się spowolnienie Nextcloud po aktualizacji?

Wydajność Nextcloud zależy od wielu elementów: zasobów serwera, konfiguracji PHP, pamięci podręcznej (Redis), silnika bazy danych i sposobu przechowywania danych. Jeśli jednak mówimy o scenariuszu „po aktualizacji było dobrze, a teraz jest gorzej”, to warto zacząć od tego, co aktualizacja zmienia najczęściej: strukturę danych i sposób, w jaki aplikacja odpyta bazę.

Nextcloud rozwija się dynamicznie. Z każdą wersją pojawiają się nowe funkcje, nowe mechanizmy indeksowania plików, dodatkowe metadane, czasem nowe tabele lub kolumny. Nawet jeśli sama migracja bazy przejdzie poprawnie, to po aktualizacji aplikacja może wykonywać zapytania, które wcześniej były rzadkie albo w ogóle nie występowały. Jeśli do tych zapytań brakuje indeksów, baza danych zaczyna wykonywać kosztowne skany, co w SQLite potrafi szybko stać się wąskim gardłem.

Efekt? Użytkownik widzi „czkawkę” w interfejsie, administrator widzi wzrost obciążenia, a w logach — pozornie nic spektakularnego.

Czym są indeksy w bazie danych i dlaczego są kluczowe?

Indeks w bazie danych możesz porównać do spisu treści albo indeksu haseł w książce. Jeśli chcesz znaleźć konkretne nazwisko w 800-stronicowej publikacji, nie czytasz wszystkiego od początku — korzystasz z indeksu, który wskazuje stronę. Podobnie działa baza danych: kiedy aplikacja pyta „znajdź wszystkie rekordy spełniające warunek X”, indeks pozwala szybko dojść do wyniku bez przeglądania całej tabeli.

Bez indeksu baza często musi wykonać tzw. full table scan, czyli przeszukanie całej tabeli. Przy małych danych to jeszcze „jakoś działa”. Ale Nextcloud bardzo szybko generuje duże ilości rekordów: pliki, udziały, wersje, podglądy, informacje o użytkownikach, aplikacjach, logach, aktywnościach, cronach, zadaniach tła… Lista rośnie.

Najważniejsze korzyści z indeksów:

  • Szybsze zapytania SELECT – szczególnie po kolumnach używanych w filtrach i joinach.
  • Mniejsze obciążenie CPU i I/O – mniej pracy dla bazy i mniej odczytów.
  • Stabilniejsza wydajność przy rosnącej liczbie rekordów.
  • Mniej „dziwnych” problemów, gdzie interfejs działa, ale reaguje opóźnieniem.

Oczywiście indeksy mają też koszt: spowalniają część operacji zapisu (INSERT/UPDATE), bo indeks również trzeba aktualizować. Ale w kontekście Nextcloud, gdzie kluczowe są szybkie odczyty i filtrowanie, poprawnie dobrane indeksy są absolutnie fundamentalne.

Dlaczego aktualizacja Nextcloud może wymagać nowych indeksów?

Aktualizacja Nextcloud to nie tylko „nowszy kod w kontenerze”. To także:

  • nowe lub zmodyfikowane tabele,
  • nowe kolumny w istniejących tabelach,
  • zmiany w sposobie, w jaki aplikacja wyszukuje dane,
  • nowe funkcje, które generują dodatkowe zapytania (np. aktywności, udostępnienia, pełnotekstowe wyszukiwanie, integracje).

W idealnym świecie każda migracja bazy danych dodaje wszystko, co potrzebne. W praktyce — zwłaszcza w dużych projektach — zdarza się, że po aktualizacji pojawiają się zalecenia: „Dodaj brakujące indeksy, aby poprawić wydajność”. Nextcloud dostarcza do tego gotowe narzędzie: komendę OCC, która potrafi wykryć brakujące indeksy i je utworzyć.

Jeśli ten krok pominiesz, Nextcloud będzie działał, ale baza może wykonywać znacznie więcej pracy. A przy SQLite — która świetnie sprawdza się w mniejszych instalacjach, ale ma swoje ograniczenia w obciążonych środowiskach — brak indeksów potrafi być szczególnie bolesny.

Wskazówka administracyjna: Jeśli Twoja instancja ma wielu użytkowników, duże biblioteki plików lub intensywne udostępnienia, rozważ migrację z SQLite do PostgreSQL/MariaDB. Ale nawet wtedy komenda dodająca brakujące indeksy pozostaje dobrym nawykiem.

Instrukcja krok po kroku: indeksy SQLite przed aktualizacją Nextcloud w Dockerze

Poniższa procedura zakłada, że używasz obrazu linuxserver/nextcloud i zarządzasz kontenerem standardowo (Docker / docker-compose). Kluczowa zasada: najpierw backup, potem indeksy, dopiero później aktualizacja obrazu.

[GRAFIKA: Schemat blokowy przedstawiający poprawny proces aktualizacji Nextcloud z krokiem „db:add-missing-indices”]
Grafika powinna pokazywać prosty proces w formie flowchartu: (1) Backup → (2) Uruchomienie komendy occ db:add-missing-indices → (3) Aktualizacja obrazu/wersji Nextcloud → (4) Weryfikacja działania i logów. Alternatywnie: zrzut ekranu terminala z wykonaniem komendy i komunikatem o dodanych indeksach.

Krok 1: Zrób pełną kopię zapasową (kontener + wolumeny z danymi)

To jest moment, w którym wielu administratorów „idzie na skróty”, bo „to tylko mały update”. A potem pojawia się problem i nie ma do czego wrócić. Backup przed operacją na bazie danych to absolutna podstawa — nawet jeśli narzędzie jest bezpieczne, zawsze może dojść do:

  • braku miejsca na dysku podczas tworzenia indeksów,
  • przerwania procesu (restart hosta, restart Dockera, awaria zasilania),
  • problemów z uprawnieniami, które kończą się częściową modyfikacją plików bazy,
  • niezgodności w środowisku pośrodku zmian.

Co backupować?

  • Wolumen / katalog z danymi Nextcloud (to, co mapujesz jako /data i zwykle także /config w linuxserver/nextcloud).
  • Plik bazy SQLite – najczęściej znajduje się w obrębie danych/configu Nextcloud (zależnie od Twojego mapowania).
  • Konfigurację kontenera – np. plik docker-compose.yml, zmienne środowiskowe, reverse proxy, cron.

Najprościej: wykonaj kopię katalogów mapowanych jako wolumeny (np. snapshot na poziomie systemu plików, kopia na NAS, tar na zewnętrzny dysk). Jeżeli masz możliwość snapshotów (ZFS/Btrfs/LVM) – to jest świetny moment, by z nich skorzystać.

Krok 2: Uruchom komendę dodającą brakujące indeksy

Gdy backup jest gotowy i kontener Nextcloud działa, przechodzimy do sedna. Oto komenda, którą warto wykonać przed większą aktualizacją:

docker exec -it -u abc nextcloud php /config/www/nextcloud/occ \
db:add-missing-indices

Ta komenda uruchamia narzędzie occ wewnątrz kontenera i zleca Nextcloud sprawdzenie brakujących indeksów w bazie oraz ich utworzenie (jeśli to możliwe). W wielu przypadkach dostaniesz informację o tym, jakie indeksy zostały dodane, albo że nic nie trzeba robić.

Co oznaczają flagi i elementy komendy?

  • docker exec – uruchamia polecenie w działającym kontenerze.
  • -it – to dwie flagi naraz:
    • -i (interactive) utrzymuje wejście standardowe otwarte,
    • -t (tty) przydziela pseudo-terminal, dzięki czemu komenda zachowuje się „jak w normalnej konsoli”.

    W praktyce: bez -it często też zadziała, ale w administracji Nextcloud i pracy z occ to po prostu dobry standard.

  • -u abc – uruchamia polecenie jako użytkownik abc wewnątrz kontenera. W obrazach linuxserver.io aplikacje zwykle działają pod użytkownikiem o takiej nazwie, a uruchamianie occ jako root potrafi skończyć się problemami z uprawnieniami do plików (zwłaszcza w /config i danych Nextcloud).
  • nextcloud – nazwa Twojego kontenera. Jeśli masz inną (np. nc albo nextcloud-app), podmień ją na właściwą.
  • php – uruchamiamy interpreter PHP, bo occ jest skryptem PHP.
  • /config/www/nextcloud/occ – ścieżka do pliku occ w kontenerze linuxserver/nextcloud. To ważne: w zależności od obrazu ścieżka bywa inna, ale dla linuxserver/nextcloud ta lokalizacja jest typowa.
  • db:add-missing-indices – właściwa komenda OCC, która sprawdza i tworzy brakujące indeksy.

Krok 3: Zinterpretuj wynik i upewnij się, że wszystko przebiegło poprawnie

Jeśli wszystko pójdzie dobrze, zobaczysz komunikaty o dodanych indeksach lub informację, że brakujących indeksów nie znaleziono. Warto po tym kroku:

  • rzucić okiem na logi Nextcloud,
  • sprawdzić panel administracyjny (sekcja ostrzeżeń/konfiguracji),
  • odczekać chwilę, jeśli baza jest duża (tworzenie indeksów może trwać).

Dopiero po tej operacji przechodź do standardowej procedury aktualizacji kontenera (pull nowego obrazu, restart, ewentualne migracje).

Co zrobić, jeśli komenda zwróci błąd?

Błędy zdarzają się rzadko, ale warto mieć plan działania. Oto najczęstsze scenariusze i szybkie kroki naprawcze:

  1. Kontener nie działaJeśli docker exec zwraca błąd typu „Container … is not running”, najpierw upewnij się, że Nextcloud jest uruchomiony:
    • sprawdź docker ps,
    • zobacz logi kontenera: docker logs nextcloud,
    • uruchom kontener ponownie i dopiero wtedy wykonaj komendę OCC.
  2. Zła nazwa konteneraGdy komenda wskazuje, że nie ma takiego kontenera, sprawdź nazwę w docker ps i podmień w poleceniu.
  3. Problemy z uprawnieniamiJeśli w logach pojawiają się błędy zapisu lub dostępu do plików, najpierw upewnij się, że uruchamiasz polecenie jako właściwy użytkownik (-u abc). W obrazach linuxserver to zazwyczaj właściwy wybór. Jeśli masz nietypową konfigurację PUID/PGID, sprawdź, czy mapowania wolumenów mają poprawne prawa dostępu.
  4. Błąd ścieżki do OCCJeżeli dostaniesz komunikat, że plik /config/www/nextcloud/occ nie istnieje, możliwe że:
    • używasz innego obrazu niż linuxserver/nextcloud,
    • Twoja struktura w kontenerze jest inna.

    Wtedy wejdź do kontenera i sprawdź, gdzie leży occ:

    docker exec -it nextcloud sh

    a następnie zlokalizuj plik (np. find / -name occ 2>/dev/null) i dostosuj ścieżkę w komendzie.

  5. Sprawdź logi Nextcloud i logi konteneraJeśli błąd jest „aplikacyjny” (np. problem z bazą, lockami, trybem maintenance), zajrzyj do:
    • logów kontenera: docker logs nextcloud,
    • logu Nextcloud (w zależności od konfiguracji zwykle w /config/www/nextcloud/data/nextcloud.log lub analogicznym miejscu w wolumenie).

Uwaga: Jeśli Twoja instancja jest intensywnie używana (wielu aktywnych użytkowników), rozważ wykonanie tego kroku w oknie serwisowym. Dodawanie indeksów potrafi chwilowo zwiększyć obciążenie bazy.

Dlaczego warto robić to regularnie (i czemu „przed aktualizacją” ma znaczenie)?

Możesz zapytać: „Skoro to tylko indeksy, to czemu mam robić to przed aktualizacją, a nie po?”. Dwa powody:

  • Minimalizujesz ryzyko kumulacji zmian. Jeśli po aktualizacji coś zacznie działać gorzej, nie wiesz, czy to wina migracji wersji, nowych funkcji, czy brakujących indeksów. Robiąc indeksy wcześniej, izolujesz zmienną.
  • Zwiększasz szansę na płynny start po update. Po aktualizacji Nextcloud może uruchomić procesy, które natychmiast zaczną intensywnie odpytwać bazę. Jeśli indeksy już są, unikasz „zimnego prysznica” wydajnościowego.

W praktyce to mały rytuał administracyjny, który warto dodać do checklisty. Zwłaszcza jeśli prowadzisz blog techniczny i chcesz promować dobre nawyki: backup, sanity-check bazy, dopiero potem aktualizacja.

Podsumowanie

Wydajność Nextcloud po aktualizacji nie zawsze psuje się spektakularnie. Częściej „siada po cichu”: trochę wolniej tu, trochę wolniej tam — aż w końcu zaczyna przeszkadzać. Brakujące indeksy w bazie danych (także w SQLite) to jeden z najbardziej niedocenianych powodów takiego zachowania.

Dobry nawyk administracyjny wygląda tak:

  1. Backup (zawsze).
  2. occ db:add-missing-indices w działającym kontenerze.
  3. Dopiero potem aktualizacja Nextcloud (pull + restart + weryfikacja).

To prosta procedura, a potrafi realnie poprawić stabilność i wydajność po kolejnych wydaniach.

Twoja kolej

Masz za sobą aktualizację Nextcloud, po której instalacja zaczęła działać wolniej? A może komenda db:add-missing-indices uratowała Cię przed długim wieczorem z logami?

Napisz w komentarzu, jak wygląda Twoja checklist aktualizacji Nextcloud w Dockerze, jakie problemy spotkałeś i jak je rozwiązałeś. Jeśli artykuł okazał się pomocny, udostępnij go komuś, kto też administruje Nextcloud. I jeśli chcesz dostawać podobne praktyczne poradniki – zasubskrybuj bloga, bo regularnie publikuję sprawdzone procedury i rozwiązania „z pola walki”.

G

Tagi: , ,

Portainer nie działa po aktualizacji Dockera – najszybsze rozwiązanie

27 grudnia, 2025 | Brak Komentarzy | Kategoria: Linux, Porady

Błąd Portainer local unreachable po aktualizacji DockeraPortainer nie działa po aktualizacji Dockera – najszybsze rozwiązanie:

Po aktualizacji systemu lub Dockera (szczególnie do wersji Docker Engine 29) wielu administratorów zauważa, że Portainer uruchamia się poprawnie, można się do niego zalogować, ale nie da się zarządzać lokalnym środowiskiem Docker.

W interfejsie Portainera pojawia się wtedy komunikat:

Failed loading environment
The environment named local is unreachable

W tym artykule pokazuję najszybsze i najprostsze rozwiązanie, które pozwala przywrócić działanie Portainera bez cofania Dockera ani systemu operacyjnego.


Dlaczego Portainer przestaje działać po aktualizacji Dockera?

Od wersji Docker Engine 29 demon Dockera wymusza minimalną wersję API na poziomie 1.44. Problem polega na tym, że aktualna wersja Portainer CE wciąż korzysta ze starszej wersji Docker API.

Efekt jest następujący:

  • Docker działa poprawnie
  • Kontener Portainera uruchamia się bez błędów
  • Portainer nie może połączyć się z lokalnym Dockerem

To powoduje, że środowisko local jest oznaczone jako niedostępne.


Najprostsze i najszybsze rozwiązanie problemu

Rozwiązaniem jest obniżenie minimalnej wersji Docker API, którą demon Dockera akceptuje od klientów takich jak Portainer.

Wykonuje się to poprzez edycję pliku konfiguracyjnego Dockera:

Krok 1: Edycja pliku /etc/docker/daemon.json

Na hoście (Debian, Ubuntu, Raspberry Pi OS) otwórz plik:

sudo nano /etc/docker/daemon.json

Jeżeli plik nie istnieje, utwórz go i wklej:

{
  "min-api-version": "1.24"
}

Jeżeli plik już istnieje (np. zawiera data-root), dopisz nową linię, zachowując poprawną składnię JSON:

{
  "data-root": "/var/lib/docker",
  "min-api-version": "1.24"
}

Uwaga: brak przecinka między wpisami spowoduje, że Docker nie uruchomi się.


Krok 2: Restart Dockera

sudo systemctl daemon-reload
sudo systemctl restart docker

Sprawdź, czy Docker działa poprawnie:

docker ps

Krok 3: Restart Portainera

docker restart portainer

Po kilku sekundach odśwież interfejs Portainera w przeglądarce.


Efekt końcowy

Po wykonaniu powyższych kroków:

  • środowisko local w Portainerze staje się dostępne
  • można normalnie zarządzać kontenerami i stackami
  • nie ma potrzeby downgrade’u Dockera

Podsumowanie

Problem z Portainerem po aktualizacji Dockera wynika z niezgodności wersji Docker API, a nie z błędnej konfiguracji kontenera.

Dodanie wpisu:

"min-api-version": "1.24"

w pliku /etc/docker/daemon.json jest obecnie najszybszym i najbezpieczniejszym rozwiązaniem, dopóki Portainer nie wprowadzi pełnej kompatybilności z Docker Engine 29.

G

Tagi: , , ,

OpenVAS w kontenerze Docker

2 grudnia, 2025 | Brak Komentarzy | Kategoria: Linux, Porady
OpenVAS, Docker

Przewodnik po obrazie immauss/openvas

 

OpenVAS (Open Vulnerability Assessment Scanner) to jedno z najbardziej rozpoznawalnych narzędzi open-source do skanowania luk w zabezpieczeniach.
Dzięki konteneryzacji z wykorzystaniem Dockera wdrożenie oraz utrzymanie tego skanera stało się prostsze, bardziej powtarzalne i odporne na problemy
z zależnościami systemowymi. Jednym z najpopularniejszych kontenerowych wydań jest obraz immauss/openvas, który umożliwia szybkie uruchomienie w pełni funkcjonalnego środowiska skanowania na dowolnym serwerze obsługującym Docker.

Czym jest immauss/openvas?

Obraz immauss/openvas to nieoficjalny, lecz aktywnie rozwijany kontener Dockera zawierający kompletną instalację narzędzia OpenVAS/GVM.
Projekt jest regularnie aktualizowany, co zapewnia świeże bazy NVT (Network Vulnerability Tests), środowisko GVM oraz kompatybilność z nowszymi wersjami Dockera.

Najważniejsze cechy obrazu:

  • oparty na aktualnych pakietach GVM,
  • zautomatyzowane pobieranie i aktualizacje baz NVT,
  • gotowy do użycia interfejs webowy,
  • uproszczona konfiguracja oraz start kontenera.

Instalacja i pierwsze uruchomienie

Wymagania wstępne

  • System Linux, macOS lub Windows (z włączonym Docker Desktop).
  • Zainstalowany i działający Docker Engine.

Pobranie obrazu

docker pull immauss/openvas

Uruchomienie kontenera

Przykładowa komenda docker run:

docker run -d \
  --name openvas \
  -p 8080:9392 \
  -v openvas-data:/data \
  immauss/openvas

Opis parametrów:

  • --name openvas — nazwa kontenera,
  • -p 8080:9392 — mapowanie portu interfejsu webowego GVM na port 8080 hosta,
  • -v openvas-data:/data — wolumen zapewniający trwałość danych (konfiguracje, wyniki skanów, raporty).

Ważna informacja — pierwsze uruchomienie trwa długo

Przy pierwszym starcie kontener pobiera pełną bazę testów NVT oraz kompiluje je – operacja ta może potrwać
nawet kilkadziesiąt minut, w zależności od wydajności dysku i łącza internetowego. Jest to zachowanie oczekiwane i
nie należy przerywać tego procesu, jeśli kontener wygląda na zajęty lub logi intensywnie się przewijają.

Dostęp do interfejsu webowego i pierwsze kroki

Po poprawnym uruchomieniu kontenera otwórz przeglądarkę i wpisz adres:

http://[IP_SERWERA]:8080

Domyślny login: admin
Hasło: generowane automatycznie przy starcie kontenera.

Aby wyświetlić wygenerowane hasło, użyj polecenia:

docker logs openvas | grep "Admin Password"

Po zalogowaniu zaleca się natychmiastową zmianę hasła oraz konfigurację podstawowych parametrów systemu,
w szczególności ustawień związanych z kontami użytkowników, polityką haseł oraz dostępem sieciowym do panelu GVM.

Kluczowe funkcje i możliwości OpenVAS/GVM

OpenVAS w wersji kontenerowej oferuje pełny zestaw funkcjonalności środowiska GVM, co pozwala na realizację
kompleksowych procesów zarządzania podatnościami w infrastrukturze IT.

Skanowanie hostów i sieci

  • skan pojedynczego adresu IP,
  • skan całych zakresów adresowych (np. w notacji CIDR),
  • zaawansowane skanowanie z parametryzacją portów, intensywności testów oraz wykluczeń.

Zarządzanie zadaniami skanowania

  • definiowanie zadań skanowania przypisanych do konkretnych celów (Targets),
  • tworzenie harmonogramów skanów cyklicznych,
  • wykorzystanie profili skanowań dostosowanych do różnych scenariuszy (np. szybki skan, pełny audyt).

Zaawansowana analiza raportów

  • eksport raportów do formatów takich jak PDF, XML czy TXT,
  • grupowanie wyników według poziomu ryzyka i rodzaju podatności,
  • śledzenie zmian podatności w czasie, co ułatwia weryfikację efektywności wdrażanych poprawek.

Integracje i automatyzacja

  • dostępne API GVM (GMP), pozwalające na integrację z systemami SIEM, SOAR lub autorskimi narzędziami,
  • możliwość uruchamiania skanów zautomatyzowanych w ramach pipeline’ów CI/CD,
  • współpraca z systemami zarządzania ryzykiem i ticketingiem (np. poprzez integracje pośrednie).

Zalety użycia wersji kontenerowej

Uruchomienie OpenVAS jako kontenera Dockera niesie ze sobą szereg korzyści z punktu widzenia administratorów systemów
oraz zespołów odpowiedzialnych za cyberbezpieczeństwo.

Izolacja środowiska

Kontener zapewnia izolację procesów i zależności od systemu hosta. Dzięki temu instalacja OpenVAS nie wpływa na inne
usługi oraz pakiety zainstalowane w systemie operacyjnym, a ewentualne konflikty bibliotek są znacząco ograniczone.

Łatwość aktualizacji

Aktualizacja środowiska sprowadza się do pobrania nowszej wersji obrazu i ponownego uruchomienia kontenera:

docker pull immauss/openvas
docker stop openvas
docker rm openvas
docker run -d \
  --name openvas \
  -p 8080:9392 \
  -v openvas-data:/data \
  immauss/openvas

Dane (konfiguracje, wyniki skanów, raporty) pozostają zachowane w wolumenie openvas-data.

Przenośność i skalowalność

Kontener można uruchomić na dowolnym serwerze, który obsługuje Dockera — zarówno w infrastrukturze on-premise,
jak i w chmurze. Umożliwia to szybkie tworzenie środowisk testowych, a także skalowanie rozwiązania poprzez uruchomienie
wielu instancji w zależności od potrzeb organizacji.

Brak konfliktów zależności

Tradycyjna instalacja OpenVAS bezpośrednio w systemie bywa wymagająca i podatna na problemy z zależnościami.
Wersja kontenerowa eliminuje konieczność ręcznej kompilacji czy dostosowywania środowiska, ponieważ wszystkie
potrzebne komponenty znajdują się wewnątrz obrazu Docker.

Szybkie i powtarzalne wdrożenie

Wdrożenie OpenVAS za pomocą kontenera Docker może zostać w pełni zautomatyzowane (np. z użyciem Ansible, Terraform
czy pipeline’ów CI/CD), co pozwala na szybkie odtwarzanie środowiska w różnych lokalizacjach lub w razie awarii.

Podsumowanie

Kontener immauss/openvas stanowi wydajne, stabilne i praktyczne rozwiązanie dla specjalistów
cyberbezpieczeństwa, administratorów systemów, zespołów SOC oraz pentesterów. Umożliwia szybkie wdrożenie narzędzia
OpenVAS na dowolnym środowisku, zapewnia efektywną automatyzację skanowania oraz pełną powtarzalność konfiguracji.

Włączenie tego rozwiązania do arsenału narzędzi bezpieczeństwa znacząco ułatwia prowadzenie regularnych, niezależnych audytów podatności, wspiera proces zarządzania ryzykiem oraz pozwala na bieżąco weryfikować stan bezpieczeństwa infrastruktury IT w organizacji.

G

Tagi: , ,

Jak zwiększyć rozmiar dysku maszyny wirtualnej w Proxmox – krok po kroku

25 października, 2025 | Brak Komentarzy | Kategoria: Linux, Porady

Interfejs Proxmox z podświetloną opcją zwiększania rozmiaru dysku w maszynie wirtualnej - minimalistyczna grafika wektorowa

Wprowadzenie

Z biegiem czasu nawet najlepiej zaplanowana maszyna wirtualna może zacząć odczuwać brak przestrzeni dyskowej. Rosnące bazy danych, nowe aplikacje, aktualizacje systemowe czy gromadzone logi – wszystko to powoduje, że konieczne staje się zwiększenie rozmiaru dysku w Proxmox. Na szczęście, dzięki elastyczności Proxmox VE, operacja ta jest prosta i bezpieczna – pod warunkiem, że wykonamy ją poprawnie.

W tym poradniku pokazuję jak zwiększyć rozmiar dysku w Proxmox oraz jak rozszerzyć partycję w systemie Linux, aby w pełni wykorzystać nową przestrzeń.

Zwiększanie rozmiaru dysku w Proxmox przez interfejs webowy

Krok 1: Zaloguj się do panelu Proxmox

  1. Otwórz przeglądarkę i wejdź na adres panelu, np. https://twoj-serwer:8006.
  2. W drzewie po lewej wybierz węzeł (node), a następnie właściwą maszynę wirtualną.

Krok 2: Przejdź do zakładki „Hardware”

W ustawieniach VM wybierz zakładkę Hardware. Zobaczysz listę urządzeń przypisanych do maszyny: karty sieciowe, dyski, itp.

Krok 3: Wybierz dysk do powiększenia

  1. Z listy wybierz odpowiedni dysk wirtualny (np. scsi0, virtio0, sata0).
  2. Kliknij Disk Actions (Działania na dysku) → Resize (Zmień rozmiar).

Krok 4: Zwiększ rozmiar dysku

  1. W oknie dialogowym podaj, o ile GB chcesz zwiększyć dysk (np. 20).
  2. Potwierdź zmianę — Proxmox powiększy plik dysku.

Uwaga: Operacja zwiększania jest jednokierunkowa. Zmniejszanie dysków nie jest wspierane – upewnij się co do docelowego rozmiaru.

Krok 5: Uruchom maszynę wirtualną

Jeśli VM była wyłączona, uruchom ją. Hypervisor widzi już nowy rozmiar, ale system gościa musi rozszerzyć partycję, by wykorzystać dodatkowe miejsce.

Rozszerzanie partycji w systemie Linux

Po zwiększeniu dysku w Proxmox wykonujemy trzy kroki w gościu:

  1. Aktualizacja tablicy partycji,
  2. Rozszerzenie partycji,
  3. Powiększenie systemu plików.

Sprawdź aktualny stan dysku

Zaloguj się do VM (SSH lub konsola Proxmox) i sprawdź dyski:

lsblk

Przykładowy wynik:

NAME   MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
vda      252:0    0   80G  0 disk
└─vda1   252:1    0   40G  0 part /

Widać, że dysk vda ma 80 GB, ale partycja vda1 wciąż 40 GB.

Aktualizacja tablicy partycji i rozszerzenie partycji

Wygodne narzędzie to growpart (pakiet cloud-guest-utils):

sudo apt update && sudo apt install -y cloud-guest-utils
sudo growpart /dev/vda 1

Powyższe rozszerza partycję 1 na dysku /dev/vda do maksymalnego dostępnego rozmiaru.

Alternatywy: fdisk, parted (patrz niżej).

Powiększenie systemu plików

Dla ext4:

sudo resize2fs /dev/vda1

Dla XFS (zakładając, że / jest na XFS):

sudo xfs_growfs /

Sprawdź efekt:

df -h

Zwiększanie rozmiaru dysku w systemach z LVM

Jeśli system korzysta z LVM (Logical Volume Manager), po rozciągnięciu partycji fizycznej wykonaj:

  1. Aktualizacja PV:
    sudo pvresize /dev/vda3
  2. Rozszerzenie LV (na cały wolny obszar):
    sudo lvextend -l +100%FREE /dev/mapper/ubuntu--vg-ubuntu--lv
  3. Powiększenie systemu plików (ext4):
    sudo resize2fs /dev/mapper/ubuntu--vg-ubuntu--lv

Narzędzia do zarządzania partycjami w Linux

  • fdisk – klasyczny, interaktywny edytor tablicy partycji (MBR/GPT).
  • parted – nowocześniejszy, dobrze radzi sobie z GPT i dużymi dyskami.
  • growpart – szybkie rozszerzanie istniejących partycji (często na VM).
  • lvextend – powiększanie logicznych wolumenów w LVM.

Najczęstsze problemy i rozwiązania

1) Proxmox nie pozwala zwiększyć dysku

  • Sprawdź typ kontrolera (VirtIO/SCSI) oraz wersję Proxmox.
  • W starszych wersjach wymagane było wyłączenie VM przed powiększeniem.

2) Linux nie widzi nowego rozmiaru

  • Wymuś ponowne odczytanie tablicy partycji:
    sudo partprobe
  • Jeśli to nie pomaga – uruchom VM ponownie.

3) Brak growpart

  • Użyj fdisk:
    1. Usuń i utwórz tę samą partycję z tym samym początkiem, ale większym końcem.
    2. Zapisz zmiany i wykonaj resize2fs lub xfs_growfs.

    Bezpieczeństwo: dane pozostają nienaruszone, o ile początek partycji się nie zmieni.

4) Błąd przy resize2fs

  • Upewnij się, że system plików nie jest zamontowany jako tylko do odczytu.
  • W razie potrzeby skorzystaj z trybu awaryjnego (single-user) lub z partycji ratunkowej.

Najlepsze praktyki

  • Backup przed operacją – szczególnie w środowiskach produkcyjnych.
  • Stopniowe powiększanie – dodawaj przestrzeń w rozsądnych krokach.
  • Dokumentacja zmian – przyda się do audytu i odtwarzania konfiguracji.

Podsumowanie

  1. Zaloguj się do Proxmox → Hardware → Disk Actions → Resize.
  2. Uruchom VM i zaloguj się do systemu gościa.
  3. Rozszerz partycję (growpart, fdisk, parted).
  4. Powiększ system plików (resize2fs lub xfs_growfs).

Po tych krokach Twoja maszyna wirtualna w pełni wykorzysta większy dysk.

G

Tagi: , , , ,

Bezpieczny serwer SFTP w 5 minut? To możliwe z Dockerem i atmoz/sftp!

27 września, 2025 | Brak Komentarzy | Kategoria: Linux, Porady
Serwer SFTP atmoz/sftp

Potrzebujesz szybko uruchomić bezpieczny serwer SFTP w odizolowanym środowisku, bez instalacji dodatkowego oprogramowania na serwerze? Dzięki obrazowi Docker atmoz/sftp jest to możliwe w kilka minut. W tym artykule pokażemy, jak skonfigurować taki serwer krok po kroku oraz jak dostosować go do różnych scenariuszy w praktyce.

Dlaczego warto wybrać atmoz/sftp?

Obraz atmoz/sftp to lekka, gotowa do użycia implementacja serwera SFTP, która działa w kontenerze Dockera. Rozwiązuje typowe problemy administratorów:

  • Izolacja: serwer SFTP działa w kontenerze, minimalizując ryzyko wpływu na system hosta.
  • Łatwa konfiguracja: wystarczy kilka zmiennych środowiskowych, by uruchomić gotowy serwer.
  • Bezpieczeństwo: dostęp oparty na SSH i możliwość ograniczenia użytkowników do wybranych katalogów.
  • Szybkość wdrożenia: w kilka minut można uruchomić działający serwer, bez kompilacji czy skomplikowanej konfiguracji.

Instalacja Dockera

Jeśli nie masz jeszcze zainstalowanego Dockera, możesz to zrobić w systemach Linux za pomocą poleceń:

sudo apt update 
sudo apt install docker.io -y 
sudo systemctl enable --now docker 

Sprawdź, czy Docker działa poprawnie:

docker --version 

Uruchomienie podstawowego serwera SFTP

Poniższe polecenie tworzy prosty serwer SFTP z jednym użytkownikiem:

docker run -p 22:22 -d \ 
-v /host/data:/home/user/upload \ 
-e SFTP_USERS="user:password:::upload" \ 
atmoz/sftp 

Wyjaśnienie parametrów:

  • -p 22:22 – mapowanie portu kontenera na port hosta.
  • -v /host/data:/home/user/upload – montowanie katalogu z hosta jako przestrzeni dostępnej dla użytkownika.
  • -e SFTP_USERS – definiuje użytkowników w formacie login:hasło:uid:gid:katalog.

Praktyczne scenariusze konfiguracji

1. Jeden użytkownik z dostępem do katalogu

docker run -p 22:22 -d \ 
-v /srv/sftp/data:/home/alice/data \ 
-e SFTP_USERS="alice:SuperHaslo:::data" \ 
atmoz/sftp 

Użytkownik alice może logować się i przesyłać pliki wyłącznie do katalogu /home/alice/data.

2. Wielu użytkowników z różnymi katalogami

docker run -p 22:22 -d \ 
-v /srv/sftp/alice:/home/alice/data \ 
-v /srv/sftp/bob:/home/bob/docs \ 
-e SFTP_USERS="alice:HasloAlice:::data bob:HasloBob:::docs" \ 
atmoz/sftp 

Każdy użytkownik ma własny katalog i jest w nim ograniczony (tzw. chroot).

3. Integracja z aplikacją – katalog współdzielony

docker run -p 2222:22 -d \ 
-v /srv/app/uploads:/home/client/shared \ 
-e SFTP_USERS="client:TrudneHaslo:::shared" \ 
--name sftp-server \ 
atmoz/sftp 

Taki scenariusz jest często używany do automatycznej wymiany danych między aplikacjami a partnerami biznesowymi.

Bezpieczeństwo i dobre praktyki

  • Używaj silnych haseł lub – lepiej – kluczy SSH.
  • Uruchamiaj kontener z ograniczonymi uprawnieniami i wyłącz dostęp roota.
  • Regularnie aktualizuj obraz atmoz/sftp do najnowszej wersji.
  • Monitoruj logi kontenera za pomocą docker logs.

Zalety wykorzystania Dockera i atmoz/sftp

Uruchomienie serwera SFTP w kontenerze Dockera pozwala na:

  • Szybkie wdrożenie: pełna konfiguracja w kilka minut.
  • Łatwą migrację: kontener można przenieść na inny host bez zmian w konfiguracji.
  • Bezpieczeństwo: odizolowane środowisko minimalizuje ryzyko podatności w systemie hosta.
  • Skalowalność: łatwo uruchomić wiele instancji dla różnych klientów.

Podsumowanie

Obraz atmoz/sftp to idealne rozwiązanie, jeśli potrzebujesz szybko uruchomić bezpieczny serwer SFTP w odizolowanym i łatwym do zarządzania środowisku. Dzięki Dockerowi wdrożenie jest proste, a konfiguracja elastyczna – od prostych jednoużytkownikowych scenariuszy po integrację z aplikacjami biznesowymi.

G

Tagi: , , , ,

Jak odblokować funkcje enterprise w Proxmox VE? Poznaj pve-fake-subscription

30 sierpnia, 2025 | Brak Komentarzy | Kategoria: Linux, Porady
pve-fake-subscription

Proxmox VE to jedno z najpopularniejszych, darmowych rozwiązań do wirtualizacji serwerów i zarządzania klastrami. Platforma oferuje bogaty zestaw funkcji, które w komercyjnych produktach często są dodatkowo płatne. Jednak bez aktywnej enterprise subscription, użytkownicy nie mają dostępu do oficjalnych repozytoriów enterprise oraz pełnych funkcji wspieranych przez producenta. Zamiast tego widzą uciążliwe komunikaty o braku subskrypcji.

Czym jest pve-fake-subscription?

pve-fake-subscription to popularny skrypt dostępny na GitHub, który „oszukuje” system Proxmox VE, podając mu fałszywą licencję subskrypcyjną. Dzięki temu panel administracyjny przestaje wyświetlać komunikaty o braku licencji, a użytkownik może odblokować dostęp do pewnych funkcji enterprise.

Jak to działa w uproszczeniu?

  • Skrypt podmienia lokalne pliki konfiguracyjne odpowiedzialne za weryfikację klucza subskrypcji.
  • System uznaje, że posiada ważną subskrypcję enterprise.
  • Dzięki temu znika komunikat o braku licencji, a część funkcji interfejsu zostaje odblokowana.

Rozwiązanie to jest dobrze znane w społeczności homelab i entuzjastów IT, jednak nie jest oficjalnie wspierane przez twórców Proxmox.

Ważne ostrzeżenie

Uwaga: poniższe informacje są przeznaczone wyłącznie do celów edukacyjnych i testowych w środowiskach homelab lub nieprodukcyjnych. Używanie narzędzia pve-fake-subscription w środowisku produkcyjnym może:

  • naruszać warunki licencyjne Proxmox,
  • pozbawić system ważnych aktualizacji bezpieczeństwa,
  • prowadzić do niestabilności i utraty wsparcia technicznego.

Autor niniejszego wpisu ani blog nie ponoszą odpowiedzialności za ewentualne szkody wynikające z użycia tego rozwiązania. Jeśli pracujesz w środowisku produkcyjnym – zawsze korzystaj z legalnej subskrypcji Proxmox Enterprise.

Instalacja i użycie pve-fake-subscription

Poniżej znajduje się przykładowa instrukcja instalacji na serwerze z Proxmox VE. Wymagane są uprawnienia root.

Krok 1: Pobranie repozytorium

apt update && apt install -y git
git clone https://github.com/Jamesits/pve-fake-subscription.git
cd pve-fake-subscription

Krok 2: Uruchomienie skryptu

./install.sh

Po uruchomieniu, skrypt wprowadzi odpowiednie zmiany w systemie, aby Proxmox uznał, że posiada aktywną subskrypcję.

Krok 3: Weryfikacja

Po zalogowaniu się do interfejsu webowego Proxmox VE, komunikat o braku subskrypcji powinien zniknąć. Niektóre funkcje enterprise mogą stać się dostępne bez konieczności wykupienia licencji.

Zalety i wady korzystania z pve-fake-subscription

Zalety:

  • Brak komunikatu o braku subskrypcji w GUI.
  • Możliwość testowania funkcji enterprise w homelabie.
  • Szybka i prosta instalacja.

Wady:

  • Potencjalne naruszenie licencji Proxmox VE.
  • Brak gwarancji bezpieczeństwa i stabilności.
  • Ryzyko problemów podczas aktualizacji systemu.

Podsumowanie

pve-fake-subscription to sprytne narzędzie pozwalające na odblokowanie funkcji enterprise w Proxmox VE w środowisku domowym. Świetnie sprawdza się w testach i nauce obsługi tej platformy, ale nie powinno być stosowane w środowiskach produkcyjnych.

Pamiętaj: jeśli Twoja firma korzysta z Proxmox VE w krytycznych systemach, zawsze inwestuj w legalną enterprise subscription. To zapewni Ci bezpieczeństwo, stabilność i profesjonalne wsparcie techniczne.

G

Tagi: , ,

Iluzja myślenia – badanie Apple

26 lipca, 2025 | Brak Komentarzy | Kategoria: Felieton
Iluzja myślenia

Wprowadzenie

Apple opublikowało przełomowy dokument badawczy zatytułowany The Illusion of Thinking, w którym analizuje istotny problem współczesnych dużych modeli językowych (LLM) – iluzję rozumowania. Choć modele te często generują odpowiedzi, które wydają się logiczne i trafne, to jednak ich faktyczne „myślenie” okazuje się powierzchowne i często błędne.

Kluczowe tezy i wnioski

Modele językowe tworzą złudzenie zrozumienia

Główna teza publikacji Apple głosi, że obecne systemy AI tworzą iluzję rozumowania, która łatwo wprowadza użytkowników w błąd. Modele są w stanie formułować poprawnie brzmiące wypowiedzi, ale nie rozumieją sensu przekazywanej treści. To prowadzi do tzw. halucynacji – generowania fałszywych, ale wiarygodnie wyglądających informacji.

Użytkownicy przeceniają kompetencje AI

Autorzy zwracają uwagę na psychologiczne zjawisko, w którym użytkownicy przypisują modelom cechy myślących istot. Nawet eksperci bywają podatni na złudzenie „głębokiej inteligencji”. Badanie wykazało, że wielu uczestników przypisywało AI intencje, logikę i zrozumienie, których system w rzeczywistości nie posiada.

Metodologia badania

Apple przeprowadziło szereg eksperymentów z udziałem modeli językowych, w tym Flan-T5 oraz własnych konstrukcji. Testy obejmowały rozumienie pytań logicznych, analizy błędów i weryfikację spójności odpowiedzi w różnych kontekstach. Wnioski oparto na porównaniu wyników z odpowiedziami ludzi oraz na ocenie „płytkości” przetwarzania informacji przez modele.

Wnioski i refleksje autorów

Apple ostrzega, że w obecnym stanie technologia LLM nie może być traktowana jako narzędzie zdolne do prawdziwego rozumienia. Konieczne jest wypracowanie nowych metod oceny jakości modeli, które wykraczają poza tradycyjne benchmarki. Firma podkreśla także rolę edukacji użytkowników i konieczność transparentności w projektowaniu AI.

Iluzja myślenia nie jest wyłącznie problemem technologicznym – dotyka również psychologii odbioru, odpowiedzialności projektantów systemów i etyki AI. Apple wskazuje na potrzebę dalszych badań nad tym, jak ludzie interpretują działanie AI oraz jak projektować systemy, które minimalizują ryzyko błędnej interpretacji ich kompetencji.

Linki i źródła

G

Tagi: , ,

Problem z połączeniem HTTP/HTTPS w iDRAC9

1 lipca, 2025 | Brak Komentarzy | Kategoria: Porady
Problem HTTP HTTPS iDRAC9

Wstęp

Wersja firmware 5.10.00.00 dla iDRAC9 przyniosła istotne zmiany w obsłudze protokołów HTTP i HTTPS. Niestety, u części administratorów aktualizacja ta spowodowała niespodziewane błędy połączenia przez FQDN. W tym artykule przedstawiamy, na czym polega problem oraz jak go skutecznie rozwiązać.

Opis problemu technicznego

Po zainstalowaniu firmware w wersji 5.10.00.00 w iDRAC9, wielu użytkowników zauważyło, że nie mogą już łączyć się z interfejsem iDRAC używając pełnej nazwy domenowej (FQDN) przez protokoły HTTP lub HTTPS.

Objawy

  • Brak dostępu do iDRAC przez FQDN (np. https://idrac.serwer.local)
  • Połączenia przez adres IP działają poprawnie
  • W logach brak szczegółowych komunikatów o błędach

Przyczyna

Dell wprowadził aktualizację, która modyfikuje sposób, w jaki iDRAC obsługuje nagłówki żądań HTTP/HTTPS przy użyciu FQDN. Wymagany jest teraz zgodny nagłówek Host zgodny z nazwą DNS, a nie wszystkie konfiguracje lokalne to zapewniają.

Rozwiązanie krok po kroku

Poniżej znajdziesz sposób rozwiązania problemu zgodnie z zaleceniami firmy Dell:

  1. Zaloguj się do iDRAC używając adresu IP (np. https://192.168.0.100)
  2. Przejdź do sekcji: Configuration > Network > Services
  3. W sekcji Web Server, znajdź opcję Enable HTTP host header validation
  4. Odznacz tę opcję
  5. Kliknij Apply i zrestartuj interfejs iDRAC (lub wykonaj pełny reboot serwera, jeśli wymagane)
  6. Po restarcie, przetestuj połączenie przez FQDN

Dodatkowe porady

  • Jeżeli masz wiele serwerów Dell z iDRAC9, warto zautomatyzować tę zmianę poprzez Redfish API lub RACADM.
  • Upewnij się, że wpisy DNS (zarówno A jak i PTR) dla hosta iDRAC są poprawne.
  • Rozważ aktualizację do nowszej wersji firmware, jeśli jest dostępna – może zawierać poprawki rozszerzające kompatybilność.

Podsumowanie

Problem z połączeniem HTTP/HTTPS przez FQDN w iDRAC9 firmware 5.10.00.00 wynika z wprowadzonego wymogu walidacji nagłówka Host. Na szczęście, jego wyłączenie w panelu iDRAC pozwala przywrócić prawidłowe działanie. Zalecamy również monitorowanie aktualizacji iDRAC oraz regularne przeglądanie dokumentacji producenta.


Powiązane artykuły

GR

Tagi: , ,

Zdalne zarządzanie komputerami? Postaw na PiKVM!

31 maja, 2025 | Brak Komentarzy | Kategoria: Oferta
PiKVM - zdalne zarządzanie komputerem

Dlaczego warto korzystać z PiKVM?

W dzisiejszym świecie zdalna administracja sprzętem IT to standard. Jednak gdy zawodzą klasyczne rozwiązania typu RDP, SSH czy VNC, z pomocą przychodzi PiKVM – niedrogie, otwarte rozwiązanie KVM-over-IP, które umożliwia pełną kontrolę nad komputerem, nawet na poziomie BIOS-u.

Co to jest?

PiKVM to projekt open-source, który zamienia Raspberry Pi w zdalny interfejs KVM (Keyboard, Video, Mouse). Pozwala to na:

  • zdalne włączanie i wyłączanie komputera,
  • dostęp do BIOS-u i instalatora systemu operacyjnego,
  • przesyłanie obrazu w czasie rzeczywistym (HDMI to USB),
  • emulację klawiatury, myszy oraz nośników USB.

Zalety w praktyce

  • Niezależność od systemu operacyjnego – nawet jeśli system się nie uruchamia, nadal masz dostęp.
  • Bezpieczeństwo – szyfrowane połączenia HTTPS i wsparcie dla 2FA.
  • Niskie koszty – oparty na Raspberry Pi, tańszy niż komercyjne rozwiązania KVM.
  • Wsparcie społeczności – ciągły rozwój i dokumentacja dostępna na oficjalnej stronie projektu.

Kto skorzysta?

To idealne narzędzie dla:

  • administratorów IT,
  • firm zarządzających serwerowniami,
  • entuzjastów DIY,
  • każdego, kto potrzebuje niezawodnego dostępu do zdalnych komputerów.

Jak zacząć?

Aby zbudować własny PiKVM, potrzebujesz:

Podsumowanie

PiKVM to nowoczesna odpowiedź na potrzeby zdalnego zarządzania sprzętem. Dzięki swojej funkcjonalności, niskim kosztom i aktywnej społeczności staje się jednym z najlepszych rozwiązań w swojej klasie.

Jeśli chcesz uniezależnić się od zawodnych połączeń sieciowych i mieć realny wpływ na zarządzanie serwerami lub komputerami – wypróbuj PiKVM już dziś!

Linki polecane:

GR

Tagi: , ,

Jak działa serwerownia? Jeden obraz wart tysiąca słów

26 kwietnia, 2025 | Brak Komentarzy | Kategoria: Porady

Czasem jedno spojrzenie na dobrze przygotowaną grafikę pozwala zrozumieć więcej niż długa lektura. Poniższy obrazek przedstawia podstawowy schemat działania serwerowni – od patch panelu, przez switch i router, aż po serwer.

serwerownia schemat

  • Patch Panel — punkt centralny, do którego doprowadzone są kable z różnych urządzeń sieciowych. Ułatwia zarządzanie okablowaniem.
  • Switch — przełącznik, który przekazuje dane między urządzeniami w sieci lokalnej (LAN).
  • Router — zarządza ruchem sieciowym pomiędzy siecią lokalną a Internetem.
  • Server — główny punkt, który przechowuje dane, udostępnia zasoby oraz obsługuje aplikacje.

Dzięki temu prostemu układowi możliwe jest sprawne zarządzanie nawet dużą ilością urządzeń w firmie. Obraz świetnie ilustruje podstawowe zasady organizacji nowoczesnej sieci IT.

Jeśli dopiero zaczynasz swoją przygodę z serwerowniami lub chcesz uporządkować istniejącą infrastrukturę, ten schemat może być świetnym punktem wyjścia!

G

Tagi: , , ,