Bądź na bieżąco - RSS

Aktualizacja Nextcloud w Dockerze: Nie zapomnij o tym kluczowym kroku!

31 stycznia, 2026 | Brak Komentarzy | Kategoria: Linux, Porady

Nextcloud Docker indeksyPodczas aktualizacji Nextcloud działającego w kontenerach Docker często pomija się jeden istotny element: indeksy bazy danych. Zaniedbanie przebudowy indeksów może powodować spowolnienie działania Nextcloud po aktualizacji. W tym artykule wyjaśniam krok po kroku, jak prawidłowo zadbać o Nextcloud Docker indeksy przed podniesieniem wersji.

To jeden z tych problemów, które trudno uchwycić na pierwszy rzut oka, bo wszystko działa – tylko wolniej. Czasem dochodzą do tego nieoczywiste komunikaty w logach lub w panelu administracyjnym: sugestie dotyczące bazy danych, ostrzeżenia o brakujących indeksach, albo zalecenia „optymalizacji”. W praktyce bardzo często winny jest pominięty krok przed główną aktualizacją: sprawdzenie i dodanie brakujących indeksów w bazie danych (w tym przypadku SQLite) komendą occ.

W tym artykule pokażę:

  • dlaczego Nextcloud potrafi zwolnić po aktualizacji, mimo że „nic się nie zepsuło”,
  • czym są indeksy w bazie danych i czemu mają krytyczne znaczenie dla wydajności,
  • dlaczego aktualizacje Nextcloud mogą wymagać nowych indeksów,
  • jak bezpiecznie wykonać procedurę krok po kroku w Dockerze (linuxserver/nextcloud),
  • co zrobić, gdy komenda zwróci błąd.

Zanim zrobisz większą aktualizację Nextcloud w kontenerze Docker, uruchom occ db:add-missing-indices i dopiero potem przechodź do aktualizacji obrazu. To prosty nawyk, który potrafi oszczędzić godziny diagnozy „dlaczego po update jest wolniej”.

Skąd bierze się spowolnienie Nextcloud po aktualizacji?

Wydajność Nextcloud zależy od wielu elementów: zasobów serwera, konfiguracji PHP, pamięci podręcznej (Redis), silnika bazy danych i sposobu przechowywania danych. Jeśli jednak mówimy o scenariuszu „po aktualizacji było dobrze, a teraz jest gorzej”, to warto zacząć od tego, co aktualizacja zmienia najczęściej: strukturę danych i sposób, w jaki aplikacja odpyta bazę.

Nextcloud rozwija się dynamicznie. Z każdą wersją pojawiają się nowe funkcje, nowe mechanizmy indeksowania plików, dodatkowe metadane, czasem nowe tabele lub kolumny. Nawet jeśli sama migracja bazy przejdzie poprawnie, to po aktualizacji aplikacja może wykonywać zapytania, które wcześniej były rzadkie albo w ogóle nie występowały. Jeśli do tych zapytań brakuje indeksów, baza danych zaczyna wykonywać kosztowne skany, co w SQLite potrafi szybko stać się wąskim gardłem.

Efekt? Użytkownik widzi „czkawkę” w interfejsie, administrator widzi wzrost obciążenia, a w logach — pozornie nic spektakularnego.

Czym są indeksy w bazie danych i dlaczego są kluczowe?

Indeks w bazie danych możesz porównać do spisu treści albo indeksu haseł w książce. Jeśli chcesz znaleźć konkretne nazwisko w 800-stronicowej publikacji, nie czytasz wszystkiego od początku — korzystasz z indeksu, który wskazuje stronę. Podobnie działa baza danych: kiedy aplikacja pyta „znajdź wszystkie rekordy spełniające warunek X”, indeks pozwala szybko dojść do wyniku bez przeglądania całej tabeli.

Bez indeksu baza często musi wykonać tzw. full table scan, czyli przeszukanie całej tabeli. Przy małych danych to jeszcze „jakoś działa”. Ale Nextcloud bardzo szybko generuje duże ilości rekordów: pliki, udziały, wersje, podglądy, informacje o użytkownikach, aplikacjach, logach, aktywnościach, cronach, zadaniach tła… Lista rośnie.

Najważniejsze korzyści z indeksów:

  • Szybsze zapytania SELECT – szczególnie po kolumnach używanych w filtrach i joinach.
  • Mniejsze obciążenie CPU i I/O – mniej pracy dla bazy i mniej odczytów.
  • Stabilniejsza wydajność przy rosnącej liczbie rekordów.
  • Mniej „dziwnych” problemów, gdzie interfejs działa, ale reaguje opóźnieniem.

Oczywiście indeksy mają też koszt: spowalniają część operacji zapisu (INSERT/UPDATE), bo indeks również trzeba aktualizować. Ale w kontekście Nextcloud, gdzie kluczowe są szybkie odczyty i filtrowanie, poprawnie dobrane indeksy są absolutnie fundamentalne.

Dlaczego aktualizacja Nextcloud może wymagać nowych indeksów?

Aktualizacja Nextcloud to nie tylko „nowszy kod w kontenerze”. To także:

  • nowe lub zmodyfikowane tabele,
  • nowe kolumny w istniejących tabelach,
  • zmiany w sposobie, w jaki aplikacja wyszukuje dane,
  • nowe funkcje, które generują dodatkowe zapytania (np. aktywności, udostępnienia, pełnotekstowe wyszukiwanie, integracje).

W idealnym świecie każda migracja bazy danych dodaje wszystko, co potrzebne. W praktyce — zwłaszcza w dużych projektach — zdarza się, że po aktualizacji pojawiają się zalecenia: „Dodaj brakujące indeksy, aby poprawić wydajność”. Nextcloud dostarcza do tego gotowe narzędzie: komendę OCC, która potrafi wykryć brakujące indeksy i je utworzyć.

Jeśli ten krok pominiesz, Nextcloud będzie działał, ale baza może wykonywać znacznie więcej pracy. A przy SQLite — która świetnie sprawdza się w mniejszych instalacjach, ale ma swoje ograniczenia w obciążonych środowiskach — brak indeksów potrafi być szczególnie bolesny.

Wskazówka administracyjna: Jeśli Twoja instancja ma wielu użytkowników, duże biblioteki plików lub intensywne udostępnienia, rozważ migrację z SQLite do PostgreSQL/MariaDB. Ale nawet wtedy komenda dodająca brakujące indeksy pozostaje dobrym nawykiem.

Instrukcja krok po kroku: indeksy SQLite przed aktualizacją Nextcloud w Dockerze

Poniższa procedura zakłada, że używasz obrazu linuxserver/nextcloud i zarządzasz kontenerem standardowo (Docker / docker-compose). Kluczowa zasada: najpierw backup, potem indeksy, dopiero później aktualizacja obrazu.

[GRAFIKA: Schemat blokowy przedstawiający poprawny proces aktualizacji Nextcloud z krokiem „db:add-missing-indices”]
Grafika powinna pokazywać prosty proces w formie flowchartu: (1) Backup → (2) Uruchomienie komendy occ db:add-missing-indices → (3) Aktualizacja obrazu/wersji Nextcloud → (4) Weryfikacja działania i logów. Alternatywnie: zrzut ekranu terminala z wykonaniem komendy i komunikatem o dodanych indeksach.

Krok 1: Zrób pełną kopię zapasową (kontener + wolumeny z danymi)

To jest moment, w którym wielu administratorów „idzie na skróty”, bo „to tylko mały update”. A potem pojawia się problem i nie ma do czego wrócić. Backup przed operacją na bazie danych to absolutna podstawa — nawet jeśli narzędzie jest bezpieczne, zawsze może dojść do:

  • braku miejsca na dysku podczas tworzenia indeksów,
  • przerwania procesu (restart hosta, restart Dockera, awaria zasilania),
  • problemów z uprawnieniami, które kończą się częściową modyfikacją plików bazy,
  • niezgodności w środowisku pośrodku zmian.

Co backupować?

  • Wolumen / katalog z danymi Nextcloud (to, co mapujesz jako /data i zwykle także /config w linuxserver/nextcloud).
  • Plik bazy SQLite – najczęściej znajduje się w obrębie danych/configu Nextcloud (zależnie od Twojego mapowania).
  • Konfigurację kontenera – np. plik docker-compose.yml, zmienne środowiskowe, reverse proxy, cron.

Najprościej: wykonaj kopię katalogów mapowanych jako wolumeny (np. snapshot na poziomie systemu plików, kopia na NAS, tar na zewnętrzny dysk). Jeżeli masz możliwość snapshotów (ZFS/Btrfs/LVM) – to jest świetny moment, by z nich skorzystać.

Krok 2: Uruchom komendę dodającą brakujące indeksy

Gdy backup jest gotowy i kontener Nextcloud działa, przechodzimy do sedna. Oto komenda, którą warto wykonać przed większą aktualizacją:

docker exec -it -u abc nextcloud php /config/www/nextcloud/occ \
db:add-missing-indices

Ta komenda uruchamia narzędzie occ wewnątrz kontenera i zleca Nextcloud sprawdzenie brakujących indeksów w bazie oraz ich utworzenie (jeśli to możliwe). W wielu przypadkach dostaniesz informację o tym, jakie indeksy zostały dodane, albo że nic nie trzeba robić.

Co oznaczają flagi i elementy komendy?

  • docker exec – uruchamia polecenie w działającym kontenerze.
  • -it – to dwie flagi naraz:
    • -i (interactive) utrzymuje wejście standardowe otwarte,
    • -t (tty) przydziela pseudo-terminal, dzięki czemu komenda zachowuje się „jak w normalnej konsoli”.

    W praktyce: bez -it często też zadziała, ale w administracji Nextcloud i pracy z occ to po prostu dobry standard.

  • -u abc – uruchamia polecenie jako użytkownik abc wewnątrz kontenera. W obrazach linuxserver.io aplikacje zwykle działają pod użytkownikiem o takiej nazwie, a uruchamianie occ jako root potrafi skończyć się problemami z uprawnieniami do plików (zwłaszcza w /config i danych Nextcloud).
  • nextcloud – nazwa Twojego kontenera. Jeśli masz inną (np. nc albo nextcloud-app), podmień ją na właściwą.
  • php – uruchamiamy interpreter PHP, bo occ jest skryptem PHP.
  • /config/www/nextcloud/occ – ścieżka do pliku occ w kontenerze linuxserver/nextcloud. To ważne: w zależności od obrazu ścieżka bywa inna, ale dla linuxserver/nextcloud ta lokalizacja jest typowa.
  • db:add-missing-indices – właściwa komenda OCC, która sprawdza i tworzy brakujące indeksy.

Krok 3: Zinterpretuj wynik i upewnij się, że wszystko przebiegło poprawnie

Jeśli wszystko pójdzie dobrze, zobaczysz komunikaty o dodanych indeksach lub informację, że brakujących indeksów nie znaleziono. Warto po tym kroku:

  • rzucić okiem na logi Nextcloud,
  • sprawdzić panel administracyjny (sekcja ostrzeżeń/konfiguracji),
  • odczekać chwilę, jeśli baza jest duża (tworzenie indeksów może trwać).

Dopiero po tej operacji przechodź do standardowej procedury aktualizacji kontenera (pull nowego obrazu, restart, ewentualne migracje).

Co zrobić, jeśli komenda zwróci błąd?

Błędy zdarzają się rzadko, ale warto mieć plan działania. Oto najczęstsze scenariusze i szybkie kroki naprawcze:

  1. Kontener nie działaJeśli docker exec zwraca błąd typu „Container … is not running”, najpierw upewnij się, że Nextcloud jest uruchomiony:
    • sprawdź docker ps,
    • zobacz logi kontenera: docker logs nextcloud,
    • uruchom kontener ponownie i dopiero wtedy wykonaj komendę OCC.
  2. Zła nazwa konteneraGdy komenda wskazuje, że nie ma takiego kontenera, sprawdź nazwę w docker ps i podmień w poleceniu.
  3. Problemy z uprawnieniamiJeśli w logach pojawiają się błędy zapisu lub dostępu do plików, najpierw upewnij się, że uruchamiasz polecenie jako właściwy użytkownik (-u abc). W obrazach linuxserver to zazwyczaj właściwy wybór. Jeśli masz nietypową konfigurację PUID/PGID, sprawdź, czy mapowania wolumenów mają poprawne prawa dostępu.
  4. Błąd ścieżki do OCCJeżeli dostaniesz komunikat, że plik /config/www/nextcloud/occ nie istnieje, możliwe że:
    • używasz innego obrazu niż linuxserver/nextcloud,
    • Twoja struktura w kontenerze jest inna.

    Wtedy wejdź do kontenera i sprawdź, gdzie leży occ:

    docker exec -it nextcloud sh

    a następnie zlokalizuj plik (np. find / -name occ 2>/dev/null) i dostosuj ścieżkę w komendzie.

  5. Sprawdź logi Nextcloud i logi konteneraJeśli błąd jest „aplikacyjny” (np. problem z bazą, lockami, trybem maintenance), zajrzyj do:
    • logów kontenera: docker logs nextcloud,
    • logu Nextcloud (w zależności od konfiguracji zwykle w /config/www/nextcloud/data/nextcloud.log lub analogicznym miejscu w wolumenie).

Uwaga: Jeśli Twoja instancja jest intensywnie używana (wielu aktywnych użytkowników), rozważ wykonanie tego kroku w oknie serwisowym. Dodawanie indeksów potrafi chwilowo zwiększyć obciążenie bazy.

Dlaczego warto robić to regularnie (i czemu „przed aktualizacją” ma znaczenie)?

Możesz zapytać: „Skoro to tylko indeksy, to czemu mam robić to przed aktualizacją, a nie po?”. Dwa powody:

  • Minimalizujesz ryzyko kumulacji zmian. Jeśli po aktualizacji coś zacznie działać gorzej, nie wiesz, czy to wina migracji wersji, nowych funkcji, czy brakujących indeksów. Robiąc indeksy wcześniej, izolujesz zmienną.
  • Zwiększasz szansę na płynny start po update. Po aktualizacji Nextcloud może uruchomić procesy, które natychmiast zaczną intensywnie odpytwać bazę. Jeśli indeksy już są, unikasz „zimnego prysznica” wydajnościowego.

W praktyce to mały rytuał administracyjny, który warto dodać do checklisty. Zwłaszcza jeśli prowadzisz blog techniczny i chcesz promować dobre nawyki: backup, sanity-check bazy, dopiero potem aktualizacja.

Podsumowanie

Wydajność Nextcloud po aktualizacji nie zawsze psuje się spektakularnie. Częściej „siada po cichu”: trochę wolniej tu, trochę wolniej tam — aż w końcu zaczyna przeszkadzać. Brakujące indeksy w bazie danych (także w SQLite) to jeden z najbardziej niedocenianych powodów takiego zachowania.

Dobry nawyk administracyjny wygląda tak:

  1. Backup (zawsze).
  2. occ db:add-missing-indices w działającym kontenerze.
  3. Dopiero potem aktualizacja Nextcloud (pull + restart + weryfikacja).

To prosta procedura, a potrafi realnie poprawić stabilność i wydajność po kolejnych wydaniach.

Twoja kolej

Masz za sobą aktualizację Nextcloud, po której instalacja zaczęła działać wolniej? A może komenda db:add-missing-indices uratowała Cię przed długim wieczorem z logami?

Napisz w komentarzu, jak wygląda Twoja checklist aktualizacji Nextcloud w Dockerze, jakie problemy spotkałeś i jak je rozwiązałeś. Jeśli artykuł okazał się pomocny, udostępnij go komuś, kto też administruje Nextcloud. I jeśli chcesz dostawać podobne praktyczne poradniki – zasubskrybuj bloga, bo regularnie publikuję sprawdzone procedury i rozwiązania „z pola walki”.

G

Tagi: , ,

Portainer nie działa po aktualizacji Dockera – najszybsze rozwiązanie

27 grudnia, 2025 | Brak Komentarzy | Kategoria: Linux, Porady

Błąd Portainer local unreachable po aktualizacji DockeraPortainer nie działa po aktualizacji Dockera – najszybsze rozwiązanie:

Po aktualizacji systemu lub Dockera (szczególnie do wersji Docker Engine 29) wielu administratorów zauważa, że Portainer uruchamia się poprawnie, można się do niego zalogować, ale nie da się zarządzać lokalnym środowiskiem Docker.

W interfejsie Portainera pojawia się wtedy komunikat:

Failed loading environment
The environment named local is unreachable

W tym artykule pokazuję najszybsze i najprostsze rozwiązanie, które pozwala przywrócić działanie Portainera bez cofania Dockera ani systemu operacyjnego.


Dlaczego Portainer przestaje działać po aktualizacji Dockera?

Od wersji Docker Engine 29 demon Dockera wymusza minimalną wersję API na poziomie 1.44. Problem polega na tym, że aktualna wersja Portainer CE wciąż korzysta ze starszej wersji Docker API.

Efekt jest następujący:

  • Docker działa poprawnie
  • Kontener Portainera uruchamia się bez błędów
  • Portainer nie może połączyć się z lokalnym Dockerem

To powoduje, że środowisko local jest oznaczone jako niedostępne.


Najprostsze i najszybsze rozwiązanie problemu

Rozwiązaniem jest obniżenie minimalnej wersji Docker API, którą demon Dockera akceptuje od klientów takich jak Portainer.

Wykonuje się to poprzez edycję pliku konfiguracyjnego Dockera:

Krok 1: Edycja pliku /etc/docker/daemon.json

Na hoście (Debian, Ubuntu, Raspberry Pi OS) otwórz plik:

sudo nano /etc/docker/daemon.json

Jeżeli plik nie istnieje, utwórz go i wklej:

{
  "min-api-version": "1.24"
}

Jeżeli plik już istnieje (np. zawiera data-root), dopisz nową linię, zachowując poprawną składnię JSON:

{
  "data-root": "/var/lib/docker",
  "min-api-version": "1.24"
}

Uwaga: brak przecinka między wpisami spowoduje, że Docker nie uruchomi się.


Krok 2: Restart Dockera

sudo systemctl daemon-reload
sudo systemctl restart docker

Sprawdź, czy Docker działa poprawnie:

docker ps

Krok 3: Restart Portainera

docker restart portainer

Po kilku sekundach odśwież interfejs Portainera w przeglądarce.


Efekt końcowy

Po wykonaniu powyższych kroków:

  • środowisko local w Portainerze staje się dostępne
  • można normalnie zarządzać kontenerami i stackami
  • nie ma potrzeby downgrade’u Dockera

Podsumowanie

Problem z Portainerem po aktualizacji Dockera wynika z niezgodności wersji Docker API, a nie z błędnej konfiguracji kontenera.

Dodanie wpisu:

"min-api-version": "1.24"

w pliku /etc/docker/daemon.json jest obecnie najszybszym i najbezpieczniejszym rozwiązaniem, dopóki Portainer nie wprowadzi pełnej kompatybilności z Docker Engine 29.

G

Tagi: , , ,

OpenVAS w kontenerze Docker

2 grudnia, 2025 | Brak Komentarzy | Kategoria: Linux, Porady
OpenVAS, Docker

Przewodnik po obrazie immauss/openvas

 

OpenVAS (Open Vulnerability Assessment Scanner) to jedno z najbardziej rozpoznawalnych narzędzi open-source do skanowania luk w zabezpieczeniach.
Dzięki konteneryzacji z wykorzystaniem Dockera wdrożenie oraz utrzymanie tego skanera stało się prostsze, bardziej powtarzalne i odporne na problemy
z zależnościami systemowymi. Jednym z najpopularniejszych kontenerowych wydań jest obraz immauss/openvas, który umożliwia szybkie uruchomienie w pełni funkcjonalnego środowiska skanowania na dowolnym serwerze obsługującym Docker.

Czym jest immauss/openvas?

Obraz immauss/openvas to nieoficjalny, lecz aktywnie rozwijany kontener Dockera zawierający kompletną instalację narzędzia OpenVAS/GVM.
Projekt jest regularnie aktualizowany, co zapewnia świeże bazy NVT (Network Vulnerability Tests), środowisko GVM oraz kompatybilność z nowszymi wersjami Dockera.

Najważniejsze cechy obrazu:

  • oparty na aktualnych pakietach GVM,
  • zautomatyzowane pobieranie i aktualizacje baz NVT,
  • gotowy do użycia interfejs webowy,
  • uproszczona konfiguracja oraz start kontenera.

Instalacja i pierwsze uruchomienie

Wymagania wstępne

  • System Linux, macOS lub Windows (z włączonym Docker Desktop).
  • Zainstalowany i działający Docker Engine.

Pobranie obrazu

docker pull immauss/openvas

Uruchomienie kontenera

Przykładowa komenda docker run:

docker run -d \
  --name openvas \
  -p 8080:9392 \
  -v openvas-data:/data \
  immauss/openvas

Opis parametrów:

  • --name openvas — nazwa kontenera,
  • -p 8080:9392 — mapowanie portu interfejsu webowego GVM na port 8080 hosta,
  • -v openvas-data:/data — wolumen zapewniający trwałość danych (konfiguracje, wyniki skanów, raporty).

Ważna informacja — pierwsze uruchomienie trwa długo

Przy pierwszym starcie kontener pobiera pełną bazę testów NVT oraz kompiluje je – operacja ta może potrwać
nawet kilkadziesiąt minut, w zależności od wydajności dysku i łącza internetowego. Jest to zachowanie oczekiwane i
nie należy przerywać tego procesu, jeśli kontener wygląda na zajęty lub logi intensywnie się przewijają.

Dostęp do interfejsu webowego i pierwsze kroki

Po poprawnym uruchomieniu kontenera otwórz przeglądarkę i wpisz adres:

http://[IP_SERWERA]:8080

Domyślny login: admin
Hasło: generowane automatycznie przy starcie kontenera.

Aby wyświetlić wygenerowane hasło, użyj polecenia:

docker logs openvas | grep "Admin Password"

Po zalogowaniu zaleca się natychmiastową zmianę hasła oraz konfigurację podstawowych parametrów systemu,
w szczególności ustawień związanych z kontami użytkowników, polityką haseł oraz dostępem sieciowym do panelu GVM.

Kluczowe funkcje i możliwości OpenVAS/GVM

OpenVAS w wersji kontenerowej oferuje pełny zestaw funkcjonalności środowiska GVM, co pozwala na realizację
kompleksowych procesów zarządzania podatnościami w infrastrukturze IT.

Skanowanie hostów i sieci

  • skan pojedynczego adresu IP,
  • skan całych zakresów adresowych (np. w notacji CIDR),
  • zaawansowane skanowanie z parametryzacją portów, intensywności testów oraz wykluczeń.

Zarządzanie zadaniami skanowania

  • definiowanie zadań skanowania przypisanych do konkretnych celów (Targets),
  • tworzenie harmonogramów skanów cyklicznych,
  • wykorzystanie profili skanowań dostosowanych do różnych scenariuszy (np. szybki skan, pełny audyt).

Zaawansowana analiza raportów

  • eksport raportów do formatów takich jak PDF, XML czy TXT,
  • grupowanie wyników według poziomu ryzyka i rodzaju podatności,
  • śledzenie zmian podatności w czasie, co ułatwia weryfikację efektywności wdrażanych poprawek.

Integracje i automatyzacja

  • dostępne API GVM (GMP), pozwalające na integrację z systemami SIEM, SOAR lub autorskimi narzędziami,
  • możliwość uruchamiania skanów zautomatyzowanych w ramach pipeline’ów CI/CD,
  • współpraca z systemami zarządzania ryzykiem i ticketingiem (np. poprzez integracje pośrednie).

Zalety użycia wersji kontenerowej

Uruchomienie OpenVAS jako kontenera Dockera niesie ze sobą szereg korzyści z punktu widzenia administratorów systemów
oraz zespołów odpowiedzialnych za cyberbezpieczeństwo.

Izolacja środowiska

Kontener zapewnia izolację procesów i zależności od systemu hosta. Dzięki temu instalacja OpenVAS nie wpływa na inne
usługi oraz pakiety zainstalowane w systemie operacyjnym, a ewentualne konflikty bibliotek są znacząco ograniczone.

Łatwość aktualizacji

Aktualizacja środowiska sprowadza się do pobrania nowszej wersji obrazu i ponownego uruchomienia kontenera:

docker pull immauss/openvas
docker stop openvas
docker rm openvas
docker run -d \
  --name openvas \
  -p 8080:9392 \
  -v openvas-data:/data \
  immauss/openvas

Dane (konfiguracje, wyniki skanów, raporty) pozostają zachowane w wolumenie openvas-data.

Przenośność i skalowalność

Kontener można uruchomić na dowolnym serwerze, który obsługuje Dockera — zarówno w infrastrukturze on-premise,
jak i w chmurze. Umożliwia to szybkie tworzenie środowisk testowych, a także skalowanie rozwiązania poprzez uruchomienie
wielu instancji w zależności od potrzeb organizacji.

Brak konfliktów zależności

Tradycyjna instalacja OpenVAS bezpośrednio w systemie bywa wymagająca i podatna na problemy z zależnościami.
Wersja kontenerowa eliminuje konieczność ręcznej kompilacji czy dostosowywania środowiska, ponieważ wszystkie
potrzebne komponenty znajdują się wewnątrz obrazu Docker.

Szybkie i powtarzalne wdrożenie

Wdrożenie OpenVAS za pomocą kontenera Docker może zostać w pełni zautomatyzowane (np. z użyciem Ansible, Terraform
czy pipeline’ów CI/CD), co pozwala na szybkie odtwarzanie środowiska w różnych lokalizacjach lub w razie awarii.

Podsumowanie

Kontener immauss/openvas stanowi wydajne, stabilne i praktyczne rozwiązanie dla specjalistów
cyberbezpieczeństwa, administratorów systemów, zespołów SOC oraz pentesterów. Umożliwia szybkie wdrożenie narzędzia
OpenVAS na dowolnym środowisku, zapewnia efektywną automatyzację skanowania oraz pełną powtarzalność konfiguracji.

Włączenie tego rozwiązania do arsenału narzędzi bezpieczeństwa znacząco ułatwia prowadzenie regularnych, niezależnych audytów podatności, wspiera proces zarządzania ryzykiem oraz pozwala na bieżąco weryfikować stan bezpieczeństwa infrastruktury IT w organizacji.

G

Tagi: , ,

Jak zwiększyć rozmiar dysku maszyny wirtualnej w Proxmox – krok po kroku

25 października, 2025 | Brak Komentarzy | Kategoria: Linux, Porady

Interfejs Proxmox z podświetloną opcją zwiększania rozmiaru dysku w maszynie wirtualnej - minimalistyczna grafika wektorowa

Wprowadzenie

Z biegiem czasu nawet najlepiej zaplanowana maszyna wirtualna może zacząć odczuwać brak przestrzeni dyskowej. Rosnące bazy danych, nowe aplikacje, aktualizacje systemowe czy gromadzone logi – wszystko to powoduje, że konieczne staje się zwiększenie rozmiaru dysku w Proxmox. Na szczęście, dzięki elastyczności Proxmox VE, operacja ta jest prosta i bezpieczna – pod warunkiem, że wykonamy ją poprawnie.

W tym poradniku pokazuję jak zwiększyć rozmiar dysku w Proxmox oraz jak rozszerzyć partycję w systemie Linux, aby w pełni wykorzystać nową przestrzeń.

Zwiększanie rozmiaru dysku w Proxmox przez interfejs webowy

Krok 1: Zaloguj się do panelu Proxmox

  1. Otwórz przeglądarkę i wejdź na adres panelu, np. https://twoj-serwer:8006.
  2. W drzewie po lewej wybierz węzeł (node), a następnie właściwą maszynę wirtualną.

Krok 2: Przejdź do zakładki „Hardware”

W ustawieniach VM wybierz zakładkę Hardware. Zobaczysz listę urządzeń przypisanych do maszyny: karty sieciowe, dyski, itp.

Krok 3: Wybierz dysk do powiększenia

  1. Z listy wybierz odpowiedni dysk wirtualny (np. scsi0, virtio0, sata0).
  2. Kliknij Disk Actions (Działania na dysku) → Resize (Zmień rozmiar).

Krok 4: Zwiększ rozmiar dysku

  1. W oknie dialogowym podaj, o ile GB chcesz zwiększyć dysk (np. 20).
  2. Potwierdź zmianę — Proxmox powiększy plik dysku.

Uwaga: Operacja zwiększania jest jednokierunkowa. Zmniejszanie dysków nie jest wspierane – upewnij się co do docelowego rozmiaru.

Krok 5: Uruchom maszynę wirtualną

Jeśli VM była wyłączona, uruchom ją. Hypervisor widzi już nowy rozmiar, ale system gościa musi rozszerzyć partycję, by wykorzystać dodatkowe miejsce.

Rozszerzanie partycji w systemie Linux

Po zwiększeniu dysku w Proxmox wykonujemy trzy kroki w gościu:

  1. Aktualizacja tablicy partycji,
  2. Rozszerzenie partycji,
  3. Powiększenie systemu plików.

Sprawdź aktualny stan dysku

Zaloguj się do VM (SSH lub konsola Proxmox) i sprawdź dyski:

lsblk

Przykładowy wynik:

NAME   MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
vda      252:0    0   80G  0 disk
└─vda1   252:1    0   40G  0 part /

Widać, że dysk vda ma 80 GB, ale partycja vda1 wciąż 40 GB.

Aktualizacja tablicy partycji i rozszerzenie partycji

Wygodne narzędzie to growpart (pakiet cloud-guest-utils):

sudo apt update && sudo apt install -y cloud-guest-utils
sudo growpart /dev/vda 1

Powyższe rozszerza partycję 1 na dysku /dev/vda do maksymalnego dostępnego rozmiaru.

Alternatywy: fdisk, parted (patrz niżej).

Powiększenie systemu plików

Dla ext4:

sudo resize2fs /dev/vda1

Dla XFS (zakładając, że / jest na XFS):

sudo xfs_growfs /

Sprawdź efekt:

df -h

Zwiększanie rozmiaru dysku w systemach z LVM

Jeśli system korzysta z LVM (Logical Volume Manager), po rozciągnięciu partycji fizycznej wykonaj:

  1. Aktualizacja PV:
    sudo pvresize /dev/vda3
  2. Rozszerzenie LV (na cały wolny obszar):
    sudo lvextend -l +100%FREE /dev/mapper/ubuntu--vg-ubuntu--lv
  3. Powiększenie systemu plików (ext4):
    sudo resize2fs /dev/mapper/ubuntu--vg-ubuntu--lv

Narzędzia do zarządzania partycjami w Linux

  • fdisk – klasyczny, interaktywny edytor tablicy partycji (MBR/GPT).
  • parted – nowocześniejszy, dobrze radzi sobie z GPT i dużymi dyskami.
  • growpart – szybkie rozszerzanie istniejących partycji (często na VM).
  • lvextend – powiększanie logicznych wolumenów w LVM.

Najczęstsze problemy i rozwiązania

1) Proxmox nie pozwala zwiększyć dysku

  • Sprawdź typ kontrolera (VirtIO/SCSI) oraz wersję Proxmox.
  • W starszych wersjach wymagane było wyłączenie VM przed powiększeniem.

2) Linux nie widzi nowego rozmiaru

  • Wymuś ponowne odczytanie tablicy partycji:
    sudo partprobe
  • Jeśli to nie pomaga – uruchom VM ponownie.

3) Brak growpart

  • Użyj fdisk:
    1. Usuń i utwórz tę samą partycję z tym samym początkiem, ale większym końcem.
    2. Zapisz zmiany i wykonaj resize2fs lub xfs_growfs.

    Bezpieczeństwo: dane pozostają nienaruszone, o ile początek partycji się nie zmieni.

4) Błąd przy resize2fs

  • Upewnij się, że system plików nie jest zamontowany jako tylko do odczytu.
  • W razie potrzeby skorzystaj z trybu awaryjnego (single-user) lub z partycji ratunkowej.

Najlepsze praktyki

  • Backup przed operacją – szczególnie w środowiskach produkcyjnych.
  • Stopniowe powiększanie – dodawaj przestrzeń w rozsądnych krokach.
  • Dokumentacja zmian – przyda się do audytu i odtwarzania konfiguracji.

Podsumowanie

  1. Zaloguj się do Proxmox → Hardware → Disk Actions → Resize.
  2. Uruchom VM i zaloguj się do systemu gościa.
  3. Rozszerz partycję (growpart, fdisk, parted).
  4. Powiększ system plików (resize2fs lub xfs_growfs).

Po tych krokach Twoja maszyna wirtualna w pełni wykorzysta większy dysk.

G

Tagi: , , , ,

Bezpieczny serwer SFTP w 5 minut? To możliwe z Dockerem i atmoz/sftp!

27 września, 2025 | Brak Komentarzy | Kategoria: Linux, Porady
Serwer SFTP atmoz/sftp

Potrzebujesz szybko uruchomić bezpieczny serwer SFTP w odizolowanym środowisku, bez instalacji dodatkowego oprogramowania na serwerze? Dzięki obrazowi Docker atmoz/sftp jest to możliwe w kilka minut. W tym artykule pokażemy, jak skonfigurować taki serwer krok po kroku oraz jak dostosować go do różnych scenariuszy w praktyce.

Dlaczego warto wybrać atmoz/sftp?

Obraz atmoz/sftp to lekka, gotowa do użycia implementacja serwera SFTP, która działa w kontenerze Dockera. Rozwiązuje typowe problemy administratorów:

  • Izolacja: serwer SFTP działa w kontenerze, minimalizując ryzyko wpływu na system hosta.
  • Łatwa konfiguracja: wystarczy kilka zmiennych środowiskowych, by uruchomić gotowy serwer.
  • Bezpieczeństwo: dostęp oparty na SSH i możliwość ograniczenia użytkowników do wybranych katalogów.
  • Szybkość wdrożenia: w kilka minut można uruchomić działający serwer, bez kompilacji czy skomplikowanej konfiguracji.

Instalacja Dockera

Jeśli nie masz jeszcze zainstalowanego Dockera, możesz to zrobić w systemach Linux za pomocą poleceń:

sudo apt update 
sudo apt install docker.io -y 
sudo systemctl enable --now docker 

Sprawdź, czy Docker działa poprawnie:

docker --version 

Uruchomienie podstawowego serwera SFTP

Poniższe polecenie tworzy prosty serwer SFTP z jednym użytkownikiem:

docker run -p 22:22 -d \ 
-v /host/data:/home/user/upload \ 
-e SFTP_USERS="user:password:::upload" \ 
atmoz/sftp 

Wyjaśnienie parametrów:

  • -p 22:22 – mapowanie portu kontenera na port hosta.
  • -v /host/data:/home/user/upload – montowanie katalogu z hosta jako przestrzeni dostępnej dla użytkownika.
  • -e SFTP_USERS – definiuje użytkowników w formacie login:hasło:uid:gid:katalog.

Praktyczne scenariusze konfiguracji

1. Jeden użytkownik z dostępem do katalogu

docker run -p 22:22 -d \ 
-v /srv/sftp/data:/home/alice/data \ 
-e SFTP_USERS="alice:SuperHaslo:::data" \ 
atmoz/sftp 

Użytkownik alice może logować się i przesyłać pliki wyłącznie do katalogu /home/alice/data.

2. Wielu użytkowników z różnymi katalogami

docker run -p 22:22 -d \ 
-v /srv/sftp/alice:/home/alice/data \ 
-v /srv/sftp/bob:/home/bob/docs \ 
-e SFTP_USERS="alice:HasloAlice:::data bob:HasloBob:::docs" \ 
atmoz/sftp 

Każdy użytkownik ma własny katalog i jest w nim ograniczony (tzw. chroot).

3. Integracja z aplikacją – katalog współdzielony

docker run -p 2222:22 -d \ 
-v /srv/app/uploads:/home/client/shared \ 
-e SFTP_USERS="client:TrudneHaslo:::shared" \ 
--name sftp-server \ 
atmoz/sftp 

Taki scenariusz jest często używany do automatycznej wymiany danych między aplikacjami a partnerami biznesowymi.

Bezpieczeństwo i dobre praktyki

  • Używaj silnych haseł lub – lepiej – kluczy SSH.
  • Uruchamiaj kontener z ograniczonymi uprawnieniami i wyłącz dostęp roota.
  • Regularnie aktualizuj obraz atmoz/sftp do najnowszej wersji.
  • Monitoruj logi kontenera za pomocą docker logs.

Zalety wykorzystania Dockera i atmoz/sftp

Uruchomienie serwera SFTP w kontenerze Dockera pozwala na:

  • Szybkie wdrożenie: pełna konfiguracja w kilka minut.
  • Łatwą migrację: kontener można przenieść na inny host bez zmian w konfiguracji.
  • Bezpieczeństwo: odizolowane środowisko minimalizuje ryzyko podatności w systemie hosta.
  • Skalowalność: łatwo uruchomić wiele instancji dla różnych klientów.

Podsumowanie

Obraz atmoz/sftp to idealne rozwiązanie, jeśli potrzebujesz szybko uruchomić bezpieczny serwer SFTP w odizolowanym i łatwym do zarządzania środowisku. Dzięki Dockerowi wdrożenie jest proste, a konfiguracja elastyczna – od prostych jednoużytkownikowych scenariuszy po integrację z aplikacjami biznesowymi.

G

Tagi: , , , ,

Jak odblokować funkcje enterprise w Proxmox VE? Poznaj pve-fake-subscription

30 sierpnia, 2025 | Brak Komentarzy | Kategoria: Linux, Porady
pve-fake-subscription

Proxmox VE to jedno z najpopularniejszych, darmowych rozwiązań do wirtualizacji serwerów i zarządzania klastrami. Platforma oferuje bogaty zestaw funkcji, które w komercyjnych produktach często są dodatkowo płatne. Jednak bez aktywnej enterprise subscription, użytkownicy nie mają dostępu do oficjalnych repozytoriów enterprise oraz pełnych funkcji wspieranych przez producenta. Zamiast tego widzą uciążliwe komunikaty o braku subskrypcji.

Czym jest pve-fake-subscription?

pve-fake-subscription to popularny skrypt dostępny na GitHub, który „oszukuje” system Proxmox VE, podając mu fałszywą licencję subskrypcyjną. Dzięki temu panel administracyjny przestaje wyświetlać komunikaty o braku licencji, a użytkownik może odblokować dostęp do pewnych funkcji enterprise.

Jak to działa w uproszczeniu?

  • Skrypt podmienia lokalne pliki konfiguracyjne odpowiedzialne za weryfikację klucza subskrypcji.
  • System uznaje, że posiada ważną subskrypcję enterprise.
  • Dzięki temu znika komunikat o braku licencji, a część funkcji interfejsu zostaje odblokowana.

Rozwiązanie to jest dobrze znane w społeczności homelab i entuzjastów IT, jednak nie jest oficjalnie wspierane przez twórców Proxmox.

Ważne ostrzeżenie

Uwaga: poniższe informacje są przeznaczone wyłącznie do celów edukacyjnych i testowych w środowiskach homelab lub nieprodukcyjnych. Używanie narzędzia pve-fake-subscription w środowisku produkcyjnym może:

  • naruszać warunki licencyjne Proxmox,
  • pozbawić system ważnych aktualizacji bezpieczeństwa,
  • prowadzić do niestabilności i utraty wsparcia technicznego.

Autor niniejszego wpisu ani blog nie ponoszą odpowiedzialności za ewentualne szkody wynikające z użycia tego rozwiązania. Jeśli pracujesz w środowisku produkcyjnym – zawsze korzystaj z legalnej subskrypcji Proxmox Enterprise.

Instalacja i użycie pve-fake-subscription

Poniżej znajduje się przykładowa instrukcja instalacji na serwerze z Proxmox VE. Wymagane są uprawnienia root.

Krok 1: Pobranie repozytorium

apt update && apt install -y git
git clone https://github.com/Jamesits/pve-fake-subscription.git
cd pve-fake-subscription

Krok 2: Uruchomienie skryptu

./install.sh

Po uruchomieniu, skrypt wprowadzi odpowiednie zmiany w systemie, aby Proxmox uznał, że posiada aktywną subskrypcję.

Krok 3: Weryfikacja

Po zalogowaniu się do interfejsu webowego Proxmox VE, komunikat o braku subskrypcji powinien zniknąć. Niektóre funkcje enterprise mogą stać się dostępne bez konieczności wykupienia licencji.

Zalety i wady korzystania z pve-fake-subscription

Zalety:

  • Brak komunikatu o braku subskrypcji w GUI.
  • Możliwość testowania funkcji enterprise w homelabie.
  • Szybka i prosta instalacja.

Wady:

  • Potencjalne naruszenie licencji Proxmox VE.
  • Brak gwarancji bezpieczeństwa i stabilności.
  • Ryzyko problemów podczas aktualizacji systemu.

Podsumowanie

pve-fake-subscription to sprytne narzędzie pozwalające na odblokowanie funkcji enterprise w Proxmox VE w środowisku domowym. Świetnie sprawdza się w testach i nauce obsługi tej platformy, ale nie powinno być stosowane w środowiskach produkcyjnych.

Pamiętaj: jeśli Twoja firma korzysta z Proxmox VE w krytycznych systemach, zawsze inwestuj w legalną enterprise subscription. To zapewni Ci bezpieczeństwo, stabilność i profesjonalne wsparcie techniczne.

G

Tagi: , ,

DavMail – Jak połączyć się z Microsoft Exchange z 2FA?

22 lutego, 2025 | Brak Komentarzy | Kategoria: Linux, Porady, Windows
DavMail Exchange 2FA

DavMail to wszechstronne narzędzie umożliwiające integrację różnych klientów pocztowych i kalendarzy z serwerami Microsoft Exchange oraz Office 365. Działa jako brama, tłumacząc standardowe protokoły, takie jak POP, IMAP, SMTP, CalDAV, CardDAV i LDAP, na natywne protokoły Exchange. Dzięki temu użytkownicy mogą korzystać z ulubionych aplikacji, takich jak Thunderbird czy Apple Mail, do zarządzania pocztą i kalendarzem bez konieczności używania Outlooka.

Integracja z serwerami Exchange zabezpieczonymi 2FA

W dobie rosnących zagrożeń bezpieczeństwa wiele organizacji wdraża uwierzytelnianie dwuskładnikowe (2FA) w celu ochrony dostępu do swoich zasobów. DavMail oferuje wsparcie dla różnych metod uwierzytelniania, w tym dla środowisk z włączonym 2FA.

Tryby uwierzytelniania w DavMail

DavMail obsługuje kilka trybów uwierzytelniania, które można dostosować w zależności od konfiguracji serwera Exchange i wymagań bezpieczeństwa:

  • O365Modern: Automatyczne uwierzytelnianie OIDC. Działa w środowiskach bez włączonego 2FA.
  • O365Interactive: Uwierzytelnianie z wykorzystaniem wbudowanej przeglądarki. Obsługuje większość metod 2FA, ale może napotkać problemy, jeśli wymuszane jest dołączenie urządzenia do domeny.
  • O365Manual: Ręczne uwierzytelnianie, gdzie użytkownik korzysta z własnej przeglądarki do przeprowadzenia procesu logowania.

W przypadku środowisk z włączonym 2FA zaleca się korzystanie z trybu O365Interactive lub O365Manual, aby zapewnić pełną kompatybilność z mechanizmami uwierzytelniania dwuskładnikowego.

Konfiguracja DavMail z 2FA

Aby skonfigurować DavMail do pracy z serwerem Exchange zabezpieczonym 2FA, wykonaj następujące kroki:

  1. Pobierz i zainstaluj DavMail: Najnowszą wersję można znaleźć na oficjalnej stronie projektu.
  2. Skonfiguruj tryb uwierzytelniania: W pliku konfiguracyjnym DavMail (davmail.properties) ustaw odpowiedni tryb uwierzytelniania, np.: davmail.mode=O365Interactive Jeśli korzystasz z trybu O365Manual, dodaj również: davmail.authenticator=davmail.exchange.auth.O365ManualAuthenticator
  3. Uruchom DavMail: Po zapisaniu zmian uruchom DavMail. W trybie O365Interactive pojawi się okno przeglądarki wbudowanej, w którym należy przeprowadzić proces uwierzytelniania, w tym wprowadzenie kodu 2FA. W trybie O365Manual DavMail wygeneruje link, który należy otworzyć w przeglądarce, aby się zalogować.
  4. Skonfiguruj klienta pocztowego: W ustawieniach ulubionego klienta pocztowego (np. Thunderbird) wskaż lokalny serwer DavMail jako serwer poczty przychodzącej i wychodzącej, korzystając z odpowiednich portów.

Pamiętaj, że w przypadku zmian w polityce bezpieczeństwa organizacji lub aktualizacji serwera Exchange może być konieczne dostosowanie konfiguracji DavMail. Regularne monitorowanie komunikatów na oficjalnej stronie projektu oraz forach dyskusyjnych pomoże w utrzymaniu stabilnego połączenia.

Korzyści z używania DavMail

  • Elastyczność: Możliwość korzystania z dowolnego klienta pocztowego obsługującego standardowe protokoły.
  • Niezależność: Brak konieczności używania dedykowanych aplikacji, takich jak Outlook, do obsługi poczty i kalendarza Exchange.
  • Bezpieczeństwo: Wsparcie dla nowoczesnych metod uwierzytelniania, w tym 2FA, zapewnia bezpieczny dostęp do zasobów.

DavMail to potężne narzędzie dla tych, którzy chcą zintegrować swoje ulubione aplikacje z serwerami Exchange, jednocześnie korzystając z zaawansowanych mechanizmów bezpieczeństwa, takich jak uwierzytelnianie dwuskładnikowe.

G

Tagi: , , ,

Agent DWService na Linuxie – jak zainstalować za pomocą konsoli?

25 stycznia, 2025 | Brak Komentarzy | Kategoria: Linux, Porady

Agent

Wstęp:

Agent DWService na systemie Linux – zastanawiasz się, jak zainstalować go za pomocą konsoli? DWService to darmowe narzędzie umożliwiające zdalny dostęp do urządzeń. W tym wpisie przedstawiamy prostą instrukcję krok po kroku, która pozwoli Ci na szybkie uruchomienie agenta na Twoim komputerze.


Krok 1: Pobierz i uruchom skrypt instalacyjny

Otwórz terminal na swoim systemie Linux i wpisz poniższe polecenie, aby pobrać i uruchomić skrypt instalacyjny:

curl -fsSL https://www.dwservice.net/download/dwagent.sh | sh

Ten skrypt automatycznie rozpocznie proces instalacji agenta DWService.


Krok 2: Wybierz sposób instalacji

Po uruchomieniu skryptu zostaniesz poproszony o wybór jednej z dwóch opcji:

  • Zainstaluj agenta – Ta opcja instaluje agenta na stałe, dzięki czemu będzie uruchamiany automatycznie przy każdym starcie systemu.
  • Uruchom tylko raz – Ta opcja pozwala uruchomić agenta jednorazowo bez instalacji na dysku.

Aby korzystać z agenta długoterminowo, wybierz opcję „Zainstaluj agenta”.


Krok 3: Wprowadź kod instalacyjny

W kolejnym kroku skrypt poprosi Cię o wprowadzenie kodu instalacyjnego, który pozwoli powiązać agenta z Twoim kontem DWService. Kod znajdziesz w swoim profilu na stronie DWService:

  1. Zaloguj się na swoje konto DWService.
  2. Przejdź do sekcji „Dodaj nowego agenta”.
  3. Skopiuj wygenerowany kod instalacyjny i wklej go w terminalu, gdy skrypt o to poprosi.

Krok 4: Zakończ instalację

Po wprowadzeniu kodu instalacyjnego skrypt dokończy instalację. Agent DWService zostanie skonfigurowany tak, aby automatycznie uruchamiał się podczas startu systemu. Dzięki temu będziesz mógł uzyskać zdalny dostęp do urządzenia w dowolnym momencie.


Podsumowanie:

Gratulacje! Udało Ci się zainstalować agenta DWService na swoim systemie Linux. Teraz możesz łatwo zarządzać swoim urządzeniem zdalnie, korzystając z platformy DWService. Jeśli masz jakiekolwiek pytania lub napotkasz problemy, zajrzyj do oficjalnej dokumentacji DWService.

G

Tagi: , , , ,

Serwer NFS Debian 12: Konfiguracja krok po kroku

30 listopada, 2024 | Brak Komentarzy | Kategoria: Linux, Porady
Konfiguracja serwera NFS Debian 12

Spis treści

  1. Wprowadzenie
  2. Instalacja serwera NFS
  3. Konfiguracja katalogów udostępnianych
  4. Ustawienia zapory sieciowej
  5. Konfiguracja klienta NFS
  6. Testowanie połączenia
  7. Podsumowanie

Wprowadzenie

Serwer NFS Debian 12 umożliwia udostępnianie plików między systemami Linux/Unix w sieci lokalnej za pomocą protokołu Network File System (NFS). W tym artykule pokażemy, jak skonfigurować serwer NFS na Debianie 12 oraz jak podłączyć do niego klienta. Dzięki temu możesz centralizować dane i ułatwić współpracę między różnymi maszynami w sieci.

Instalacja serwera NFS

Najpierw zaktualizuj system:

sudo apt update && sudo apt upgrade -y

Następnie zainstaluj pakiet nfs-kernel-server, niezbędny do uruchomienia serwera NFS Debian 12:

sudo apt install nfs-kernel-server -y

Konfiguracja katalogów udostępnianych

Stwórz katalog do udostępnienia:

sudo mkdir -p /srv/nfs/udostepniony_katalog

Nadaj odpowiednie uprawnienia:

sudo chown nobody:nogroup /srv/nfs/udostepniony_katalog
sudo chmod 777 /srv/nfs/udostepniony_katalog

Edytuj plik /etc/exports i dodaj linię:

/srv/nfs/udostepniony_katalog  *(rw,sync,no_subtree_check)

Zastosuj zmiany:

sudo exportfs -a

Ustawienia zapory sieciowej

Jeśli korzystasz z ufw, otwórz porty NFS:

sudo ufw allow from any to any port nfs

Jeśli używasz innej zapory, upewnij się, że porty 2049/TCP i 2049/UDP są otwarte. Więcej informacji znajdziesz w oficjalnej dokumentacji Debiana.

Konfiguracja klienta NFS

Na maszynie klienckiej zainstaluj pakiet nfs-common:

sudo apt install nfs-common -y

Utwórz punkt montowania:

sudo mkdir -p /mnt/nfs/udostepniony_katalog

Wykonaj montowanie ręczne (zakładając, że IP serwera to 192.168.1.100):

sudo mount 192.168.1.100:/srv/nfs/udostepniony_katalog /mnt/nfs/udostepniony_katalog

Aby montowanie było trwałe, dodaj wpis do pliku /etc/fstab:

192.168.1.100:/srv/nfs/udostepniony_katalog  /mnt/nfs/udostepniony_katalog  nfs  defaults  0  0

Testowanie połączenia

Sprawdź możliwość tworzenia plików w udostępnionym katalogu:

touch /mnt/nfs/udostepniony_katalog/testowy_plik.txt

Jeśli operacja się powiedzie, konfiguracja serwera NFS Debian 12 jest poprawna.

Testowanie połączenia z serwerem NFS Debian 12

Testowanie połączenia z serwerem NFS

Podsumowanie

Skonfigurowanie serwera NFS Debian 12 umożliwia efektywne udostępnianie plików w sieci lokalnej. Dzięki temu procesowi możesz centralizować dane i usprawnić współpracę między różnymi systemami.

G

Tagi: , , ,

Guacamole – zdalny dostęp w przeglądarce

26 października, 2024 | Brak Komentarzy | Kategoria: Linux, Porady

Apache Guacamole to bezkliencki system zdalnego dostępu, który umożliwia łączenie się z pulpitami zdalnymi poprzez przeglądarkę internetową. Dzięki obsłudze protokołów takich jak VNC, RDP i SSH, pozwala na zarządzanie różnymi systemami operacyjnymi z jednego miejsca, bez konieczności instalowania dodatkowego oprogramowania na urządzeniu klienckim.

W poniższym wideo przedstawiono szczegółowy proces instalacji Guacamole przy użyciu Dockera. Krok po kroku omówiono konfigurację bramki zdalnego dostępu, co umożliwia szybkie wdrożenie tego rozwiązania w środowisku sieciowym. Dzięki temu można efektywnie zarządzać zdalnymi systemami i aplikacjami, co jest szczególnie przydatne w administracji infrastrukturą IT.

Przydatne linki:

G

Tagi: , , , ,