Bądź na bieżąco - RSS

DavMail – Jak połączyć się z Microsoft Exchange z 2FA?

22 lutego, 2025 | Brak Komentarzy | Kategoria: Linux, Porady, Windows
DavMail Exchange 2FA

DavMail to wszechstronne narzędzie umożliwiające integrację różnych klientów pocztowych i kalendarzy z serwerami Microsoft Exchange oraz Office 365. Działa jako brama, tłumacząc standardowe protokoły, takie jak POP, IMAP, SMTP, CalDAV, CardDAV i LDAP, na natywne protokoły Exchange. Dzięki temu użytkownicy mogą korzystać z ulubionych aplikacji, takich jak Thunderbird czy Apple Mail, do zarządzania pocztą i kalendarzem bez konieczności używania Outlooka.

Integracja z serwerami Exchange zabezpieczonymi 2FA

W dobie rosnących zagrożeń bezpieczeństwa wiele organizacji wdraża uwierzytelnianie dwuskładnikowe (2FA) w celu ochrony dostępu do swoich zasobów. DavMail oferuje wsparcie dla różnych metod uwierzytelniania, w tym dla środowisk z włączonym 2FA.

Tryby uwierzytelniania w DavMail

DavMail obsługuje kilka trybów uwierzytelniania, które można dostosować w zależności od konfiguracji serwera Exchange i wymagań bezpieczeństwa:

  • O365Modern: Automatyczne uwierzytelnianie OIDC. Działa w środowiskach bez włączonego 2FA.
  • O365Interactive: Uwierzytelnianie z wykorzystaniem wbudowanej przeglądarki. Obsługuje większość metod 2FA, ale może napotkać problemy, jeśli wymuszane jest dołączenie urządzenia do domeny.
  • O365Manual: Ręczne uwierzytelnianie, gdzie użytkownik korzysta z własnej przeglądarki do przeprowadzenia procesu logowania.

W przypadku środowisk z włączonym 2FA zaleca się korzystanie z trybu O365Interactive lub O365Manual, aby zapewnić pełną kompatybilność z mechanizmami uwierzytelniania dwuskładnikowego.

Konfiguracja DavMail z 2FA

Aby skonfigurować DavMail do pracy z serwerem Exchange zabezpieczonym 2FA, wykonaj następujące kroki:

  1. Pobierz i zainstaluj DavMail: Najnowszą wersję można znaleźć na oficjalnej stronie projektu.
  2. Skonfiguruj tryb uwierzytelniania: W pliku konfiguracyjnym DavMail (davmail.properties) ustaw odpowiedni tryb uwierzytelniania, np.: davmail.mode=O365Interactive Jeśli korzystasz z trybu O365Manual, dodaj również: davmail.authenticator=davmail.exchange.auth.O365ManualAuthenticator
  3. Uruchom DavMail: Po zapisaniu zmian uruchom DavMail. W trybie O365Interactive pojawi się okno przeglądarki wbudowanej, w którym należy przeprowadzić proces uwierzytelniania, w tym wprowadzenie kodu 2FA. W trybie O365Manual DavMail wygeneruje link, który należy otworzyć w przeglądarce, aby się zalogować.
  4. Skonfiguruj klienta pocztowego: W ustawieniach ulubionego klienta pocztowego (np. Thunderbird) wskaż lokalny serwer DavMail jako serwer poczty przychodzącej i wychodzącej, korzystając z odpowiednich portów.

Pamiętaj, że w przypadku zmian w polityce bezpieczeństwa organizacji lub aktualizacji serwera Exchange może być konieczne dostosowanie konfiguracji DavMail. Regularne monitorowanie komunikatów na oficjalnej stronie projektu oraz forach dyskusyjnych pomoże w utrzymaniu stabilnego połączenia.

Korzyści z używania DavMail

  • Elastyczność: Możliwość korzystania z dowolnego klienta pocztowego obsługującego standardowe protokoły.
  • Niezależność: Brak konieczności używania dedykowanych aplikacji, takich jak Outlook, do obsługi poczty i kalendarza Exchange.
  • Bezpieczeństwo: Wsparcie dla nowoczesnych metod uwierzytelniania, w tym 2FA, zapewnia bezpieczny dostęp do zasobów.

DavMail to potężne narzędzie dla tych, którzy chcą zintegrować swoje ulubione aplikacje z serwerami Exchange, jednocześnie korzystając z zaawansowanych mechanizmów bezpieczeństwa, takich jak uwierzytelnianie dwuskładnikowe.

G

Tagi: , , ,

Agent DWService na Linuxie – jak zainstalować za pomocą konsoli?

25 stycznia, 2025 | Brak Komentarzy | Kategoria: Linux, Porady

Agent

Wstęp:

Agent DWService na systemie Linux – zastanawiasz się, jak zainstalować go za pomocą konsoli? DWService to darmowe narzędzie umożliwiające zdalny dostęp do urządzeń. W tym wpisie przedstawiamy prostą instrukcję krok po kroku, która pozwoli Ci na szybkie uruchomienie agenta na Twoim komputerze.


Krok 1: Pobierz i uruchom skrypt instalacyjny

Otwórz terminal na swoim systemie Linux i wpisz poniższe polecenie, aby pobrać i uruchomić skrypt instalacyjny:

curl -fsSL https://www.dwservice.net/download/dwagent.sh | sh

Ten skrypt automatycznie rozpocznie proces instalacji agenta DWService.


Krok 2: Wybierz sposób instalacji

Po uruchomieniu skryptu zostaniesz poproszony o wybór jednej z dwóch opcji:

  • Zainstaluj agenta – Ta opcja instaluje agenta na stałe, dzięki czemu będzie uruchamiany automatycznie przy każdym starcie systemu.
  • Uruchom tylko raz – Ta opcja pozwala uruchomić agenta jednorazowo bez instalacji na dysku.

Aby korzystać z agenta długoterminowo, wybierz opcję „Zainstaluj agenta”.


Krok 3: Wprowadź kod instalacyjny

W kolejnym kroku skrypt poprosi Cię o wprowadzenie kodu instalacyjnego, który pozwoli powiązać agenta z Twoim kontem DWService. Kod znajdziesz w swoim profilu na stronie DWService:

  1. Zaloguj się na swoje konto DWService.
  2. Przejdź do sekcji „Dodaj nowego agenta”.
  3. Skopiuj wygenerowany kod instalacyjny i wklej go w terminalu, gdy skrypt o to poprosi.

Krok 4: Zakończ instalację

Po wprowadzeniu kodu instalacyjnego skrypt dokończy instalację. Agent DWService zostanie skonfigurowany tak, aby automatycznie uruchamiał się podczas startu systemu. Dzięki temu będziesz mógł uzyskać zdalny dostęp do urządzenia w dowolnym momencie.


Podsumowanie:

Gratulacje! Udało Ci się zainstalować agenta DWService na swoim systemie Linux. Teraz możesz łatwo zarządzać swoim urządzeniem zdalnie, korzystając z platformy DWService. Jeśli masz jakiekolwiek pytania lub napotkasz problemy, zajrzyj do oficjalnej dokumentacji DWService.

G

Tagi: , , , ,

Serwer NFS Debian 12: Konfiguracja krok po kroku

30 listopada, 2024 | Brak Komentarzy | Kategoria: Linux, Porady
Konfiguracja serwera NFS Debian 12

Spis treści

  1. Wprowadzenie
  2. Instalacja serwera NFS
  3. Konfiguracja katalogów udostępnianych
  4. Ustawienia zapory sieciowej
  5. Konfiguracja klienta NFS
  6. Testowanie połączenia
  7. Podsumowanie

Wprowadzenie

Serwer NFS Debian 12 umożliwia udostępnianie plików między systemami Linux/Unix w sieci lokalnej za pomocą protokołu Network File System (NFS). W tym artykule pokażemy, jak skonfigurować serwer NFS na Debianie 12 oraz jak podłączyć do niego klienta. Dzięki temu możesz centralizować dane i ułatwić współpracę między różnymi maszynami w sieci.

Instalacja serwera NFS

Najpierw zaktualizuj system:

sudo apt update && sudo apt upgrade -y

Następnie zainstaluj pakiet nfs-kernel-server, niezbędny do uruchomienia serwera NFS Debian 12:

sudo apt install nfs-kernel-server -y

Konfiguracja katalogów udostępnianych

Stwórz katalog do udostępnienia:

sudo mkdir -p /srv/nfs/udostepniony_katalog

Nadaj odpowiednie uprawnienia:

sudo chown nobody:nogroup /srv/nfs/udostepniony_katalog
sudo chmod 777 /srv/nfs/udostepniony_katalog

Edytuj plik /etc/exports i dodaj linię:

/srv/nfs/udostepniony_katalog  *(rw,sync,no_subtree_check)

Zastosuj zmiany:

sudo exportfs -a

Ustawienia zapory sieciowej

Jeśli korzystasz z ufw, otwórz porty NFS:

sudo ufw allow from any to any port nfs

Jeśli używasz innej zapory, upewnij się, że porty 2049/TCP i 2049/UDP są otwarte. Więcej informacji znajdziesz w oficjalnej dokumentacji Debiana.

Konfiguracja klienta NFS

Na maszynie klienckiej zainstaluj pakiet nfs-common:

sudo apt install nfs-common -y

Utwórz punkt montowania:

sudo mkdir -p /mnt/nfs/udostepniony_katalog

Wykonaj montowanie ręczne (zakładając, że IP serwera to 192.168.1.100):

sudo mount 192.168.1.100:/srv/nfs/udostepniony_katalog /mnt/nfs/udostepniony_katalog

Aby montowanie było trwałe, dodaj wpis do pliku /etc/fstab:

192.168.1.100:/srv/nfs/udostepniony_katalog  /mnt/nfs/udostepniony_katalog  nfs  defaults  0  0

Testowanie połączenia

Sprawdź możliwość tworzenia plików w udostępnionym katalogu:

touch /mnt/nfs/udostepniony_katalog/testowy_plik.txt

Jeśli operacja się powiedzie, konfiguracja serwera NFS Debian 12 jest poprawna.

Testowanie połączenia z serwerem NFS Debian 12

Testowanie połączenia z serwerem NFS

Podsumowanie

Skonfigurowanie serwera NFS Debian 12 umożliwia efektywne udostępnianie plików w sieci lokalnej. Dzięki temu procesowi możesz centralizować dane i usprawnić współpracę między różnymi systemami.

G

Tagi: , , ,

Guacamole – zdalny dostęp w przeglądarce

26 października, 2024 | Brak Komentarzy | Kategoria: Linux, Porady

Apache Guacamole to bezkliencki system zdalnego dostępu, który umożliwia łączenie się z pulpitami zdalnymi poprzez przeglądarkę internetową. Dzięki obsłudze protokołów takich jak VNC, RDP i SSH, pozwala na zarządzanie różnymi systemami operacyjnymi z jednego miejsca, bez konieczności instalowania dodatkowego oprogramowania na urządzeniu klienckim.

W poniższym wideo przedstawiono szczegółowy proces instalacji Guacamole przy użyciu Dockera. Krok po kroku omówiono konfigurację bramki zdalnego dostępu, co umożliwia szybkie wdrożenie tego rozwiązania w środowisku sieciowym. Dzięki temu można efektywnie zarządzać zdalnymi systemami i aplikacjami, co jest szczególnie przydatne w administracji infrastrukturą IT.

Przydatne linki:

G

Tagi: , , , ,

Jak nagrać płytę Blu-ray 100GB w Debianie z linii poleceń – krótki przewodnik

28 września, 2024 | Brak Komentarzy | Kategoria: Linux, Porady

Jak nagrać płytę Blu-ray w Debianie?

.

Blu-ray

Czy zastanawiałeś się, jak nagrać płytę Blu-ray o pojemności 100GB korzystając wyłącznie z linii poleceń w systemie Debian? W tym artykule pokażę krok po kroku, jak to zrobić, wykorzystując narzędzia dostępne w systemie Linux. Przygotuj się na głębokie zanurzenie w świat terminala!

Wymagania wstępne

  • Napęd Blu-ray obsługujący płyty 100GB (BDXL).
  • Płyta Blu-ray 100GB (BDXL).
  • Zainstalowany system Debian lub inna dystrybucja oparta na Debianie.
  • Dostęp do konta root.

1: Instalacja niezbędnych narzędzi

Najpierw zainstalujmy potrzebne pakiety:

apt update
apt install growisofs genisoimage
  • growisofs: Narzędzie do nagrywania obrazów ISO na nośniki optyczne.
  • genisoimage: Służy do tworzenia obrazów ISO z danych.

2: Przygotowanie danych

Zbierz wszystkie pliki, które chcesz nagrać, w jednym katalogu. Na potrzeby tego przewodnika załóżmy, że twoje dane znajdują się w katalogu /home/użytkownik/dane_do_nagrania.

3: Tworzenie obrazu ISO z systemem plików UDF

Blu-ray korzysta z systemu plików UDF. Użyjemy genisoimage, aby utworzyć obraz ISO z tym systemem plików:

genisoimage -udf -o obraz_blu-ray.iso /home/użytkownik/dane_do_nagrania
  • -udf: Określa użycie systemu plików UDF.
  • -o obraz_blu-ray.iso: Ustawia nazwę wyjściowego pliku ISO.

4: Identyfikacja napędu Blu-ray

Przed nagraniem musimy znać ścieżkę do napędu. Najczęściej jest to /dev/sr0 lub /dev/cdrom. Możesz to sprawdzić poleceniem:

wodim --devices

Wyjście powinno pokazać dostępne napędy optyczne.

5: Nagrywanie obrazu ISO na płytę Blu-ray

Upewnij się, że w napędzie znajduje się płyta Blu-ray 100GB. Następnie użyj growisofs, aby nagrać obraz:

growisofs -dvd-compat -speed=2 -Z /dev/sr0=obraz_blu-ray.iso
  • -dvd-compat: Zapewnia większą kompatybilność nagranej płyty.
  • -speed=2: Ustawia prędkość nagrywania (możesz dostosować w zależności od możliwości napędu i płyty).
  • -Z /dev/sr0=obraz_blu-ray.iso: Określa napęd i obraz ISO do nagrania.

Alternatywa: Bezpośrednie nagrywanie danych na płytę

Możesz też nagrać dane bezpośrednio na płytę bez tworzenia obrazu ISO:

growisofs -dvd-compat -speed=2 -Z /dev/sr0 -udf /home/użytkownik/dane_do_nagrania
  • -udf: Informuje, że dane mają być nagrane z użyciem systemu plików UDF.

6: Weryfikacja nagrania

Po zakończeniu procesu warto sprawdzić, czy dane zostały poprawnie nagrane:

mount /dev/sr0 /mnt
ls /mnt
umount /mnt

Jeśli zobaczysz swoje pliki w katalogu /mnt, nagranie przebiegło pomyślnie.

Podsumowanie

Nagrywanie płyt Blu-ray 100GB w Debianie z linii poleceń jest prostsze, niż się wydaje. Wystarczy kilka narzędzi i podstawowa znajomość terminala. Teraz możesz archiwizować duże ilości danych w sposób efektywny i niezawodny.

G

Tagi: , , ,

Portainer po aktualizacji Docker 26 – problemy

29 czerwca, 2024 | Brak Komentarzy | Kategoria: Linux, Porady
Portainer Docker 26 - problemy

Wprowadzenie

Niedawna aktualizacja Dockera do wersji 26 spowodowała problemy dla użytkowników Portainera. W tym artykule omówimy na czym polegają te problemy, jakie są ich przyczyny oraz jak można je rozwiązać. Pokażemy również przykłady możliwych działań, aby uniknąć zakłóceń w działaniu systemów.

Problem

Po aktualizacji Dockera do wersji 26, wielu użytkowników Portainera (wersja 2.19.4) zauważyło, że nie mogą wyświetlać szczegółów obrazów ani uzyskiwać dostępu do konsoli kontenerów. Utrudnia to poważnie zarządzanie kontenerami i monitorowanie ich stanu.

Przykłady problemów

  • Brak możliwości przeglądania szczegółów obrazów Docker.
  • Niedziałająca konsola kontenerów, co uniemożliwia wykonywanie poleceń wewnątrz kontenerów.

Przyczyny

Problemy te wynikają z usunięcia niektórych funkcji w Dockerze 26, na których polegała poprzednia wersja Portainera. Zmiany w Dockerze spowodowały, że niektóre API używane przez Portainera przestały działać zgodnie z oczekiwaniami.

Rozwiązania

Tymczasowe rozwiązanie

Jednym z tymczasowych rozwiązań jest cofnięcie wersji Dockera do 25.0.5. Umożliwi to powrót do poprzedniej funkcjonalności, zanim zostanie wprowadzona odpowiednia poprawka w Portainerze.

Aktualizacja Portainera

Zespół Portainera szybko zareagował na zgłoszone problemy i wydał wersję 2.20.1, która naprawia problemy z kompatybilnością z Dockerem 26. Zaleca się aktualizację Portainera do tej wersji, aby uniknąć dalszych problemów.

Jak przeprowadzić aktualizację

  1. Cofnięcie wersji Dockera:
  • Odinstaluj obecną wersję Dockera.
  • Zainstaluj Docker w wersji 25.0.5 z odpowiedniego źródła.
  1. Aktualizacja Portainera:
  • Przejdź do strony Portainera i pobierz najnowszą wersję.
  • Zaktualizuj Portainera do wersji 2.20.1 zgodnie z instrukcjami na stronie.

Przykładowe komendy aktualizacji

# Cofnięcie wersji Dockera do 25.0.5
sudo apt-get remove docker docker-engine docker.io containerd runc
sudo apt-get install docker-ce=5:20.10.5~3-0~ubuntu-focal

# Aktualizacja Portainera do wersji 2.20.1
docker pull portainer/portainer-ce:2.20.1
docker stop portainer
docker rm portainer
docker run -d -p 8000:8000 -p 9443:9443 --name=portainer --restart=always -v /var/run/docker.sock:/var/run/docker.sock -v portainer_data:/data portainer/portainer-ce:2.20.1

G

Tagi: , ,

Zarządzanie czasem pracy zdalnej: wprowadzenie do Kimai i Docker

27 stycznia, 2024 | Brak Komentarzy | Kategoria: Linux, Porady, Windows

Praca zdalna i prawo: efektywne monitorowanie czasu pracy

W Polsce, w obliczu nowych przepisów prawnych oraz rosnącej popularności pracy zdalnej, pojawiła się pilna potrzeba znalezienia skutecznych metod monitorowania czasu pracy. Zmiana ta wynika z konieczności dostosowania się do przepisów prawa pracy, które wymagają od pracodawców dokładnego rejestrowania czasu pracy pracowników, niezależnie od ich lokalizacji. Rozwiązanie ma na celu zapewnienie ochrony praw pracowniczych i przestrzegania norm dotyczących czasu pracy, co jest szczególnie ważne w modelu pracy zdalnej, gdzie tradycyjne metody rejestracji czasu pracy mogą być nieefektywne lub niewystarczające. Dlatego pojawiła się potrzeba wdrożenia narzędzi umożliwiających efektywne i zgodne z prawem zarządzanie czasem pracy zdalnej. Jednym z proponowanych jest bezpłatna platforma Kimai, która oferuje funkcjonalności konkurencyjne w stosunku do płatnych rozwiązań, takich jak TimeCamp czy Toggl, dostarczając równie efektywnych narzędzi do monitorowania czasu pracy, lecz bez dodatkowych kosztów dla organizacji.

Konteneryzacja Docker: efektywność i bezpieczeństwo

Konteneryzacja za pomocą Dockera stanowi jedną z najbardziej efektywnych metod wdrażania i zarządzania aplikacjami, oferując szereg zalet zarówno na systemach Windows, jak i Linux. Jedną z głównych zalet jest zdolność do szybkiego tworzenia gotowych do użycia serwerów w ciągu zaledwie kilku minut. Docker pozwala na izolację aplikacji w kontenerach, co zapewnia spójność środowiska między różnymi systemami operacyjnymi, eliminując typowe problemy związane z różnicami w konfiguracji. Co więcej, konteneryzacja ułatwia zarządzanie zasobami, umożliwiając efektywniejsze wykorzystanie dostępnej infrastruktury. Istotnym aspektem bezpieczeństwa jest możliwość korzystania z dobrze utrzymywanych i regularnie aktualizowanych obrazów kontenerów, co minimalizuje ryzyko eksploatacji znanych luk bezpieczeństwa. Dzięki temu, wybierając Docker, użytkownicy otrzymują nie tylko szybkie i elastyczne rozwiązanie do wdrażania aplikacji, ale także system, który przy odpowiednim zarządzaniu i wyborze źródeł może oferować wysoki poziom bezpieczeństwa.

Docker-compose: uproszczenie zarządzania wieloma kontenerami

Pakiet docker-compose jest narzędziem ułatwiającym zarządzanie wielokontenerowymi aplikacjami Docker. Pozwala on na definiowanie i uruchamianie aplikacji składających się z wielu kontenerów za pomocą jednego pliku konfiguracyjnego, zwanego docker-compose.yml. Dzięki temu, zamiast uruchamiać każdy kontener osobno i ręcznie zarządzać ich zależnościami oraz siecią, użytkownicy mogą wykorzystać docker-compose do automatyzacji tego procesu. Narzędzie to znacznie upraszcza proces konfiguracji środowiska, zwłaszcza w przypadku skomplikowanych aplikacji, gdzie interakcje między kontenerami są kluczowe. Ważne jest, że docker-compose nie jest domyślnie dołączony w instalacji standardowej wersji Docker i wymaga osobnego zainstalowania w systemie. Jest on dostępny zarówno dla systemów operacyjnych Windows, jak i Linux, a jego instalacja znacząco rozszerza możliwości zarządzania kontenerami Docker, ułatwiając pracę deweloperów i administratorów systemów. W systemie Windows docker-compose jest zwykle instalowany automatycznie wraz z Docker Desktop, a jego aktualizacja odbywa się poprzez aktualizację całego pakietu Docker Desktop.

Instalacja Kimai: konfiguracja via docker-compose

Aby rozpocząć instalację Kimai, pierwszym krokiem jest przygotowanie niezbędnego środowiska, a następnie utworzenie nowego folderu, w którym należy zapisać plik z poniższego przykładu. Jest on kluczowy dla procesu instalacji, gdyż zawiera konfigurację niezbędną do uruchomienia i zarządzania Kimai przy użyciu Docker-compose.

version: '3.5'
services:
  sqldb:
    image: mysql:5.7
    environment:
      - MYSQL_DATABASE=kimai
      - MYSQL_USER=kimai
      - MYSQL_PASSWORD=kimai
      - MYSQL_ROOT_PASSWORD=kimai
    volumes:
      - ./kimai2_db:/var/lib/mysql
    command: --default-storage-engine innodb
    restart: unless-stopped
  nginx:
    image: tobybatch/nginx-fpm-reverse-proxy
    ports:
      - 8080:80
    volumes:
      - public:/opt/kimai/public:ro
    restart: unless-stopped
    depends_on:
      - kimai
  kimai:
    image: kimai/kimai2:latest
    environment:
      - APP_ENV=prod
      - TRUSTED_HOSTS=localhost
      - ADMINMAIL=admin@example.me
      - ADMINPASS=changemeplease
      - DATABASE_URL=mysql://kimai:kimai@sqldb/kimai
      - TRUSTED_HOSTS=nginx,localhost,127.0.0.1
    volumes:
      - public:/opt/kimai/public
    restart: unless-stopped
volumes:
    public:

Żeby spersonalizować konfigurację trzeba zmienić dwa ustawienia zanaczone pogrubioną czcionką. W przypadku adresu e-mail będzie to zarazem nazwa konta do pierwszego logowania. W ostatnim kroku aby uruchomić swoją instancję Kimai i rozpocząć śledzenie czasu otwórz terminal, przejdź do folderu, w którym przechowywany jest powyższy plik, i wykonaj polecenie:

 docker-compose up -d

Po pomyślnym wykonaniu polecenia możesz otworzyć swoją instancję do śledzenia czasu Kimai w preferowanej przeglądarce internetowej i zalogować się przy użyciu danych uwierzytelniających z pliku docker.

G

Tagi: , , ,

Alpine Linux

28 października, 2023 | Brak Komentarzy | Kategoria: Felieton, Linux, Porady
Alpine Linux

Pierwszy raz Alpine Linux wpadł mi w oko przy okazji budowy maszyny wirtualnej w środowisku VMware ESXi kiedy miałem wskazać wybrany system z rodziny Linux z listy dostępnych opcji. Drugi raz nazwa ta przewinęła się przy okazji kontenerów LXC w Proxmoxie. Z czystej ciekawości zacząłem zastanawiać się dlaczego akurat ten system zasłużył sobie na to aby stać się jednym z wyborów w dojrzałych środowiskach wirtualizacyjnych. Po raz trzeci gdy przyjrzałem się uważniej gotowym kontenerom na Docker Hubie, gdzie bardzo duża ich część opierała się właśnie na Alpine jako systemie bazowym.

Jako zagorzały zwolennik Debiana, w myśl starego powiedzenia, że wszyscy zaczynają od różnych dystrybucji a kończą na Debianie, założyłem, że nic już nie może się zmienić w moich wyborach operatora systemowego. Byłem w dużym błędzie.

Od jakiegoś czasu Debian zaczął się zmieniać. Siła nawyków jest ogromna i ciężko było się przyzwyczaić do niektórych modyfikacji począwszy od trywialnej zmiany nazwy interfejsu sieciowego (gdzie się podziało stare dobre ETH0) a skończywszy na grubszych zmianach, które na przykład spowodowały przeniesienie i zmianę systemu logów (brrr…). Dlaczego zginęła początkowa prostota i przejrzysta logika w budowie systemu operacyjnego. Przecież Linuxem zainteresowałem się bo był dalece bardziej prosty w obłudze i logice działania niż Windows NT, którem zajmowałem się wówczas (sic!).

Tak czy inaczej jak tylko znalazłem chwilę czasu to postanowiłem wypróbować Apline, tym bardziej że Proxmox pozwala na wykreowanie kontenera tego typu w kilkanaście sekund. Wypróbowałem i oniemiałem. Zobaczyłem system jak za dawnych lat. Prosty, łatwy w obsłudze i niezwykle szybki.

Aby nie być gołosłownym przytaczam poniżej zestaw przykładowych podstawowych komend używanych tuż po instalacji świeżego systemu. Każdy może sam się domyślić do czego mogą służyć 🙂

apk update
apk update
apk add docker
rc-update add docker default
service docker start
reboot

Prawda, że wygląda bardzo znajomo? Wszystko co potrzebne można znaleźć wraz ze szczegółowym opisem na stronach Wiki projektu Alpine Linux Wiki. I dodatkowo powróciła nawet nazwa ETH0. Myślę, że ktoś kto miał do czynienia z tekstowym Debianem powinien być zadawolony.

Nie wiem jak długo zostanę przy projekcie Alpine Linux. Na razie trwa pierwsze młodzieńcze zauroczenia chociaż już pojawiły się pewne rysy. Ale o tym może innym razem.

MG

Tagi: ,

Instalacja sterowników GPU NVIDIA

4 października, 2023 | Brak Komentarzy | Kategoria: Linux, Porady
NVIDIA GPU

Jeśli na serwerze zainstalowany jest procesor graficzny GPU NVIDIA, dodanie jego sterowników jest pierwszą rzeczą, którą należy zrobić po zainstalowaniu systemu. W artykule chciałbym w skrócie pokazać co należy zrobić aby zainstalować wspomniane sterowniki w wersji otwartej, na bazie systemów z rodziny Debiana, czyli np. Ubuntu. Zakładam również, że podczas instalacji Ubuntu nie zaznaczyliśmy opcji użycia sterowników własnościowych.

Pierwszą czynnością jest sprawdzenie czy system widzi poprawnie kartę NVIDIA. W tym celu można skorzystać z polecenia lshw i poszukać w komunikacie wyjściowym frazy NVIDIA. Jeśli ją znajdziemy to raczej wszystko jest w porządku.

W drugim kroku powinniśmy sprawdzić czy uruchomione zostały otwarte sterowniki Nouveau. Należy ich się pozbyć i zamienić ze sterownikami NVIDIA. Używamy polecenia:

lsmod | grep nouveau

Powinniśmy otrzymać pełną informację o zainstalowanych sterownikach. Dla pewności możemy wydać jeszcze polecenie:

lsmod | grep nvidia

W tym przypadku rezultatem będzie brak informacji, ponieważ dopiero zainstalujemy sterowniki NVIDIA.

Przechodzimy do głównej części procesu. Aby zainstalować firmowe sterowniki NVIDIA z wiersza poleceń, otwieramy terminal i uruchomiamy następujące polecenie:

ubuntu-drivers devices

Otrzymamy listę dostępnych sterowników. W tym momencie warto się na chwilę zatrzymać. Nie zawsze najnowsze sterowniki będą stabilnie działać. Dla pewności można zainstalować na początek przedostatnią wersję, która zazwyczaj zawiera wszystkie konieczne poprawki dzięki czemu pozwala na bezbłędną pracę. Zatem użyjmy dajmy na to polecenia:

sudo apt install nvidia-driver-535

wybierając stabilną wersję. Po zakończeniu instalacji pozostaje uruchomić ponownie system:

sudo reboot

Jak sprawdzić czy sterowniki zostały zainstalowane poprawnie? Przede wszystkim możemy użyć polecenia lsmod z początku artykułu, a poza tym zawsze warto skorzystać z narzędzia linii poleceń:

nvidia-smi

MG

Tagi: , , , ,

Aktualizacja Debian LTS za pomocą Freexian

1 sierpnia, 2023 | Brak Komentarzy | Kategoria: Linux, Porady

Debian, Freexian, aktualizacja, LTS

Debian

Każdy, nawet najlepszy system operacyjny ma swój termin przydatności. Najczęściej po jego przekroczeniu trudno oczekiwać wsparcia w postaci aktualizacji oprogramowania systemowego. Prowadzi to z kolei do całkiem prawdopodobnego narażania się na niebezpieczeństwo w postaci niezałatanych dziur i w konsekwencji ataków na usługi, które pracowicie utrzymujemy. Takie niedbałości w postaci porzuconych systemów można spotkać wbrew pozorom całkiem często.

Jeśli mamy pod opieką pojedyncze maszyny, nieważne czy jako fizyczne serwery czy jako wirtualne instancje, to oczywiście aktualizacja systemu operacyjnego do nowszej wersji jest wyzwaniem ale prawdopodobnie niezbyt wymagającym. Jeśli jednak wspomnianych serwerów jest cała masa albo co gorsza zainstalowaliśmy unikalne ale ważne usługi, których konfiguracja jest naprawdę pracochłonna to aktualizacja może być procesem, który spowoduje, że będziemy musieli się nieco napracować.

Nic dziwnego, że o ile jest dostępna droga przedłużenia wsparcia dla systemu, nawet jako alternatywa dla oficjalnych repozytoriów, to czasami chętnie po nią sięgamy. Tak właśnie można wytłumaczyć popularność projektu Freexian, który ratuje przeterminowane serwery z Linux Debian.

O projekcie Freexian wspomninałem już w innym wpisie. Jeśli ktoś chce zapoznać się ze szczegółami to serdecznie zachęcam. Jednak ponieważ pojawiło się parę istotnych nowości to postanowiłem zaktualizować informację.

Wspomniane nowości dotyczą aktualizacji kluczy instalacyjnych, które jakiś czas temu zostały zmienienione. Na szczęście przepis na instalację nowych jest bardzo prosty i sprowadza się do wydania dwóch poleceń:

wget https://deb.freexian.com/extended-lts/pool/main/f/freexian-archive-keyring/freexian-archive-keyring_2022.06.08_all.deb && dpkg -i freexian-archive-keyring_2022.06.08_all.deb
wget https://deb.freexian.com/extended-lts/archive-key.gpg -O elts-archive-key.gpg && mv elts-archive-key.gpg /etc/apt/trusted.gpg.d/freexian-archive-extended-lts.gpg

Jeżeli wszystko przebiegnie pomyślnie to możemy dodać do pliku /etc/apt/sources.list odpowienie repozytorium w zależności od wersji naszego systemu operacyjnego:

deb http://deb.freexian.com/extended-lts jessie-lts main contrib non-free
deb http://deb.freexian.com/extended-lts stretch-lts main contrib non-free

Pamiętajmy jednak, że nie zwalnia nas to z obowiązku podniesienia wersji systemu… gdy już będziemy gotowi zmierzyć się z tym zadaniem.

MG

Tagi: , , ,