Bądź na bieżąco - RSS

DavMail – Jak połączyć się z Microsoft Exchange z 2FA?

22 lutego, 2025 | Brak Komentarzy | Kategoria: Linux, Porady, Windows
DavMail Exchange 2FA

DavMail to wszechstronne narzędzie umożliwiające integrację różnych klientów pocztowych i kalendarzy z serwerami Microsoft Exchange oraz Office 365. Działa jako brama, tłumacząc standardowe protokoły, takie jak POP, IMAP, SMTP, CalDAV, CardDAV i LDAP, na natywne protokoły Exchange. Dzięki temu użytkownicy mogą korzystać z ulubionych aplikacji, takich jak Thunderbird czy Apple Mail, do zarządzania pocztą i kalendarzem bez konieczności używania Outlooka.

Integracja z serwerami Exchange zabezpieczonymi 2FA

W dobie rosnących zagrożeń bezpieczeństwa wiele organizacji wdraża uwierzytelnianie dwuskładnikowe (2FA) w celu ochrony dostępu do swoich zasobów. DavMail oferuje wsparcie dla różnych metod uwierzytelniania, w tym dla środowisk z włączonym 2FA.

Tryby uwierzytelniania w DavMail

DavMail obsługuje kilka trybów uwierzytelniania, które można dostosować w zależności od konfiguracji serwera Exchange i wymagań bezpieczeństwa:

  • O365Modern: Automatyczne uwierzytelnianie OIDC. Działa w środowiskach bez włączonego 2FA.
  • O365Interactive: Uwierzytelnianie z wykorzystaniem wbudowanej przeglądarki. Obsługuje większość metod 2FA, ale może napotkać problemy, jeśli wymuszane jest dołączenie urządzenia do domeny.
  • O365Manual: Ręczne uwierzytelnianie, gdzie użytkownik korzysta z własnej przeglądarki do przeprowadzenia procesu logowania.

W przypadku środowisk z włączonym 2FA zaleca się korzystanie z trybu O365Interactive lub O365Manual, aby zapewnić pełną kompatybilność z mechanizmami uwierzytelniania dwuskładnikowego.

Konfiguracja DavMail z 2FA

Aby skonfigurować DavMail do pracy z serwerem Exchange zabezpieczonym 2FA, wykonaj następujące kroki:

  1. Pobierz i zainstaluj DavMail: Najnowszą wersję można znaleźć na oficjalnej stronie projektu.
  2. Skonfiguruj tryb uwierzytelniania: W pliku konfiguracyjnym DavMail (davmail.properties) ustaw odpowiedni tryb uwierzytelniania, np.: davmail.mode=O365Interactive Jeśli korzystasz z trybu O365Manual, dodaj również: davmail.authenticator=davmail.exchange.auth.O365ManualAuthenticator
  3. Uruchom DavMail: Po zapisaniu zmian uruchom DavMail. W trybie O365Interactive pojawi się okno przeglądarki wbudowanej, w którym należy przeprowadzić proces uwierzytelniania, w tym wprowadzenie kodu 2FA. W trybie O365Manual DavMail wygeneruje link, który należy otworzyć w przeglądarce, aby się zalogować.
  4. Skonfiguruj klienta pocztowego: W ustawieniach ulubionego klienta pocztowego (np. Thunderbird) wskaż lokalny serwer DavMail jako serwer poczty przychodzącej i wychodzącej, korzystając z odpowiednich portów.

Pamiętaj, że w przypadku zmian w polityce bezpieczeństwa organizacji lub aktualizacji serwera Exchange może być konieczne dostosowanie konfiguracji DavMail. Regularne monitorowanie komunikatów na oficjalnej stronie projektu oraz forach dyskusyjnych pomoże w utrzymaniu stabilnego połączenia.

Korzyści z używania DavMail

  • Elastyczność: Możliwość korzystania z dowolnego klienta pocztowego obsługującego standardowe protokoły.
  • Niezależność: Brak konieczności używania dedykowanych aplikacji, takich jak Outlook, do obsługi poczty i kalendarza Exchange.
  • Bezpieczeństwo: Wsparcie dla nowoczesnych metod uwierzytelniania, w tym 2FA, zapewnia bezpieczny dostęp do zasobów.

DavMail to potężne narzędzie dla tych, którzy chcą zintegrować swoje ulubione aplikacje z serwerami Exchange, jednocześnie korzystając z zaawansowanych mechanizmów bezpieczeństwa, takich jak uwierzytelnianie dwuskładnikowe.

G

Tagi: , , ,

Agent DWService na Linuxie – jak zainstalować za pomocą konsoli?

25 stycznia, 2025 | Brak Komentarzy | Kategoria: Linux, Porady

Agent

Wstęp:

Agent DWService na systemie Linux – zastanawiasz się, jak zainstalować go za pomocą konsoli? DWService to darmowe narzędzie umożliwiające zdalny dostęp do urządzeń. W tym wpisie przedstawiamy prostą instrukcję krok po kroku, która pozwoli Ci na szybkie uruchomienie agenta na Twoim komputerze.


Krok 1: Pobierz i uruchom skrypt instalacyjny

Otwórz terminal na swoim systemie Linux i wpisz poniższe polecenie, aby pobrać i uruchomić skrypt instalacyjny:

curl -fsSL https://www.dwservice.net/download/dwagent.sh | sh

Ten skrypt automatycznie rozpocznie proces instalacji agenta DWService.


Krok 2: Wybierz sposób instalacji

Po uruchomieniu skryptu zostaniesz poproszony o wybór jednej z dwóch opcji:

  • Zainstaluj agenta – Ta opcja instaluje agenta na stałe, dzięki czemu będzie uruchamiany automatycznie przy każdym starcie systemu.
  • Uruchom tylko raz – Ta opcja pozwala uruchomić agenta jednorazowo bez instalacji na dysku.

Aby korzystać z agenta długoterminowo, wybierz opcję „Zainstaluj agenta”.


Krok 3: Wprowadź kod instalacyjny

W kolejnym kroku skrypt poprosi Cię o wprowadzenie kodu instalacyjnego, który pozwoli powiązać agenta z Twoim kontem DWService. Kod znajdziesz w swoim profilu na stronie DWService:

  1. Zaloguj się na swoje konto DWService.
  2. Przejdź do sekcji „Dodaj nowego agenta”.
  3. Skopiuj wygenerowany kod instalacyjny i wklej go w terminalu, gdy skrypt o to poprosi.

Krok 4: Zakończ instalację

Po wprowadzeniu kodu instalacyjnego skrypt dokończy instalację. Agent DWService zostanie skonfigurowany tak, aby automatycznie uruchamiał się podczas startu systemu. Dzięki temu będziesz mógł uzyskać zdalny dostęp do urządzenia w dowolnym momencie.


Podsumowanie:

Gratulacje! Udało Ci się zainstalować agenta DWService na swoim systemie Linux. Teraz możesz łatwo zarządzać swoim urządzeniem zdalnie, korzystając z platformy DWService. Jeśli masz jakiekolwiek pytania lub napotkasz problemy, zajrzyj do oficjalnej dokumentacji DWService.

G

Tagi: , , , ,

Serwer NFS Debian 12: Konfiguracja krok po kroku

30 listopada, 2024 | Brak Komentarzy | Kategoria: Linux, Porady
Konfiguracja serwera NFS Debian 12

Spis treści

  1. Wprowadzenie
  2. Instalacja serwera NFS
  3. Konfiguracja katalogów udostępnianych
  4. Ustawienia zapory sieciowej
  5. Konfiguracja klienta NFS
  6. Testowanie połączenia
  7. Podsumowanie

Wprowadzenie

Serwer NFS Debian 12 umożliwia udostępnianie plików między systemami Linux/Unix w sieci lokalnej za pomocą protokołu Network File System (NFS). W tym artykule pokażemy, jak skonfigurować serwer NFS na Debianie 12 oraz jak podłączyć do niego klienta. Dzięki temu możesz centralizować dane i ułatwić współpracę między różnymi maszynami w sieci.

Instalacja serwera NFS

Najpierw zaktualizuj system:

sudo apt update && sudo apt upgrade -y

Następnie zainstaluj pakiet nfs-kernel-server, niezbędny do uruchomienia serwera NFS Debian 12:

sudo apt install nfs-kernel-server -y

Konfiguracja katalogów udostępnianych

Stwórz katalog do udostępnienia:

sudo mkdir -p /srv/nfs/udostepniony_katalog

Nadaj odpowiednie uprawnienia:

sudo chown nobody:nogroup /srv/nfs/udostepniony_katalog
sudo chmod 777 /srv/nfs/udostepniony_katalog

Edytuj plik /etc/exports i dodaj linię:

/srv/nfs/udostepniony_katalog  *(rw,sync,no_subtree_check)

Zastosuj zmiany:

sudo exportfs -a

Ustawienia zapory sieciowej

Jeśli korzystasz z ufw, otwórz porty NFS:

sudo ufw allow from any to any port nfs

Jeśli używasz innej zapory, upewnij się, że porty 2049/TCP i 2049/UDP są otwarte. Więcej informacji znajdziesz w oficjalnej dokumentacji Debiana.

Konfiguracja klienta NFS

Na maszynie klienckiej zainstaluj pakiet nfs-common:

sudo apt install nfs-common -y

Utwórz punkt montowania:

sudo mkdir -p /mnt/nfs/udostepniony_katalog

Wykonaj montowanie ręczne (zakładając, że IP serwera to 192.168.1.100):

sudo mount 192.168.1.100:/srv/nfs/udostepniony_katalog /mnt/nfs/udostepniony_katalog

Aby montowanie było trwałe, dodaj wpis do pliku /etc/fstab:

192.168.1.100:/srv/nfs/udostepniony_katalog  /mnt/nfs/udostepniony_katalog  nfs  defaults  0  0

Testowanie połączenia

Sprawdź możliwość tworzenia plików w udostępnionym katalogu:

touch /mnt/nfs/udostepniony_katalog/testowy_plik.txt

Jeśli operacja się powiedzie, konfiguracja serwera NFS Debian 12 jest poprawna.

Testowanie połączenia z serwerem NFS Debian 12

Testowanie połączenia z serwerem NFS

Podsumowanie

Skonfigurowanie serwera NFS Debian 12 umożliwia efektywne udostępnianie plików w sieci lokalnej. Dzięki temu procesowi możesz centralizować dane i usprawnić współpracę między różnymi systemami.

G

Tagi: , , ,

Guacamole – zdalny dostęp w przeglądarce

26 października, 2024 | Brak Komentarzy | Kategoria: Linux, Porady

Apache Guacamole to bezkliencki system zdalnego dostępu, który umożliwia łączenie się z pulpitami zdalnymi poprzez przeglądarkę internetową. Dzięki obsłudze protokołów takich jak VNC, RDP i SSH, pozwala na zarządzanie różnymi systemami operacyjnymi z jednego miejsca, bez konieczności instalowania dodatkowego oprogramowania na urządzeniu klienckim.

W poniższym wideo przedstawiono szczegółowy proces instalacji Guacamole przy użyciu Dockera. Krok po kroku omówiono konfigurację bramki zdalnego dostępu, co umożliwia szybkie wdrożenie tego rozwiązania w środowisku sieciowym. Dzięki temu można efektywnie zarządzać zdalnymi systemami i aplikacjami, co jest szczególnie przydatne w administracji infrastrukturą IT.

Przydatne linki:

G

Tagi: , , , ,

Jak nagrać płytę Blu-ray 100GB w Debianie z linii poleceń – krótki przewodnik

28 września, 2024 | Brak Komentarzy | Kategoria: Linux, Porady

Jak nagrać płytę Blu-ray w Debianie?

.

Blu-ray

Czy zastanawiałeś się, jak nagrać płytę Blu-ray o pojemności 100GB korzystając wyłącznie z linii poleceń w systemie Debian? W tym artykule pokażę krok po kroku, jak to zrobić, wykorzystując narzędzia dostępne w systemie Linux. Przygotuj się na głębokie zanurzenie w świat terminala!

Wymagania wstępne

  • Napęd Blu-ray obsługujący płyty 100GB (BDXL).
  • Płyta Blu-ray 100GB (BDXL).
  • Zainstalowany system Debian lub inna dystrybucja oparta na Debianie.
  • Dostęp do konta root.

1: Instalacja niezbędnych narzędzi

Najpierw zainstalujmy potrzebne pakiety:

apt update
apt install growisofs genisoimage
  • growisofs: Narzędzie do nagrywania obrazów ISO na nośniki optyczne.
  • genisoimage: Służy do tworzenia obrazów ISO z danych.

2: Przygotowanie danych

Zbierz wszystkie pliki, które chcesz nagrać, w jednym katalogu. Na potrzeby tego przewodnika załóżmy, że twoje dane znajdują się w katalogu /home/użytkownik/dane_do_nagrania.

3: Tworzenie obrazu ISO z systemem plików UDF

Blu-ray korzysta z systemu plików UDF. Użyjemy genisoimage, aby utworzyć obraz ISO z tym systemem plików:

genisoimage -udf -o obraz_blu-ray.iso /home/użytkownik/dane_do_nagrania
  • -udf: Określa użycie systemu plików UDF.
  • -o obraz_blu-ray.iso: Ustawia nazwę wyjściowego pliku ISO.

4: Identyfikacja napędu Blu-ray

Przed nagraniem musimy znać ścieżkę do napędu. Najczęściej jest to /dev/sr0 lub /dev/cdrom. Możesz to sprawdzić poleceniem:

wodim --devices

Wyjście powinno pokazać dostępne napędy optyczne.

5: Nagrywanie obrazu ISO na płytę Blu-ray

Upewnij się, że w napędzie znajduje się płyta Blu-ray 100GB. Następnie użyj growisofs, aby nagrać obraz:

growisofs -dvd-compat -speed=2 -Z /dev/sr0=obraz_blu-ray.iso
  • -dvd-compat: Zapewnia większą kompatybilność nagranej płyty.
  • -speed=2: Ustawia prędkość nagrywania (możesz dostosować w zależności od możliwości napędu i płyty).
  • -Z /dev/sr0=obraz_blu-ray.iso: Określa napęd i obraz ISO do nagrania.

Alternatywa: Bezpośrednie nagrywanie danych na płytę

Możesz też nagrać dane bezpośrednio na płytę bez tworzenia obrazu ISO:

growisofs -dvd-compat -speed=2 -Z /dev/sr0 -udf /home/użytkownik/dane_do_nagrania
  • -udf: Informuje, że dane mają być nagrane z użyciem systemu plików UDF.

6: Weryfikacja nagrania

Po zakończeniu procesu warto sprawdzić, czy dane zostały poprawnie nagrane:

mount /dev/sr0 /mnt
ls /mnt
umount /mnt

Jeśli zobaczysz swoje pliki w katalogu /mnt, nagranie przebiegło pomyślnie.

Podsumowanie

Nagrywanie płyt Blu-ray 100GB w Debianie z linii poleceń jest prostsze, niż się wydaje. Wystarczy kilka narzędzi i podstawowa znajomość terminala. Teraz możesz archiwizować duże ilości danych w sposób efektywny i niezawodny.

G

Tagi: , , ,

Portainer po aktualizacji Docker 26 – problemy

29 czerwca, 2024 | Brak Komentarzy | Kategoria: Linux, Porady
Portainer Docker 26 - problemy

Wprowadzenie

Niedawna aktualizacja Dockera do wersji 26 spowodowała problemy dla użytkowników Portainera. W tym artykule omówimy na czym polegają te problemy, jakie są ich przyczyny oraz jak można je rozwiązać. Pokażemy również przykłady możliwych działań, aby uniknąć zakłóceń w działaniu systemów.

Problem

Po aktualizacji Dockera do wersji 26, wielu użytkowników Portainera (wersja 2.19.4) zauważyło, że nie mogą wyświetlać szczegółów obrazów ani uzyskiwać dostępu do konsoli kontenerów. Utrudnia to poważnie zarządzanie kontenerami i monitorowanie ich stanu.

Przykłady problemów

  • Brak możliwości przeglądania szczegółów obrazów Docker.
  • Niedziałająca konsola kontenerów, co uniemożliwia wykonywanie poleceń wewnątrz kontenerów.

Przyczyny

Problemy te wynikają z usunięcia niektórych funkcji w Dockerze 26, na których polegała poprzednia wersja Portainera. Zmiany w Dockerze spowodowały, że niektóre API używane przez Portainera przestały działać zgodnie z oczekiwaniami.

Rozwiązania

Tymczasowe rozwiązanie

Jednym z tymczasowych rozwiązań jest cofnięcie wersji Dockera do 25.0.5. Umożliwi to powrót do poprzedniej funkcjonalności, zanim zostanie wprowadzona odpowiednia poprawka w Portainerze.

Aktualizacja Portainera

Zespół Portainera szybko zareagował na zgłoszone problemy i wydał wersję 2.20.1, która naprawia problemy z kompatybilnością z Dockerem 26. Zaleca się aktualizację Portainera do tej wersji, aby uniknąć dalszych problemów.

Jak przeprowadzić aktualizację

  1. Cofnięcie wersji Dockera:
  • Odinstaluj obecną wersję Dockera.
  • Zainstaluj Docker w wersji 25.0.5 z odpowiedniego źródła.
  1. Aktualizacja Portainera:
  • Przejdź do strony Portainera i pobierz najnowszą wersję.
  • Zaktualizuj Portainera do wersji 2.20.1 zgodnie z instrukcjami na stronie.

Przykładowe komendy aktualizacji

# Cofnięcie wersji Dockera do 25.0.5
sudo apt-get remove docker docker-engine docker.io containerd runc
sudo apt-get install docker-ce=5:20.10.5~3-0~ubuntu-focal

# Aktualizacja Portainera do wersji 2.20.1
docker pull portainer/portainer-ce:2.20.1
docker stop portainer
docker rm portainer
docker run -d -p 8000:8000 -p 9443:9443 --name=portainer --restart=always -v /var/run/docker.sock:/var/run/docker.sock -v portainer_data:/data portainer/portainer-ce:2.20.1

G

Tagi: , ,

Migracja maszyn wirtualnych z VMware ESXi do Proxmox VE

25 maja, 2024 | Brak Komentarzy | Kategoria: Linux, Porady, Windows
Migracja VMware Proxmox

Wstęp

Migracja maszyn wirtualnych z jednego hypervisora do innego to ważny proces w zarządzaniu IT, umożliwiający lepsze wykorzystanie zasobów i optymalizację kosztów. Proxmox VE, będąc potężnym narzędziem do wirtualizacji, oferuje efektywne środowisko do przenoszenia istniejących instalacji VMware ESXi. Proces ten został przetestowany na takich systemach operacyjnych jak Debian 10, Windows 10 Pro oraz Windows Server 2016 Standard.

Eksportowanie maszyny wirtualnej

Przy użyciu GUI VMware ESXi:

Przejdź do wirtualnej maszyny w drzewie lewym interfejsu VMware ESXi. Wybierz opcje „Actions > Export”. To spowoduje pobranie obrazów dysków i informacji o maszynie wirtualnej w formacie OVF bezpośrednio przez przeglądarkę. Przenieś pobrane pliki do lokalizacji dostępnej dla hosta Proxmox VE.

Przy użyciu CLI na hoście Proxmox VE:

Zainstaluj narzędzie ovftool na hoście Proxmox VE. Ovftool w wersji 4.4 współpracuje z ESXi w wersji 6.5 i 6.7, podczas gdy inne wersje mogą powodować błędy. Użyj polecenia:

ovftool vi://root@<ip-esxi>/<nazwa-maszyny-wirtualnej>

Pamiętaj o konieczności wypakowania archiwów .ova przed kontynuacją.

Importowanie maszyny wirtualnej

Przejdź do linii komend Proxmox VE i użyj polecenia:

qm importovf <VM-ID> <ścieżka/do/pliku.ovf> <storage> 

Na przykład:

qm importovf 200 /tmp/exported-vm.ovf local-lvm

Polecenie utworzy nową maszynę wirtualną używając rdzeni, pamięci oraz VMID z pliku OVF.

Dodatkowe kroki dla gości systemu Windows

Jeśli importujesz maszynę z systemem Windows, musisz dodatkowo wykonać poniższe polecenia, zakładając że ID wirtualnej maszyny to 130:

qm set 130 --bios ovmf

Systemy Windows wymagają sterowników SCSI, więc czasowo użyj interfejsu SATA. W poniższym przykładzie 'scsi0′ powinno być zastąpione napędem, z którego uruchamiany jest Windows:

sed -i 's/scsi0/sata0:/' /etc/pve/qemu-server/130.conf

Podsumowanie

Artykuł ten omawia kroki potrzebne do migracji maszyny wirtualnej z VMware ESXi do Proxmox VE, w tym eksportowanie z VMware oraz importowanie do Proxmox. Dla użytkowników systemu Windows wymagane są dodatkowe kroki konfiguracyjne w celu zapewnienia prawidłowego działania maszyny po migracji.

Pproces może znacznie poprawić efektywność zarządzania zasobami IT, umożliwiając korzystanie z zaawansowanych funkcji Proxmox VE takich jak klastry, wysoka dostępność i zarządzanie zasobami.

GR

Tagi: , , ,

Jak przeprowadzić migrację ze strony Joomla do WordPressa – krok po kroku

27 kwietnia, 2024 | Brak Komentarzy | Kategoria: Linux, Porady
Migracja z Joomla do WordPressa

Wprowadzenie: Przeniesienie strony internetowej z Joomla do WordPressa może wydawać się skomplikowane, ale dzięki odpowiedniemu podejściu, możemy to zrobić sprawnie i bez utraty danych. W tym wpisie omówimy krok po kroku, jak przeprowadzić migrację.

1. Przygotowanie środowiska WordPress: Zacznij od zainstalowania WordPressa na swoim serwerze. Wiele firm hostingowych oferuje narzędzia takie jak Softaculous lub cPanel, które ułatwiają ten proces. Upewnij się, że WordPress jest gotowy do przyjęcia treści z Joomla, co oznacza zainstalowanie odpowiedniego motywu i niezbędnych wtyczek.

2. Eksportowanie treści z Joomla: Aby przenieść swoje artykuły, kategorie, obrazy i inne dane, można skorzystać z rozszerzeń Joomla takich jak J2XML lub innego narzędzia wspierającego eksport danych.

3. Importowanie treści do WordPressa: Na swojej stronie WordPress zainstaluj i aktywuj wtyczkę FG Joomla to WordPress. Wtyczka ta jest zaprojektowana, aby ułatwić import treści z Joomla do WordPressa. Możesz ją znaleźć i uruchomić z poziomu panelu administracyjnego WordPressa (Narzędzia → Import).

4. Ustawienie przekierowań 301: Aby utrzymać pozycję w wyszukiwarkach, ważne jest ustawienie przekierowań 301 z poprzednich URL-i Joomla na nowe adresy URL w WordPressie. Możesz to zrobić za pomocą wtyczki takiej jak Redirection.

5. Dostosowanie i optymalizacja nowej strony WordPress: Po zakończeniu importu należy skonfigurować menu, widgety oraz dostosować motyw. Nie zapomnij również o optymalizacji strony pod kątem SEO, prędkości działania i bezpieczeństwa, używając wtyczek jak Yoast SEO, W3 Total Cache i Wordfence Security.

6. Testowanie wszystkiego: Zanim strona zostanie oficjalnie uruchomiona, przeprowadź dokładne testy, aby upewnić się, że wszystkie treści zostały przeniesione poprawnie i wszystkie funkcjonalności działają zgodnie z oczekiwaniami.

Podsumowanie: Migracja z Joomla do WordPressa wymaga starannego planowania i wykonania, ale jest to proces, który może znacznie poprawić zarządzanie treścią i elastyczność Twojej strony internetowej. Dzięki naszym wskazówkom proces ten będzie prostszy i bardziej przystępny.

Zachęcamy do odwiedzenia oficjalnych stron wtyczek i narzędzi wymienionych w artykule, aby uzyskać więcej szczegółowych informacji na temat ich instalacji i konfiguracji.

GR

Tagi: , , , ,

Jak używać SSH jako VPN: przewodnik po Shuttle

24 lutego, 2024 | Brak Komentarzy | Kategoria: Linux, MacOS, Porady
Suttle

Termin „Poor Man’s VPN” często odnosi się do prostych, niestandardowych rozwiązań służących do tworzenia wirtualnych sieci prywatnych (VPN), które nie wykorzystują dedykowanego oprogramowania VPN. Zamiast tego mogą używać innych technologii, takich jak SSH (Secure Shell), do tworzenia zabezpieczonych tuneli przez Internet.

SSH jest często wykorzystywane do tworzenia prostych VPNów, ponieważ umożliwia szyfrowane połączenie między dwoma punktami w sieci. Przykładowo, można przekierować ruch z lokalnego komputera przez zdalny serwer SSH, co zadziała podobnie jak VPN, dzięki tunelowaniu ruchu sieciowego i umożliwi bezpieczny dostęp do zasobów sieciowych.

Shuttle to narzędzie działające jako transparentny serwer proxy, służący jako prosty zamiennik VPN. Działa poprzez przekierowanie ruchu za pomocą SSH. Nie wymaga uprawnień administratora i jest kompatybilne z Linuxem i MacOS. Ponadto obsługuje tunelowanie DNS, co jest istotne w kontekście przekierowania całego ruchu przez łącze VPN. Można go zainstalować na wiele sposobów, w tym przez menedżery pakietów w różnych dystrybucjach Linuxa, PyPI, Homebrew, a także bezpośrednio z kodu źródłowego. Dokumentacja jest dostępna online, a sshuttle może być również konfigurowany jako usługa.

Przykład użycia komendy sshuttle do przekierowania całego ruchu z lokalnego komputera przez połączenie SSH wraz z przekazywaniem zapytań DNS wygląda następująco:

sshuttle -r username@remote_host 0/0 -vv --dns

W powyższym poleceniu:

  • -r username@remote_host określa zdalnego użytkownika i host, przez który ma być przekierowany ruch.
  • 0/0 oznacza, że cały ruch ma być przekierowany.
  • -vv włącza tryb szczegółowych informacji (verbose).
  • --dns oznacza, że zapytania DNS również będą przekierowywane przez połączenie SSH.

Więcej informacji i opcji konfiguracyjnych można znaleźć w dokumentacji sshuttle dostępnej na GitHubie.

G

Tagi: , , , ,

Zarządzanie czasem pracy zdalnej: wprowadzenie do Kimai i Docker

27 stycznia, 2024 | Brak Komentarzy | Kategoria: Linux, Porady, Windows

Praca zdalna i prawo: efektywne monitorowanie czasu pracy

W Polsce, w obliczu nowych przepisów prawnych oraz rosnącej popularności pracy zdalnej, pojawiła się pilna potrzeba znalezienia skutecznych metod monitorowania czasu pracy. Zmiana ta wynika z konieczności dostosowania się do przepisów prawa pracy, które wymagają od pracodawców dokładnego rejestrowania czasu pracy pracowników, niezależnie od ich lokalizacji. Rozwiązanie ma na celu zapewnienie ochrony praw pracowniczych i przestrzegania norm dotyczących czasu pracy, co jest szczególnie ważne w modelu pracy zdalnej, gdzie tradycyjne metody rejestracji czasu pracy mogą być nieefektywne lub niewystarczające. Dlatego pojawiła się potrzeba wdrożenia narzędzi umożliwiających efektywne i zgodne z prawem zarządzanie czasem pracy zdalnej. Jednym z proponowanych jest bezpłatna platforma Kimai, która oferuje funkcjonalności konkurencyjne w stosunku do płatnych rozwiązań, takich jak TimeCamp czy Toggl, dostarczając równie efektywnych narzędzi do monitorowania czasu pracy, lecz bez dodatkowych kosztów dla organizacji.

Konteneryzacja Docker: efektywność i bezpieczeństwo

Konteneryzacja za pomocą Dockera stanowi jedną z najbardziej efektywnych metod wdrażania i zarządzania aplikacjami, oferując szereg zalet zarówno na systemach Windows, jak i Linux. Jedną z głównych zalet jest zdolność do szybkiego tworzenia gotowych do użycia serwerów w ciągu zaledwie kilku minut. Docker pozwala na izolację aplikacji w kontenerach, co zapewnia spójność środowiska między różnymi systemami operacyjnymi, eliminując typowe problemy związane z różnicami w konfiguracji. Co więcej, konteneryzacja ułatwia zarządzanie zasobami, umożliwiając efektywniejsze wykorzystanie dostępnej infrastruktury. Istotnym aspektem bezpieczeństwa jest możliwość korzystania z dobrze utrzymywanych i regularnie aktualizowanych obrazów kontenerów, co minimalizuje ryzyko eksploatacji znanych luk bezpieczeństwa. Dzięki temu, wybierając Docker, użytkownicy otrzymują nie tylko szybkie i elastyczne rozwiązanie do wdrażania aplikacji, ale także system, który przy odpowiednim zarządzaniu i wyborze źródeł może oferować wysoki poziom bezpieczeństwa.

Docker-compose: uproszczenie zarządzania wieloma kontenerami

Pakiet docker-compose jest narzędziem ułatwiającym zarządzanie wielokontenerowymi aplikacjami Docker. Pozwala on na definiowanie i uruchamianie aplikacji składających się z wielu kontenerów za pomocą jednego pliku konfiguracyjnego, zwanego docker-compose.yml. Dzięki temu, zamiast uruchamiać każdy kontener osobno i ręcznie zarządzać ich zależnościami oraz siecią, użytkownicy mogą wykorzystać docker-compose do automatyzacji tego procesu. Narzędzie to znacznie upraszcza proces konfiguracji środowiska, zwłaszcza w przypadku skomplikowanych aplikacji, gdzie interakcje między kontenerami są kluczowe. Ważne jest, że docker-compose nie jest domyślnie dołączony w instalacji standardowej wersji Docker i wymaga osobnego zainstalowania w systemie. Jest on dostępny zarówno dla systemów operacyjnych Windows, jak i Linux, a jego instalacja znacząco rozszerza możliwości zarządzania kontenerami Docker, ułatwiając pracę deweloperów i administratorów systemów. W systemie Windows docker-compose jest zwykle instalowany automatycznie wraz z Docker Desktop, a jego aktualizacja odbywa się poprzez aktualizację całego pakietu Docker Desktop.

Instalacja Kimai: konfiguracja via docker-compose

Aby rozpocząć instalację Kimai, pierwszym krokiem jest przygotowanie niezbędnego środowiska, a następnie utworzenie nowego folderu, w którym należy zapisać plik z poniższego przykładu. Jest on kluczowy dla procesu instalacji, gdyż zawiera konfigurację niezbędną do uruchomienia i zarządzania Kimai przy użyciu Docker-compose.

version: '3.5'
services:
  sqldb:
    image: mysql:5.7
    environment:
      - MYSQL_DATABASE=kimai
      - MYSQL_USER=kimai
      - MYSQL_PASSWORD=kimai
      - MYSQL_ROOT_PASSWORD=kimai
    volumes:
      - ./kimai2_db:/var/lib/mysql
    command: --default-storage-engine innodb
    restart: unless-stopped
  nginx:
    image: tobybatch/nginx-fpm-reverse-proxy
    ports:
      - 8080:80
    volumes:
      - public:/opt/kimai/public:ro
    restart: unless-stopped
    depends_on:
      - kimai
  kimai:
    image: kimai/kimai2:latest
    environment:
      - APP_ENV=prod
      - TRUSTED_HOSTS=localhost
      - ADMINMAIL=admin@example.me
      - ADMINPASS=changemeplease
      - DATABASE_URL=mysql://kimai:kimai@sqldb/kimai
      - TRUSTED_HOSTS=nginx,localhost,127.0.0.1
    volumes:
      - public:/opt/kimai/public
    restart: unless-stopped
volumes:
    public:

Żeby spersonalizować konfigurację trzeba zmienić dwa ustawienia zanaczone pogrubioną czcionką. W przypadku adresu e-mail będzie to zarazem nazwa konta do pierwszego logowania. W ostatnim kroku aby uruchomić swoją instancję Kimai i rozpocząć śledzenie czasu otwórz terminal, przejdź do folderu, w którym przechowywany jest powyższy plik, i wykonaj polecenie:

 docker-compose up -d

Po pomyślnym wykonaniu polecenia możesz otworzyć swoją instancję do śledzenia czasu Kimai w preferowanej przeglądarce internetowej i zalogować się przy użyciu danych uwierzytelniających z pliku docker.

G

Tagi: , , ,