Bądź na bieżąco - RSS

Zarządzanie czasem pracy zdalnej: wprowadzenie do Kimai i Docker

27 stycznia, 2024 | Brak Komentarzy | Kategoria: Linux, Porady, Windows

Praca zdalna i prawo: efektywne monitorowanie czasu pracy

W Polsce, w obliczu nowych przepisów prawnych oraz rosnącej popularności pracy zdalnej, pojawiła się pilna potrzeba znalezienia skutecznych metod monitorowania czasu pracy. Zmiana ta wynika z konieczności dostosowania się do przepisów prawa pracy, które wymagają od pracodawców dokładnego rejestrowania czasu pracy pracowników, niezależnie od ich lokalizacji. Rozwiązanie ma na celu zapewnienie ochrony praw pracowniczych i przestrzegania norm dotyczących czasu pracy, co jest szczególnie ważne w modelu pracy zdalnej, gdzie tradycyjne metody rejestracji czasu pracy mogą być nieefektywne lub niewystarczające. Dlatego pojawiła się potrzeba wdrożenia narzędzi umożliwiających efektywne i zgodne z prawem zarządzanie czasem pracy zdalnej. Jednym z proponowanych jest bezpłatna platforma Kimai, która oferuje funkcjonalności konkurencyjne w stosunku do płatnych rozwiązań, takich jak TimeCamp czy Toggl, dostarczając równie efektywnych narzędzi do monitorowania czasu pracy, lecz bez dodatkowych kosztów dla organizacji.

Konteneryzacja Docker: efektywność i bezpieczeństwo

Konteneryzacja za pomocą Dockera stanowi jedną z najbardziej efektywnych metod wdrażania i zarządzania aplikacjami, oferując szereg zalet zarówno na systemach Windows, jak i Linux. Jedną z głównych zalet jest zdolność do szybkiego tworzenia gotowych do użycia serwerów w ciągu zaledwie kilku minut. Docker pozwala na izolację aplikacji w kontenerach, co zapewnia spójność środowiska między różnymi systemami operacyjnymi, eliminując typowe problemy związane z różnicami w konfiguracji. Co więcej, konteneryzacja ułatwia zarządzanie zasobami, umożliwiając efektywniejsze wykorzystanie dostępnej infrastruktury. Istotnym aspektem bezpieczeństwa jest możliwość korzystania z dobrze utrzymywanych i regularnie aktualizowanych obrazów kontenerów, co minimalizuje ryzyko eksploatacji znanych luk bezpieczeństwa. Dzięki temu, wybierając Docker, użytkownicy otrzymują nie tylko szybkie i elastyczne rozwiązanie do wdrażania aplikacji, ale także system, który przy odpowiednim zarządzaniu i wyborze źródeł może oferować wysoki poziom bezpieczeństwa.

Docker-compose: uproszczenie zarządzania wieloma kontenerami

Pakiet docker-compose jest narzędziem ułatwiającym zarządzanie wielokontenerowymi aplikacjami Docker. Pozwala on na definiowanie i uruchamianie aplikacji składających się z wielu kontenerów za pomocą jednego pliku konfiguracyjnego, zwanego docker-compose.yml. Dzięki temu, zamiast uruchamiać każdy kontener osobno i ręcznie zarządzać ich zależnościami oraz siecią, użytkownicy mogą wykorzystać docker-compose do automatyzacji tego procesu. Narzędzie to znacznie upraszcza proces konfiguracji środowiska, zwłaszcza w przypadku skomplikowanych aplikacji, gdzie interakcje między kontenerami są kluczowe. Ważne jest, że docker-compose nie jest domyślnie dołączony w instalacji standardowej wersji Docker i wymaga osobnego zainstalowania w systemie. Jest on dostępny zarówno dla systemów operacyjnych Windows, jak i Linux, a jego instalacja znacząco rozszerza możliwości zarządzania kontenerami Docker, ułatwiając pracę deweloperów i administratorów systemów. W systemie Windows docker-compose jest zwykle instalowany automatycznie wraz z Docker Desktop, a jego aktualizacja odbywa się poprzez aktualizację całego pakietu Docker Desktop.

Instalacja Kimai: konfiguracja via docker-compose

Aby rozpocząć instalację Kimai, pierwszym krokiem jest przygotowanie niezbędnego środowiska, a następnie utworzenie nowego folderu, w którym należy zapisać plik z poniższego przykładu. Jest on kluczowy dla procesu instalacji, gdyż zawiera konfigurację niezbędną do uruchomienia i zarządzania Kimai przy użyciu Docker-compose.

version: '3.5'
services:
  sqldb:
    image: mysql:5.7
    environment:
      - MYSQL_DATABASE=kimai
      - MYSQL_USER=kimai
      - MYSQL_PASSWORD=kimai
      - MYSQL_ROOT_PASSWORD=kimai
    volumes:
      - ./kimai2_db:/var/lib/mysql
    command: --default-storage-engine innodb
    restart: unless-stopped
  nginx:
    image: tobybatch/nginx-fpm-reverse-proxy
    ports:
      - 8080:80
    volumes:
      - public:/opt/kimai/public:ro
    restart: unless-stopped
    depends_on:
      - kimai
  kimai:
    image: kimai/kimai2:latest
    environment:
      - APP_ENV=prod
      - TRUSTED_HOSTS=localhost
      - ADMINMAIL=admin@example.me
      - ADMINPASS=changemeplease
      - DATABASE_URL=mysql://kimai:kimai@sqldb/kimai
      - TRUSTED_HOSTS=nginx,localhost,127.0.0.1
    volumes:
      - public:/opt/kimai/public
    restart: unless-stopped
volumes:
    public:

Żeby spersonalizować konfigurację trzeba zmienić dwa ustawienia zanaczone pogrubioną czcionką. W przypadku adresu e-mail będzie to zarazem nazwa konta do pierwszego logowania. W ostatnim kroku aby uruchomić swoją instancję Kimai i rozpocząć śledzenie czasu otwórz terminal, przejdź do folderu, w którym przechowywany jest powyższy plik, i wykonaj polecenie:

 docker-compose up -d

Po pomyślnym wykonaniu polecenia możesz otworzyć swoją instancję do śledzenia czasu Kimai w preferowanej przeglądarce internetowej i zalogować się przy użyciu danych uwierzytelniających z pliku docker.

G

Tagi: , , ,

Alpine Linux

28 października, 2023 | Brak Komentarzy | Kategoria: Felieton, Linux, Porady
Alpine Linux

Pierwszy raz Alpine Linux wpadł mi w oko przy okazji budowy maszyny wirtualnej w środowisku VMware ESXi kiedy miałem wskazać wybrany system z rodziny Linux z listy dostępnych opcji. Drugi raz nazwa ta przewinęła się przy okazji kontenerów LXC w Proxmoxie. Z czystej ciekawości zacząłem zastanawiać się dlaczego akurat ten system zasłużył sobie na to aby stać się jednym z wyborów w dojrzałych środowiskach wirtualizacyjnych. Po raz trzeci gdy przyjrzałem się uważniej gotowym kontenerom na Docker Hubie, gdzie bardzo duża ich część opierała się właśnie na Alpine jako systemie bazowym.

Jako zagorzały zwolennik Debiana, w myśl starego powiedzenia, że wszyscy zaczynają od różnych dystrybucji a kończą na Debianie, założyłem, że nic już nie może się zmienić w moich wyborach operatora systemowego. Byłem w dużym błędzie.

Od jakiegoś czasu Debian zaczął się zmieniać. Siła nawyków jest ogromna i ciężko było się przyzwyczaić do niektórych modyfikacji począwszy od trywialnej zmiany nazwy interfejsu sieciowego (gdzie się podziało stare dobre ETH0) a skończywszy na grubszych zmianach, które na przykład spowodowały przeniesienie i zmianę systemu logów (brrr…). Dlaczego zginęła początkowa prostota i przejrzysta logika w budowie systemu operacyjnego. Przecież Linuxem zainteresowałem się bo był dalece bardziej prosty w obłudze i logice działania niż Windows NT, którem zajmowałem się wówczas (sic!).

Tak czy inaczej jak tylko znalazłem chwilę czasu to postanowiłem wypróbować Apline, tym bardziej że Proxmox pozwala na wykreowanie kontenera tego typu w kilkanaście sekund. Wypróbowałem i oniemiałem. Zobaczyłem system jak za dawnych lat. Prosty, łatwy w obsłudze i niezwykle szybki.

Aby nie być gołosłownym przytaczam poniżej zestaw przykładowych podstawowych komend używanych tuż po instalacji świeżego systemu. Każdy może sam się domyślić do czego mogą służyć 🙂

apk update
apk update
apk add docker
rc-update add docker default
service docker start
reboot

Prawda, że wygląda bardzo znajomo? Wszystko co potrzebne można znaleźć wraz ze szczegółowym opisem na stronach Wiki projektu Alpine Linux Wiki. I dodatkowo powróciła nawet nazwa ETH0. Myślę, że ktoś kto miał do czynienia z tekstowym Debianem powinien być zadawolony.

Nie wiem jak długo zostanę przy projekcie Alpine Linux. Na razie trwa pierwsze młodzieńcze zauroczenia chociaż już pojawiły się pewne rysy. Ale o tym może innym razem.

MG

Tagi: ,

Instalacja sterowników GPU NVIDIA

4 października, 2023 | Brak Komentarzy | Kategoria: Linux, Porady
NVIDIA GPU

Jeśli na serwerze zainstalowany jest procesor graficzny GPU NVIDIA, dodanie jego sterowników jest pierwszą rzeczą, którą należy zrobić po zainstalowaniu systemu. W artykule chciałbym w skrócie pokazać co należy zrobić aby zainstalować wspomniane sterowniki w wersji otwartej, na bazie systemów z rodziny Debiana, czyli np. Ubuntu. Zakładam również, że podczas instalacji Ubuntu nie zaznaczyliśmy opcji użycia sterowników własnościowych.

Pierwszą czynnością jest sprawdzenie czy system widzi poprawnie kartę NVIDIA. W tym celu można skorzystać z polecenia lshw i poszukać w komunikacie wyjściowym frazy NVIDIA. Jeśli ją znajdziemy to raczej wszystko jest w porządku.

W drugim kroku powinniśmy sprawdzić czy uruchomione zostały otwarte sterowniki Nouveau. Należy ich się pozbyć i zamienić ze sterownikami NVIDIA. Używamy polecenia:

lsmod | grep nouveau

Powinniśmy otrzymać pełną informację o zainstalowanych sterownikach. Dla pewności możemy wydać jeszcze polecenie:

lsmod | grep nvidia

W tym przypadku rezultatem będzie brak informacji, ponieważ dopiero zainstalujemy sterowniki NVIDIA.

Przechodzimy do głównej części procesu. Aby zainstalować firmowe sterowniki NVIDIA z wiersza poleceń, otwieramy terminal i uruchomiamy następujące polecenie:

ubuntu-drivers devices

Otrzymamy listę dostępnych sterowników. W tym momencie warto się na chwilę zatrzymać. Nie zawsze najnowsze sterowniki będą stabilnie działać. Dla pewności można zainstalować na początek przedostatnią wersję, która zazwyczaj zawiera wszystkie konieczne poprawki dzięki czemu pozwala na bezbłędną pracę. Zatem użyjmy dajmy na to polecenia:

sudo apt install nvidia-driver-535

wybierając stabilną wersję. Po zakończeniu instalacji pozostaje uruchomić ponownie system:

sudo reboot

Jak sprawdzić czy sterowniki zostały zainstalowane poprawnie? Przede wszystkim możemy użyć polecenia lsmod z początku artykułu, a poza tym zawsze warto skorzystać z narzędzia linii poleceń:

nvidia-smi

MG

Tagi: , , , ,

Aktualizacja Debian LTS za pomocą Freexian

1 sierpnia, 2023 | Brak Komentarzy | Kategoria: Linux, Porady

Debian, Freexian, aktualizacja, LTS

Debian

Każdy, nawet najlepszy system operacyjny ma swój termin przydatności. Najczęściej po jego przekroczeniu trudno oczekiwać wsparcia w postaci aktualizacji oprogramowania systemowego. Prowadzi to z kolei do całkiem prawdopodobnego narażania się na niebezpieczeństwo w postaci niezałatanych dziur i w konsekwencji ataków na usługi, które pracowicie utrzymujemy. Takie niedbałości w postaci porzuconych systemów można spotkać wbrew pozorom całkiem często.

Jeśli mamy pod opieką pojedyncze maszyny, nieważne czy jako fizyczne serwery czy jako wirtualne instancje, to oczywiście aktualizacja systemu operacyjnego do nowszej wersji jest wyzwaniem ale prawdopodobnie niezbyt wymagającym. Jeśli jednak wspomnianych serwerów jest cała masa albo co gorsza zainstalowaliśmy unikalne ale ważne usługi, których konfiguracja jest naprawdę pracochłonna to aktualizacja może być procesem, który spowoduje, że będziemy musieli się nieco napracować.

Nic dziwnego, że o ile jest dostępna droga przedłużenia wsparcia dla systemu, nawet jako alternatywa dla oficjalnych repozytoriów, to czasami chętnie po nią sięgamy. Tak właśnie można wytłumaczyć popularność projektu Freexian, który ratuje przeterminowane serwery z Linux Debian.

O projekcie Freexian wspomninałem już w innym wpisie. Jeśli ktoś chce zapoznać się ze szczegółami to serdecznie zachęcam. Jednak ponieważ pojawiło się parę istotnych nowości to postanowiłem zaktualizować informację.

Wspomniane nowości dotyczą aktualizacji kluczy instalacyjnych, które jakiś czas temu zostały zmienienione. Na szczęście przepis na instalację nowych jest bardzo prosty i sprowadza się do wydania dwóch poleceń:

wget https://deb.freexian.com/extended-lts/pool/main/f/freexian-archive-keyring/freexian-archive-keyring_2022.06.08_all.deb && dpkg -i freexian-archive-keyring_2022.06.08_all.deb
wget https://deb.freexian.com/extended-lts/archive-key.gpg -O elts-archive-key.gpg && mv elts-archive-key.gpg /etc/apt/trusted.gpg.d/freexian-archive-extended-lts.gpg

Jeżeli wszystko przebiegnie pomyślnie to możemy dodać do pliku /etc/apt/sources.list odpowienie repozytorium w zależności od wersji naszego systemu operacyjnego:

deb http://deb.freexian.com/extended-lts jessie-lts main contrib non-free
deb http://deb.freexian.com/extended-lts stretch-lts main contrib non-free

Pamiętajmy jednak, że nie zwalnia nas to z obowiązku podniesienia wersji systemu… gdy już będziemy gotowi zmierzyć się z tym zadaniem.

MG

Tagi: , , ,

Kontener WordPress i strefa czasowa

31 maja, 2023 | Brak Komentarzy | Kategoria: Linux, Porady
Kontener WordPress

Wirtualizacja i kontneryzacja są zdecydowanie technikami zmieniającymi sposób w jaki budujemy swoje usługi. O ile kiedyś przygotowanie np. własnej (nawet) statycznej strony www wymagało przygotowania serwera, później zainstalowania i skonfigurowania oprogramowania (nie wspominając, że najpierw w pocie czoła składało się coś na kształt peceta hmm… serwerowego) o tyle obecnie cały proces znacznie się skrócił bo dostajemy gotowe moduły do uruchomienia czy to w środowiskach wirtualizacyjnych, czy to na platformie dla kontenerów.

Oczywiście nie ma rozwiązań doskonałych i nawet coś tak łatwego w utrzymaniu jak kontenery ma swoje ułomności. Jedną z nich, dosyć często występującą, jest brak obsługi strefy czasowej w przypadku bardzo popularnego systemu CMS jakim jest WordPress. Jest to zadziwiające, że w przypadku oficjalnego obrazu dostępnego w serwisie Docker Hub nie pomyślano o tym. Być może nie jest to wada, która będzie uciążliwa od pierwszych minut funkcjonowania naszej strony ale szybko ujawni się jeśli włączymy np. dwustopniową autoryzację podczas logowania do panelu administracyjnego. Poniżej opisuję krótko jak naprawić tą niedogodność.

W internecie można znaleźć dużo porad na ten temat jednak tak naprawdę tylko jedna z nich sprawdziła się w moim przypadku. Dotyczy ona konfiguracji w oparciu o plik YAML dla konfiguracji Docker Compose. Przy korzystaniu z Portainera, czyli narzędzia, które zdecydowanie mogę polecić nie tylko początkującym, jest to w zasadzie najprostsza droga dla budowania całkiem skomplikowanych konfiguracji.

Rozwiązanie w całości opiera się na dopisaniu kliku linijek tekstu we wspomnianym pliku konfiguracyjnym:

services:
  service_name:
    volumes:
      - "/etc/timezone:/etc/timezone:ro"
      - "/etc/localtime:/etc/localtime:ro"

Jeśli zapewnimy prawidłową konfigurację systemu hosta kontenerów – mam na myśli strefę czasową – to praktycznie kontener WordPress skopiuje te ustawienia do swojego obrazu. Tylko tyle i aż tyle. Zatem do roboty!

MG

Tagi: , ,

OpenMediaVault migracja do najnowszej wersji

3 maja, 2023 | Brak Komentarzy | Kategoria: Linux, Porady
OpenMediaVault migracja do najnowszej wersji

Jako zagorzały fanatyk OpenMediaVault nie wiedziałem dotychczas, że można dosyć łatwo i sprawnie przeprowadzić migrację do jego najnowszej wersji. Z czystego lenistwa używam OMV jako interfejsu graficznego do zarządzania serwerami i tylko w razie potrzeby zaglądam do linii poleceń. OMV można zawsze zainstalować jako dodatek do istniejącego już systemu korzystając ze skryptu instalacyjnego:

https://github.com/OpenMediaVault-Plugin-Developers/installScript

Jednak zawsze po pewnym czasie, kiedy system się starzeje a repozytoria przechodzą do archiwum może dojść do sytuacji, w której linie aktualizacji GMV oraz OS rozejdą się na tyle, że któraś z bibliotek przestanie działać albo w najgorszym razie zaktualizowana konfiguracji nie pozwoli na uruchomienie kluczowej usługi np. Dockera z całą masą krytycznych kontenerów.

W takim przypadku pozostaje wymiana OS i instalacja od nowa GMV z przeniesieniem kluczowych serwisów lub … skorzystanie z bardzo wygodnego w użyciu skryptu pozwalającego po prostu zaktualizować GMV do wyższej wersji.

Skrypt aktualizacyjny jest dołączony do narzędzi OMV i wywołujemy go poleceniem:

omv-release-upgrade

Przy odrobinie szczęścia i po odczekaniu kilkunastu minut będziemy mogli się cieszyć nową wersją OMV.

Jednak trzeba wyraźnie napisać, że tego typu “duże” aktualizacje niosą za sobą ryzyko niezgodności bibliotek, konieczności wykonania rekonfiguracji oraz poprawek systemu etc. Ja odkryłem na razie jedną dotyczącą pakietu Nginx Proxy Manager w wersji kontenerowej (Docker). Okazało się, że Nginx nie startuje podczas automatycznegi uruchomienia kontenera. W tym przypadku wystarczy uruchomić go wewnątrz kontenera ponownie po zatrzymaniu procesu na kilka sekund. Można również napisać skrypt uruchomieniowy jeśli ktoś jest bardziej ambitny. Tak czy inaczej tam gdzie drwa rąbią itd.

MG

Tagi: , ,

Wirtualizacja KVM – przekierowanie ruchu

6 marca, 2023 | Brak Komentarzy | Kategoria: Bez kategorii, Linux, Porady
Przkierowanie ruchu

Wielokrotnie pisałem o mojej ulubionej wirtualizacji czyli środowisku VMware. Pomimo doświadczeń z innymi rodzajami hostów nadal uważam, że jest to naprawdę bardzo dobrze zrównoważone rozwiązanie. Drugą istotną cechą jest wsparcie techniczne, które pod postacią dokumentacji elektronicznej oraz komentarzy użytkowników jest uporządkowane i pieczołowicie utrzymywane przez samego producenta. Wszystko to sprawia, że nawet jeżeli spotka nas jakiś ezoteryczny problem to od razu wiadomo gdzie szukać rozwiązania.

Jednak jak zwykle życie wymusza często zmiany w rozwiązaniach i ostatnio zmierzyłem się z maszynami wirtualnymi KVM. Posiadając działający i w pełni skonfigurowany serwer zbudowany na bazie np. Debiana, nie ma raczej innego wyjścia chociaż można spróbować tzw. poor man virtualization czyli Virtualbox w trybie headless. Przyznam, że do tej pory mam pod opieką jeden taki wynalazek. Wracając do KVM to warto zaznaczyć, że nawet jeżeli nie lubisz konfiguracji z użyciem komend to możesz zaistalować chociażby pakiet Cockpit i uzyskać tym samym zarządzanie przez webinterface.

Niezależnie w jaki sposób będziemy korzystać z KVM warto zadbać o bezpieczeństwo konfigurując swoje węzły wirtualne w dedykowanej wirtulanej sieci za NATem. W ten sposób odetniemy możliwość bezpośredniego atakowania usług sieciowych. Z kolei na potrzeby chociażby testowania mamy wygodne rozwiązanie na kształt prywatnej sieci lokalnej z dostępem do Internetu.

Załóżmy następnie, że będziemy chcieli wystawić wybraną usługę, może to być np. serwer www na zewnątrz sieci LAN. Powinniśmy użyć mechanizmu forwardowania pakietów pod wskazany wewnętrzny adres IP, na wskazany port. Jest to powszechnie wykorzystywana metoda w wielu domowych (i nie tylko) routerach z firewallem. W tym miejscu dochodzimy do głównego wyzwania bo przecież interfejs sieciowy KVM oraz interfejs fizyczny nie są ze sobą wprost związane. Żeby przekazywać komunikację między jednym a drugim trzeba skorzystać z dodatkowej konfiguracji za pomocą iptables.

Biorąc za przykład przekazywanie ruchu do serwera www (via HTTPS) będą potrzebne dwie reguły:

iptables -t nat -I PREROUTING -p tcp -d 1.2.3.4 --dport 443 / 
-j DNAT --to-destination 10.0.0.1:443
iptables -I FORWARD -m state -d 10.0.0.1/24 /
--state NEW,RELATED,ESTABLISHED -j ACCEPT

Domyślny konfiguracja KVM NAT zapewnia regułę podobną do drugiej linijki, ale pomija stan NEW, który jest niezbędny do akceptacji połączeń przychodzących. W przykładzie 1.2.3.4 jest adresem publicznym (zewnętrznym) zaś 10.0.0.1 adresem prywatnym. Należy je zmienić według potrzeb i konfiguracji własnej sieci.

Dopiero wpisanie z linii poleceń powyższych dwóch komend pozwoli nam skomunikować się z maszyną wirtualną KVM. Jako zadanie domowe polecam sprawdzenie jak można dodoac reguły do konfiguracji tak aby nie trzeb było ich za każdym razem ręcznie podawać po starcie systemu.

MG

Tagi: , , ,

SupportCandy czyli obsługujemy zgłoszenia

8 lutego, 2023 | Brak Komentarzy | Kategoria: Linux, Porady
SupportCandy

Ostatnio systemy obsługi zgłoszeń stają się coraz bardziej popularne. Począwszy od bardzo skomplikowanych i rozbudowanych, które możemy wykupić jako usługę w chmurze, poprzez gotowe do użyciu kontenery Docker a skończywszy na prostych ale równie skutecznych rozszerzeniach do popularnych platform CMS. Tym razem chciałem skupić się na tych ostatnich.

Ponieważ od wielu lat korzystam głównie z WordPressa dlatego swoje poszukiwania skoncetrowałem na tej platformie. W sieci można znaleźć dość bogatą ofertę. Społeczność WordPressa należy do jednej z największych. Rozmaitych wtyczek nie brakuje. Z oczywistych względów powinniśmy jednak szukać prostej w obsłudze, dobrze zintegrowanej z pocztą elektroniczną oraz udostępniającej tłumaczenie w języku polskim. I tutaj może nas spotkać zaskoczenie ponieważ jak się okazuje nie jest łatwo znaleźć takie oprogramowanie.

Ostatecznie po kilku próbach, paru instalacjach oraz dyskusjach z użytkownikami zdecydowaliśmy się na wtyczkę SupportCandy i to nie tylko dlatego, że można skorzystać z jej bezpłatnej wersji. Przede wszystkim SupportCandy dosyć dobrze integruje się z obsługą poczty. A jeżeli zainstalowaliśmy dodatkowo wtyczkę WP Mail SMTP to praktycznie nic więcej nam nie potrzeba.

Kolejną cechą jest obsługa tzw. shortcodes, czyli małych fragmentów kodu wywoływanych specjalnym znacznikiem w tekście strony, co znacznie ułatwia dodanie rozbudowanych funkcji do statycznych elementów strony. Na przykład użycie frazy:

[wpsc_create_ticket]

spowoduje dodanie formularza z możliwością założenia zgłoszenia.

Od strony obsługi zgłoszeń, w panelu administarcyjnym pojawia się dodatkowa zakładka, która przenosi nas do przejrzystego panelu obsługi. Z bardzo przydatnych funkcji można wymienić przede wszystkim możliwości śledzenia realizacji zadania na skali czasu. Dostępne są ponadto wszystkie funkcje takie jak zamknij, zduplikuj czy usuń, typowe dla każdej platformy.

Ostatnią rzeczą, o której warto wspomnieć jest tłumaczenie wtyczki. Jest ona na tyle popularna, że w sieci można znaleźć gotowe pliki z językiem polskim. Nie mniej zdecydowałem się na kolejną wtyczką czyli GTranslate, która umożliwia tłumaczenie strony w locie za pomocą Google Translator. Jest to nieco inne podejście. Zdarzają się jeszcze drobne, śmieszne błędy. Jednak na pewno umożliwia bardzo szybkie wdrożenie na czym we wspólczesnym świecie coraz bardziej nam zależy.

MG

Tagi: , ,

vCenter Converter powraca!

27 listopada, 2022 | Brak Komentarzy | Kategoria: Felieton, Linux, Windows
vCenter Converter

VMware ogłasza powrót jednego z najpopularniejszych produktów w katalogu – vCenter Converter. Wydano nową i ulepszoną wersję produktu, kompatybilną z vSphere 7.0 i ESXi 7.0. Opublikowana wersja koncentruje się głównie na poprawie stabilności i standardów bezpieczeństwa Konwertera oraz zachowaniu istniejącej funkcjonalności.

VMware vCenter Converter zachęca do wysłania informacji o chęci dołączenia do programu vCenter Converter Beta. Można skorzystać z tej możliwości, aby wpływać na przyszły kierunek rozwoju produktu. Jeśli nie masz dostępu do społeczności Beta, wystarczy, że odwiedzisz stronę rejestracji vCenter Converter BETA i przejdziesz do wypełnienia oraz wysłania formularza.

vCenter Converter jest bezpłatnym narzędziem zapewniającym możliwość konwersji maszyn wirtualnych działających na hiperwizorach innych dostawców oraz maszyn fizycznych na maszyny wirtualne VMware. Mowa wersja vCenter Converter obsługuje konwersję rozwiązań opartych na MS Hyper-V, konwersję pomiędzy formatami wirtualnymi VMware (Workstation, Fusion) oraz rekonfigurację maszyn wirtualnych VMware. vCenter Converter wspiera wirtualne stacje robocze działające pod kontrolą systemów Windows, Linux Ubuntu, CentOS, Red Hat Enterprise Linux.

Kolejne wydania będą wzbogacać listę obsługiwanych hyperwizorów, wersji vSphere, systemów operacyjnych i wirtualnych wersji sprzętu.

Link do oryginalnego komunikatu: https://blogs.vmware.com/code/2022/09/15/vcenter-converter-is-back/

MG

Tagi: , , , ,

PHP – konfiguracja wersji

10 listopada, 2022 | Brak Komentarzy | Kategoria: Linux, Porady
PHP

Wiele lat temu gdy Internet dopiero powstawał tworzenie stron było dosyć proste a dokumenty, które w ten sposób przygotowywano były zazwyczaj statyczne. Wkrótce potem apetyt twórców szybko wzrósł i powoli zaczęły pojawiać się treści dynamicznie generowane. Upłyneło kolejnych kilka lat i dziś żeby napisać stronę używamy całych gotowych platform nawet jeżeli treści będzie tam niewiele. Jeśli zaś mowa o platformach to wykorzystują one z reguły do pracy wybrany bazowy język programowania. Oczywiście rozwiązań jest tutaj multum, jednak tym razem chciałem skupić się na dosyć popularnym, chociaż nie pozbawionym wielu wad języku PHP.

Załóżmy, że budujemy witrynę www korzystając z serwera on-premise. W dobie olbrzymiej popularności roziązań chmurowych może wydawać się to nieuzasadnione i szalone ale jeśli komuś zależy nad panowaniem nad całością architektury IT to musi zmierzyć się z budową własnych narzędzi. Załóżmy, że korzystamy już z serwera na bazie Debiana, Ubuntu etc., skonfigurowaliśmy silnik bazy danych, serwer HTTP, w tym przypadku Apache, a teraz chcemy zapanować nad wersjami PHP. Rzecz w tym, że ze względu na mnogość gotowych rozwiązań rozszerzających funkcje z poziomu witryny możemy doświadczyć mnogości wymagań odnośnie typu bibliotek PHP zainstalowanych i uaktywnionych w systemie. Poniżej zamieszczam parę wskazówek jak szybko przełączać ich wersje bez skomplikowanej reinstalacji.

Po pierwsze musimy sprawdzić jakie wersje PHP są dostępne w naszym systemie a następnie zdezaktywować starszą i uaktywnić najświeższą dostępną, jeśli chcemy mieć wszystko zaktualizowane:

a2dismod php7.4
a2enmod php8.0
service apache2 restart

To jednak nie wystarczy aby nasza platforma usług WWW zaczęła widzieć zmiany. Teraz musimy rekonfigurować ustawienia systemowe:

update-alternatives --config php
update-alternatives --config phar
update-alternatives --config phar.phar

Za każdym razem konsekwentnie wybieramy pożądaną wersje PHP. Na koniec ponownie uruchamiamy serwer Apache:

service apache2 restart

Opisana powyżej procedura pozwola zmieniać wersję PHP w obydwie strony, zapewnia zatem całkowitą dowolność.

MG

Tagi: , , ,