#niebezpiecznik #nginx #serwerownia #serwery
Czesc, od paru dni widze dziwne logi w nginx, i prawdopodobnie chwile pozniej strona pada - pomaga dopiero zrestartowanie php-fpm.
Czy ktos sie z tym spotkal? Bo nie widze w sieci za duzo informacji. Wczesniej jeszcze pojawial sie w logach "Gh0st". Log dump:
/var/log/nginx $ sudo cat access.log | grep "\x1"
172.105.128.13 - - [09/Mar/2024:02:02:30 +0000] "\x16\x03\x01\x00\x85\x01\x00\x00\x81\x03\x03\xA0\x0C\x8Fi\x15\xE7\xD1\x08\xE1I\x83B\x19UJg\xA5\x95'$a\x14\xDFu\x14\x8C\xBE\xA1H\x10\xA5e\x00\x00 \xC0/\xC00\xC0+\xC0,\xCC\xA8\xCC\xA9\xC0\x13\xC0\x09\xC0\x14\xC0" 400 150 "-" "-"
103.153.69.117 - - [09/Mar/2024:03:21:50 +0000] "CNXN\x00\x00\x00\x01\x00\x00\x04\x00\x1B\x00\x00\x00M"
@Nexiu: i wlasnie w tym jest problem. Klient, badz tez wiele klientow probuje wyslac SLL na port 433 ktory domyslnie jest przeznaczony dla HTTPS, serwer, w tym wypadku nginx probuje to zinterpretowac jako HTTP :)
Czy ktoś jest mi w stanie wytłumaczyć o co tu chodzi?

Mam serwer nginx + stoi on za cloudflare. Mam ustawione setrealip_from aby znać prawdziwe ip ludzi. Wczoraj zainstalowałem sobie fail2ban. W konfigu nginxa mam że jak ktoś przekroczy limit połączeń to ma błąd 503 (limiting requests, excees by zone bla bla bla).
Według tego mam ustawione banowane w fail2ban, łapie on te eventy i banuje, wsadza do iptables, problem
#webdev #nginx #ubuntu #serwery

Mam regułkę w nginx.conf która nie zezwala na dostęp do strony poza domeną główną. Jak to zmodyfikować aby był bypass dla dwóch zewnętrznych IP? (aby mogły się łączyć z serwerem głównym poprzez IP)

W zamian za pomoc przeleję symboliczne 40 zł na wybraną instytucję charytatywną.

if ($host != "host.com") {
return 404;
}
Mam nextcloud w docker compose, sieć wewnętrzna, renderowany przez nginx (wersja nextcloud fpm), i teraz tam wszystko działa, ale po raz pierwszy robię reverse proxy i pytanie, czy ta brama też powinna mieć ustawione parametry połączenia jak czas, kompresja itd, czy wystarczy SSL i przekierowania?

Pytam bo zacząłem mieć lagi i zaczyna rozłączać w dziwnych okolicznościach..

#linux #nginx #administracja
Za niedługo na studiach #informatyka będę musiał wybrać specjalność i zastnawiam się nad dwoma:

1. Administracja systemami Windows i Linux.
2. Inżynieria oprogramowania.

Rozum mi mówi, że oczywiście programowanie - więcej ofert pracy, lepiej płatne, możliwość pracy zdalnej, mniejsze ryzyko nadgodzin czy w ogóle "wzywania" do awarii, możliwość tworzenia swojego projektu po godzinach.
Oglądąłem również korporacje w okolicy i generalnie ofert dla administratorów Linux nie brakuje, choć wiadomo, że nie jest ich
@Nieuk15k: ja bym poszedł na linux i windows. Imo możesz się dowiedzieć więcej ciekawych rzeczy niż na inż oprogramowania i to uczelnia (prowadzący) będą musieli przygotować ci środowisko do nauki. Zagadnien inżynierii oprogramowania możesz się nauczyć samemu w łatwy sposób (to głównie wiedza do wkucia, bo resztę i tak poznasz w danej firmie od praktycznej strony).

A poza tym, to taka różnica, że kilka kursów innych, a nadal studia masz takie
Mam prostą aplikację z obsługą websocket'ów i na localhoście wszystko działa w porządku - jednak po wrzuceniu na serwer i skonfigurowaniu nginx nie chcę to działać.

To adres z którym łączy się moja aplikacja w Vue.js -> wss://mojadres.pl/ws/
Konfiguracja w pliku php-socket.php:

define('HOST_NAME',"mojadres.pl");
define('PORT',"1234");

Mam uruchomiony serwer websocket z pliku php poleceniem

nohup php php-socket.php /dev/null &
i widzę go po odpaleniu

ps aux | grep php
root 10105 0.0 6.2 92956
Mam sobie docker-compose łączący serwis backendowy, frontend i api gateway. Wszystko śmiga, ale za każdym razem gdy chcę coś zmienić muszę zrobić docker-compose down, build i potem up. Niby działa ale to jest katorga straszna i zgaduję że to się inaczej robi.

Dwa rozwiązania jakie ja widzę to:
1. Postawienie modyfikowanego serwisu na localu i podniesienie wszystkich pozostałych kontenerów.
Plusem jest to że wszystkie hot reloady działają ponownie, minusem to że muszę
django (gunicorn) + postgres + nginx opakowane w #docker compose

Uruchamiam - wszystko śmiga jak należy. Jednak po jakimś czasie nieużywania strony (kilkadziesiąt minut) bardzo długo zajmuje załadowanie strony. Jak już się załaduje to znowu wszystko działa bardzo szybko.

Wszystko stoi na vps, 8gb ramu (zużycie w idle znikome), 200gb pamieci

Miał ktoś podobny problem?
Dodatkowo zauważyłem że vps wolniej chodzi po czasie. Np. wpisze docker ps i musze czekać kilka sekund
@KKK1337: zainstalowałem iotop, kompletnie nic nie wskazuje na bottleneck

Utworzyłem /swapfile w identyczny sposob jaki jest na drugim serwerze. Mam nadzieje że to będzie to
via Wykop Mobilny (Android)
  • 0
Mam nginx na serwerze.

Bez SSL.

Ja łącze się curl po http i muszę zostać przekierowany na open weather który jest na https.

Potem z https na http wraca do mnie informacja do curla.

Będzie to w bloku location x.x.x.x/ow.

Może ktoś podpowiedzieć czego szukać?
Na razie mam proxy pass i otwarte porty 80 i 443.

#linux #devops #nginx
Cześć, chciałem postawić na serwerze VPS aplikacje w nodejs. Aplikacja składa się z klienta i serwera - klient wysyła zapytania post do API serwera. U mnie lokalnie wszystko działało, ale jak wrzuciłem na serwer to zapytania do API zwracają błąd 500 Internal Server Error.

Jak zmienię na serwerze i kliencie żeby komunikował się po GET to wtedy nie ma tego problemu. Obstawiam, że to problem z konfiguracją #nginx i odrzuca post. Pierwszy
Mirki idzie ustawić w nginx, żeby uwalał połączenie idące po https, ale tylko jak jest kierowane na konkretny servername?
Mam serwer, na który kieruje pierdyliard domen, ale cert jest kupiony tylko na jedną.
Oczywiście klient chce, żeby po wpisaniu np. dduppaa.com którą ma kupioną, szło przekierowanie na jakasfirma.pl, ale że on "hehe frajerem nie jest", to ma kupionego certa tylko na jakasfirma.pl

O ile przy http to wyjebongo i już leci R301
Mam w kontenerze postawionego nginxa który serwuje aplikacje frontendową i dodatkowo robi za reverse proxy do API.
Teraz chciałbym zabezpieczyć te komunikacje po https i tutaj się gubię w portach bo na ten moment port z kontenera który wychodzi na świat to port 80.
Czy wystarczy ze wewnątrz kontenera w configu nginxa ustawie przekazywanie
80 -> 443 i na zewnątrz wciąż jedyny otwarty port to będzie 80, czy muszę tez wystawić port
Jak skonfigurowac #nginx dla Single Page Application napisane w #vuejs? Builduje sobie do dist, a pozniej kopiuje te pliki do kontenera z #nginx - problem jest taki, ze ten defaultowy config nie wspolpracuje z Vue Router... jesli w swojej SPA mam takie sciezki:

- /
- /test
- /costam

To jesli odwiedze najpierw sciezke /, a pozniej sie przeklikam do innych stron (np. klikne w jakis href) to
Mam nginx proxy, który obsługuje nexcloud. Zgodnie z dokumentacją chciałem użyć tego kodu, żeby obsługiwać dav

location ^~ /.well-known {
# The rules in this block are an adaptation of the rules
# in .htaccess that concern /.well-known.

location = /.well-known/carddav { return 301 /remote.php/dav/; }
location = /.well-known/caldav { return 301 /remote.php/dav/; }

location /.well-known/acme-challenge { tryfiles $uri $uri/ =404; }
location /.well-known/pki-validation { try
files $uri $uri/ =404;
#ssl #nginx
#programowanie Hmm, mam zagłostkę. Odwołałem certyfikat przez certbota niby wszystko poszło ok, ale teraz mi się nginx nie uruchamia, a chciałbym uzyskać nowy cert na tą domenę. Wyskakuje coś takiego: Error while running nginx -c /etc/nginx/nginx.conf -t.

nginx: [emerg] cannot load certificate "/etc/letsencrypt/live/websharky.pl/fullchain.pem": BIOnewfile() failed (SSL: error:02001002:system library:fopen:No such file or directory:fopen('/etc/letsencrypt/live/websharky.pl/fullchain.pem','r') error:2006D080:BIO routines:BIOnewfile:no such file)
nginx: configuration file /etc/nginx/nginx.conf test failed Pomoże ktoś?(