◢ #unknownews

Na zakończenie tygodnia wrzucam nowe zestawienie linków z branży IT - miłego czytania życzę :)


1) DevShop - gra online. Pobaw się w założyciela startupu i postaraj się nie zbankrutować
https://secretgeek.github.io/devShop/
INFO: Na początek czytaj podpowiedzi pojawiające się na dole ekranu. Później pójdzie już z górki :)

2) Statystyka Twojej działalności na mikroblogu Wykopowym - przeanalizuj się! (link do przykładowego raportu)
http://wykopek.uw7.org/b428f0dd2b73f6b9e08e0f67bb21ed35
INFO: dane obejmują 3 ostatnie miesiące Twojej
Pobierz
źródło: comment_ZxQWCPP4qHQnmB0xuG5VYYY0c5lXtFWP.jpg
Mam 20 małych aplikacji, każda ma ok 15 portów.

Czasami muszę dołożyć kolejne 5 czy cos.

Jak to odseparować? Na linuksie miałem rockera, na windowsie działam na serwisach i wszystko wpisuje z palucha do firewalla. Docker na windowsie to podobno lipa (ważna jest wydajność). Jak to ładnie odseparować? Żeby nie duplikowaly mi się porty? Wystawić potrzebuje 4 ale cała reszta jest lokalnie tylko. Mogłoby to być zamknięte w samej aplikacji.

Głównym problemem
Miałem ostatnio pihole, ale coś wirtualny switch mi namieszał i system qnap nie chciał się aktualizować, że coś z DNSami jest nie teges. W chwili wolnego czasu spróbuję raz jeszcze...
Mam taki case : Klaster kubernetes w GCP i zewnętrznego Prometheusa, który dobija się do głównego API serwera (czyli IP mastera) po basic auth. Tylko jak wiadomo, basic auth niespecjalnie jest bezpieczny i chciałbym to przerobić żeby ten Prometheus dobijał się po kluczach autoryzacyjnych. Mógłby mi ktoś zarzucić jakieś hasła kluczowe, po których mógłbym szukać jakiegoś poradnika? Już zdążyłem się zorientować, że temat CA i Kluczy w samym GCP jest gruuuby, ale
@mugenDeath: wiem, ze istnieje architektura, gdzie prometheus jest tez w klastrze i ten mój by z niego scrapował metryki ale zupełnie mi nie o to chodzi. Bo połączenie z klastrem itp wszystko z mojego prometheusa działa. Ja chce tylko zmienić rodzaj autoryzacji z api klastra z basic autha na klucze autoryzacyjne.
Mirki, męczę się od 3 dni żeby postawić magento 2 na dockerze z nginx'em. Obecnie jestem na etapie, gdzie myślałem, że będzie chulać bo wyskakiwały błędy php o braku rozszerzeń php, potem o złym loginie do bazy danych, ale w momencie kiedy wszystko ponaprawiałem zacząłem mieć problem z ssl. Przekierowuje mnie automatycznie na https i przeglądarka nie chce mnie wpuścić na stronę. Ktoś wie jak to skonfigurować?
#magento2 #docker #magento
@kasa:
dzięki za odpowiedź. W każdym razie już sobie poradziłem. Użyłem customowego nginxa z php, który posiadał w sobie ustawienia ssl i lekko go zmodyfikowałem pod magento ;)
Pod tagiem #devopsiarz (obserwuj lub czarnolistuj) publikuję od czasu do czasu informacje o ciekawych programach, bibliotekach z działki #devops i nie tylko - najczęściej #golang i #python

Dziś Kubernetes, nie sposób go nie znać dziś, bo jeden z największych projektów (w kategorii ilość linii kodu) w #golang i najbardziej znanych. Co to robi takiego? W skrócie: jak masz aplikacje w wielu kontenerach (np. #docker), które działają w obrębie klastra Kubernetes (w
◢ #unknownews

Ze względów zdrowotnych (szpital / operacja) zrobiłem krótką przerwę w publikacji zestawień. Wracam jednak do normy i publikuję dzisiejszy przegląd. Czytaj i plusuj śmiało :)


1) Archiwum Internetowe dorzuciło 2500 nowych gier z MS-DOS do swoich zbiorów. We wszystkie możesz zagrać online!
https://blog.archive.org/2019/10/13/2500-more-ms-dos-games-playable-at-the-archive/
INFO: jeśli masz ponad 30 lat, to prawdopodobnie znajdziesz tam mnóstwo gier z okresu swojej młodości. Sugeruję sortować po ilości wyświetleń. Wtedy znajdziesz prawdziwe hity.

2)
Pobierz
źródło: comment_SRaK5Y91IsuQIYyfzc7kFpZNgj9OikrV.jpg
że wysyłają sobie


@puzno: kradną

w praktyce bez mojej wiedzy.


Pana pozew, Panie puzno, nie ma podstaw prawnych bo na 132 stronie eula jest odwołanie do 523 strony regulaminu Azure która mówi że nam wolno zapierniczyć dowolny kod, zresztą mógł Pan to wyłączyć w menu (mimo że było domyślnie włączane i włączało się przy każdej aktualizacji) więc o co chodzi?

Przynajmniej ja tak to zrozumiałem
Mirki, jak zrobić aby container startował po restarcie systemu z portem 8866?
Po ręcznym uruchomieniu i publish na tym porcie wszystko śmiga i wygląda tak:

CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
f91c3a8898f5 nextpvr/nextpvr_arm32v7:latest "dotnet /app/NextPVR…" 3 hours ago Up 3 hours 80/tcp, 443/tcp, 0.0.0.0:8866->8866/tcp musing_feistel

Po restarcie PORTS jest tylko 80/tcp, 443/tcp
( ͡° ʖ̯ ͡°)

#docker
Mam problem z kontenerami Dockera.
Czas na hoscie jest poprawny w timezone BST z biosu.

# hwclock
2019-10-17 09:27:07.561900+0100
# cat /etc/timezone
Europe/London
# date
Thu 17 Oct 09:28:15 BST 2019

Obojetnie czy uruchamiam kontener dockera z opcja -e "TZ=Europe/London", czy jakakolwiek inna TZ, albo nawet bez tej opcji, w kontenerze mam czas cofniety o jedna godzine. Jak to naprawic?

#docker
Jeśli to jedna maszyna serwerowa, to być może nie potrzebujesz rejestru. Na kompie budujesz obraz, zapisujesz go docker save, przesyłasz przez scp i robisz docker load. Potem normalnie docker run, czy composem go.
Próbuję zainstalować Tiny Tiny RSS w dockerze korzystając z tej strony:

https://hub.docker.com/r/linuxserver/tt-rss/

Tworzę kontener przy użyciu docker-compose jednak wyrzucany jest komunikat:

ERROR: Named volume "path to data:/config:rw" is used in service "tt-rss" but no declaration was found in the volumes section.


Jakie polecenie użyć do utworzenia tego wolumenu, aby wszystko zatrybiło od razu?

#docker #linux #pytaniedoeksperta
Mirunie z #docker może też #devops potrzebuję waszego doświadczenia i wiedzy.
Mam do zrobienia z grupą projekcik na studiach. Chodzi mniej więcej o to żeby zrobić rozproszony system webowy. Idea jest taka żeby były np. 3 różne usługi, które będą stały w 3 różnych kontenerach.

I teraz pytanie - w jaki sposób to zintegrować aby te kontenery się odpalały tylko gdy jest na to potrzeba? (tzn włączenie usługi przez użytkownika) Po wyłączeniu
Jak to się poprawnie robi że jeśli chcę mieć aplikacje pisaną lokalnie w Intelij żeby po comitcie aplikacja na serwerze zewnętrznym się aktualizowała sama? Do tego sie używa Dockera albo Jenkinsa? Bo teraz mam tak że jak napisze sobie coś w springu to musze to zbudować gradlem i mam plik .jar i wbijam sobie w winscp i podmieniam go z tym na serwerze, ew. killuje port i dopiero. Na pewno jest to
Pobierz
źródło: comment_SsoTsXX3lNmQqWg4VK1aOlsRwQL1F20h.jpg
Cześć!
Mały problem z Dockerem. Spersonalizowałem sobie konfigurację Dockera dla Symfony (php + mysql + nginx).

1. W jednym folderze mam projekt X z Dockerem X, w drugim katalogu mam projekt Y z Dockerem Y.
2. W DBeaver skonfigurowałem połączenie do bazy z projektem X.
3. Zrobiłem docker-compose down i sprawdziłem docker ps - nie ma pracujących kontenerów.
4. Odpaliłem Dockera w folderze Y i chciałem również skonfigurować połączenie do bazy projektu
@ofkoz: i w obydwu bazach danych masz ten sam volume? Jezeli tak to tutaj jest problem.

Wtedy gdy sie laczysz z druga baza i widzisz dane z pierwszej to nie znaczy ze polaczyles sie z pierwsza, poprostu obie bazy dziela ten sam volume wiec dziela te same dane.

W docker-compose daj dla jedenej bazy: my-db-1 a dla drugiej my-db-2,

pamietaj ze na dole w volumes musisz podac obie nowe nazwy volumow
Chciałem liznąć trochę CI/CD i próbuję wdrożyć coś takiego dla swojego projektu. Załóżmy, że mam jakiegoś tam joba na Jenkinsie, który w moim przypadku buduje obraz Dockera, puszcza testy i dostarcza aplikację na serwer uruchamiając kontener. Ale co w przypadku, gdy dany build potrzebuje zmian na przykład w bazie danych (załóżmy, że potrzeba zainstalować plugin do Postgresa), która nie jest skonteneryzowana. Jak to ogarnąć automatycznie? Za pomocą jakiegoś narzędzia typu Ansible, Fabric?
@peterek93: Jezeli chodzi o pluginy, zmiany w instancji bazodanowej to polecam robic sobie po prostu maintanance window podczas najmniejszego ruchu i wtedy to robić, czasami przerw w uptime nie da się uniknąć. Jeżeli chodzi o migracje schemy to robić to w pipeline i tworzyć backward compatibility migration tak aby projekt funkcjonował na starym kodzie nawet po cofnięciu zmian w kodzie. Jeżeli chodzi o automatyzację to narzędzie zależy od Ciebie ale imo