Potrzebuję porady :/ Na jednej z instancji GitLaba ekipa postanowiła sobie składować pliki binarne (obrazy po kilkaset mega).
Wszystko było w normie, dopóki pewnego dnia po aktualizacji backupy skoczyły mi z 4.5GB na 10GB. Główna różnica to jeden plik .pack (w jednym z hashowanych katalogów). Coś gdzieś pękło - nie potrafi już wykorzystać "delty" czy czegoś tam różnicowo, i teraz backupy (i sam rozmiar instancji) przyrastają mi w strasznym tempie (tamci cały
Wszystko było w normie, dopóki pewnego dnia po aktualizacji backupy skoczyły mi z 4.5GB na 10GB. Główna różnica to jeden plik .pack (w jednym z hashowanych katalogów). Coś gdzieś pękło - nie potrafi już wykorzystać "delty" czy czegoś tam różnicowo, i teraz backupy (i sam rozmiar instancji) przyrastają mi w strasznym tempie (tamci cały




























Zdjęcie złożoności obsługi połączeń,czytania i wszystkiego co związane z pub/sub'em z developerów i wydelegowaniem tego do czegoś zewnętrznego jest ogromną wartością w naszej ocenie, ale mamy problem taki, że naszym wymaganiem "must have" jest obsługa schema'y na topicach i właśnie wspomniany DAPR
jest trochę ograniczeń (ciężko byłoby bez drutowania jak masz otwarty więcej niż jeden port na kontenerze, prawie na bank będzie druciarstwo przy autoryzacji per topic - ale zawsze możecie sobie sforkować kafka source i dorobić ten ficzer ( ͡° ͜ʖ ͡°)), ale z grubsza działa to tak, ze implementujesz sobie serwisy z cloudevents, definiujesz