Aktywne Wpisy

Jak weźmiesz iPhone nigdy nie wrócisz na #android ta, bateria tak pięknie trzyma, że po tygodniu już myślę czy nie oddać i nie zamówić oneplusa 15, czuję się jakbym cofnął sie w rozwoju, bateria słaba, żadnych ficzerow, aparat też bez szału w porównaniu do honora magic 6 pro na plus tylko rozmiar bo to male pro, ale dwa razy dziennie telefonu ładować nie będę
#iphone #ios
#iphone #ios

WielkiNos +254
Podstarzałe juleczki i grażyny z korpo, których pracę z łatwością zastąpi wkrótce ai czują się lepsze od specjalistów nie do zastąpienia, którzy zarabiają kilka razy więcej niż one. Nieźle.
#p0lka #bekazrozowychpaskow #pieklomezczyzn
#p0lka #bekazrozowychpaskow #pieklomezczyzn
źródło: temp_file5107781677833259091
Pobierz




I naprawdę już skończyły mi się pomysły na ten n8n.
Prosty do bólu workflow - weź plik xlsx i zaimportuj jego zawartość do tabeli SQL.
Biorę plik xlsx 54MB - działa
Biorę plik CSV 150MB - działa
Próbuję z plikiem xlsx > 58MB - sru. Nie działa. Użycie CPU utrzymuje się godzinami na poziomie 100% i nic się nie dzieje.
Żeby było jeszcze zabawniej - przy dużych plikach xlsx NET I/O i BLOCK I/O ani drgną. Zupełnie jakby nawet nie próbował ich pobrać.
Kombinowałem z ustawieniami, podmieniłem bazę danych n8n ze standardowego sqlite na postgres. Cholera, w tym czasie jak próbuję zmusić to do działania to wymieniłem w moim dziadlabie wszystkie podzespoły poza dyskami i dorzuciłem kolejne 32G ramu.
Nadal nic.
Mam pewne podejrzenie, że jednak coś z pamięcią nie bangla, bo jej użycie rośnie sobie do 3.186GiB i cały czas na tym poziomie się utrzymuje. Tylko dlaczego, skoro dałem kontenerowi nieograniczony dostęp do całej dostępnej pamięci?
#docker #n8n #selfhosted #devops
źródło: image
PobierzEwentualnie konwertuj na csv ciągle i święto lasu
to twój wątek?
https://community.n8n.io/t/big-xlsx-files-to-db-stuck-on-reading-bin-file/74864/3
COPY moja_tabela
FROM 'mojplik.csv'
DELIMITER ',' CSV HEADER;
CPU jeden rdzeń - n8n z tego, co zrozumiałem nie obsługuje wielu rdzeni.
Co do uszkodzenia pliku - też nie tędy droga. Oryginalny plik ma coś koło 100MB - na jego podstawie tworzyłem mniejsze, aby sprawdzić, gdzie jest granica. Sprawdzałem też z innymi plikami - to samo.
CSVki na których robiłem testy też były wygenerowane z tego samego pliku XLSX.
Raczej niewydolność sprzętu mogę wyeliminować - 54MB xlsx przerobiony zostaje w
Założenie jest takie, że jak w końcu uda mi się ogarnąć ten przeklęty upload, to jeszcze chciałbym opakować to w podstawową walidację struktury pliku (czytaj - nagłówki, liczba, kolejność kolumn).
1
ale to nie jest fancy i nie będziesz sobie mógł wpisać do CV, że pracowałeś przy automatyzacjach AI