Aktywne Wpisy

WielkiNos +480
Juleczka po kulturoznawstwo chwali się dyplomem w sposób sugerujący, że zdobyła go nie tą częścią ciała, którą się go zwykle zdobywa.
#bekaztwitterowychjulek #p0lka #studia #bekazpodludzi #logikarozowychpaskow
#bekaztwitterowychjulek #p0lka #studia #bekazpodludzi #logikarozowychpaskow
źródło: temp_file2614539208647029454
Pobierz
Nighthuntero +960
Tak chciałem tylko przypomnieć w jakim cuckoldstanie żyjemy.
Wariatka opublikowała wpis w którym bez żadnych dowodów oskarżyła tatuażystę o molestowanie/gwałt podczas wykonywania jej tatuażu. Jak się oczywiście okazało wszystko zmyślała, aby tylko nie zapłacić za tatuaż. Wykopki od razu zaspamowały sociale, że gość jest gwałcicielem.
Jakie poniosła konsekwencje w cuckoldstanie? Dokładnie tak, macie rację, żadnych.
Moderacja Wykopu i stecka szczególnie się popisali, nie usuwając wpisu przez ponad tydzień.
#p0lka #
Wariatka opublikowała wpis w którym bez żadnych dowodów oskarżyła tatuażystę o molestowanie/gwałt podczas wykonywania jej tatuażu. Jak się oczywiście okazało wszystko zmyślała, aby tylko nie zapłacić za tatuaż. Wykopki od razu zaspamowały sociale, że gość jest gwałcicielem.
Jakie poniosła konsekwencje w cuckoldstanie? Dokładnie tak, macie rację, żadnych.
Moderacja Wykopu i stecka szczególnie się popisali, nie usuwając wpisu przez ponad tydzień.
#p0lka #
źródło: 1000016937
Pobierz
![Jak pustoszeją rosyjskie magazyny sprzętu pancernego [PODCAST]](https://wykop.pl/cdn/c3397993/41a73a7fb518169a293093dacf000c4b57d8a6174d889a43272e15f365e02b86,q80.jpg)



Mam problem dot. zamiany listy tablic 2D (n x n) na numpy array. Gdy to zrobię zużycie RAM drastycznie rośnie. Miał ktoś z tym taki problem?
Zadanie realizuję w CoLab jak i u siebie na PC, lokalnie. Prześlę zużycie RAM w odpowiednich miejscach.
Scenariusz wygląda tak:
- wczytuje obraz
Gen RAM Free: 12.8 GB | Proc size: 447.8 MB
- dziele go na podobrazy o rozdzielczości 13 x 13
- otrzymuję "List of 6859434 images"
Gen RAM Free: 11.9 GB | Proc size: 2.1 GB
**Lista wessała 1.5GB, może być**
- następnie zamieniam listę za pomocą polecenia np.array(lista)
Xtrain = np.asarray(Xtrain,dtype=np.float32)
Xtest= np.asarray(Xtest,dtype=np.float32)
- otrzymuję "Shape of our training data: (6859434, 13, 13, 1)"
Gen RAM Free: 11.9 GB | Proc size: 8.1 GB
Jak widać, 6 GB zostało wessane poprzez zmianę list na array :/ jakieś pomysły? Nie chcę być zmuszony do kupienia 64GB RAM do PC...
#python #machinelearning
1. Elementy tych list się powtarzają, więc w wielu miejscach trzymane są tylko referencje do tych samych obiektów, które podczas konwersji na jedną array są kopiowane.
2. Numpy ma jakiś sposób przechowywania sparse, więc te wszystkie zera zabierają mniej miejsca, a Ty podczas konwersji to wyłączasz. Ja na
Elementy do listy które dodaję są unikalne, iteracyjnie "przelatuję" po całym obrazie na podstawie maski(zbieram wartości z 4 kanałów na raz). Każdy ten element posiada 4 arraye czyli w danym miejscu - obraz[z,y,x] jestem raz.
Kod dla zbierania jednego kanału:
https://paste.ofcode.org/qgQKXW3y9QHXEwkin9my4v
W ten sposób zbieram tą listę, koniec filozofii :P
T2 jest to obraz 3D o wartościach float32
val.append(T2[z, ybegin:yend, xbegin:xend])nie kopiujesz wycinka T2. Zmienna val trzyma wiele referncji do tych samych miejsc w tablicy T2, które później gdy robisznp.asarray(val)są kopiowane pomnażając wielkość tablicy.x: Numpy array of training data (if the model has a single input), or list of Numpy arrays (if the model has multiple inputs).
Tak się przy okazji zastanawiam, bo to co robisz wygląda na naiwną implementację warstwy conv2d. Tylko nie wiem, czemu robisz to jako preprocessing, a nie normalnie w modelu używając gotowych klas.
@Darkus777: Co za problem. Losujesz num_samples z listy, scalasz w jedną listę, zamieniasz na np.array i zwracasz. Masz generator :-)
Chodzi mi o to, że to co tutaj opisałeś, wygląda jak to co robi warstwa conv2d. Skoro napisałeś, że potem to wrzucasz do modelu CNN, czyli właśnie do sieci zbudowanej z warstw conv2d, to nie bardzo rozumiem do czego to co tutaj robisz
A co do generatora
Komentarz usunięty przez autora