Aktywne Wpisy

waro +132
Wymęczyłem 2 sezon... ze szczególnym naciskiem na słowo "wymęczyłem".
1 sezon był dla mnie po prostu ok. Nie porwał, ale dał trochę przyjemności. Za największą jego wadę uznałem dosyć małą ilość humoru sytuacyjnego. Ot, cały sezon to był taki zbiór skeczy, mniej bądź bardziej udanych.
W 2 sezonie zmienia się to diametralnie... i wyszło po prostu fatalnie.
I
1 sezon był dla mnie po prostu ok. Nie porwał, ale dał trochę przyjemności. Za największą jego wadę uznałem dosyć małą ilość humoru sytuacyjnego. Ot, cały sezon to był taki zbiór skeczy, mniej bądź bardziej udanych.
W 2 sezonie zmienia się to diametralnie... i wyszło po prostu fatalnie.
I
źródło: images
Pobierz
peanut_whu +103
Z okazji zbliżającego się dnia chłopa(ka) #rozdajo dowolnego ręcznie szytego portfela lub cardholdera z mojego hobbystycznego skórzanego sklepiku. Dwa skrajne z tego zdjęcia nie zostały jeszcze dodane na sklep, ale można je wybrać. Zrobię je również w innych kolorach :)
Wystarczy dać plusik i zostawić komentarz. W środę na koniec dnia wybiorę zwycięzcę.
A gdybyście szuka(ły)li prezentu dla niebieskiego albo po prostu czegoś dla siebie, to dla mirków i mirabelek składających
Wystarczy dać plusik i zostawić komentarz. W środę na koniec dnia wybiorę zwycięzcę.
A gdybyście szuka(ły)li prezentu dla niebieskiego albo po prostu czegoś dla siebie, to dla mirków i mirabelek składających
źródło: rozdajo
Pobierz




#wiedzmin #witcher #heheszki #ai #seriale
źródło: comment_o2VeNE9Oi8I6u8gJEqlDz4POmhvIzB3I.jpg
Pobierz@RozowaZielonka: Jaki tryb? DF, H128, LIAE128, SAE?
Ja robiłem w faceswap z rtx 2060.
https://github.com/deepfakes/faceswap
Problemem w sumie jest mała ilość pamięci więc trzeba zmniejszać batch size.
Polecam sobie sprawdzić compute capability dla kart Nvidia tu: https://developer.nvidia.com/cuda-gpus#compute Wszystkie karty powyżej 3.0 powinny zadziałać. Faceswap pod spodem korzysta z tensorflow + CUDA.
@Tysiak: XD przecież rtx 2060 do gierek pod HD na ultra jest o jakieś kilkanaście procent wydajniejsza od GTX 1070, ale ma 6 GB vramu, a GTX 1070 ma 8 GB.
Dokładnie nie wiem czy te algorytmy korzystają z tensor core ale jeżeli tak to rtx 2060 może być szybszy nawet od 1080ti.
https://towardsdatascience.com/rtx-2060-vs-gtx-1080ti-in-deep-learning-gpu-benchmarks-cheapest-rtx-vs-most-expensive-gtx-card-cd47cd9931d2
W gierkach każdy wie jak jest ale to chyba nie ten temat.
Próbowałeś działać na Google colab?