Wpis z mikrobloga

#deeplearning #programowanie #tensorflow

Do tej pory używałem tf 2.0, komunikat o braku obsługi AVX2 olewałem i nie instalowałem nowszej wersji bo przecież i tak mam Radeona to nie wykorzystam mocy GPU. No ale postanowiłem spróbować obejść to przez bibliotekę plaidML - w ten sposób po zainstalowaniu tf 2.3.1 dowiedziałem się, że moja karta jedynie zabiera miejsce w laptopie a do obliczeń się nie nadaje. Ale jest też plus pozytywny: tf 2.3.1 wspiera AVX2 razem z optimetrem XLA więc zyskałem trochę wydajności. Ile? Model którym obecnie się zajmuję ćwiczył mi się lokalnie przez jedną epokę ponad 6 godzin, teraz ten czas to lekko poniżej jednej minuty xD. Ponad 400x większa wydajność ( ͡° ͜ʖ ͡°)-
  • 3
Wtedy tworzyłem autoenkoder aby odtworzyć taki generator twarzy. No i nawet się udało mimo, że miałem dość mały i bardzo mocno zróżnicowany zestaw danych. Teraz próbuję zrobić to samo przy pomocy GANa ale to iteruje już dzisiaj cały dzień na razie bez większych skutków. Na oko potrzebowałbym 8 dni obliczeń aby uzyskać dobre rezultaty.