Wpis z mikrobloga

@Spring_is_coming: Właśnie w tym rzecz, że na robienie tego jest masa różnych metod podejścia i nie ma jednej jakiejś kluczowej metody. Mnie zajęło kilkanaście nieudanych podejść zanim zacząłem w ogóle otrzymywać jakieś efekty, które były zadowalające. Są tutoriale na Youtube, ale nie mogę polecić któregoś konkretnego bo te co oglądałem były raczej odnośnie podstaw, i te serio pomagają, ale niewiele mówią o samym procesie i jak dobierać materiały źródłowe, które tryby
@itakniktniezapamieta: Na Githubie programiści, którzy pracowali nad technologią wrzucali kiedyś swoje programy za darmo. Ja pracuję na wersjach z lutego 2019, które tam udostępnili. Nie wiem czy obecnie nadal można tam pobrać gratis programiki do poszczególnych zadań, i czy może wyszły nowsze wersje poniektórych, albo i jeszcze nowsze algorytmy do konkretnych zadań.
A myślałem że masz jakiś potężny sprzęt do tego. :)

Ja robiłem w faceswap z rtx 2060.


@Tysiak: XD przecież rtx 2060 do gierek pod HD na ultra jest o jakieś kilkanaście procent wydajniejsza od GTX 1070, ale ma 6 GB vramu, a GTX 1070 ma 8 GB.

Problemem w sumie jest mała ilość pamięci więc trzeba zmniejszać batch size.


Mhmmm. Nic nie musiałem zmniejszać na GTX 1070. ( ͡°
@Rimfire: Spokojnie, nigdzie nie napisałem że ja mam coś lepszego :)
Dokładnie nie wiem czy te algorytmy korzystają z tensor core ale jeżeli tak to rtx 2060 może być szybszy nawet od 1080ti.
https://towardsdatascience.com/rtx-2060-vs-gtx-1080ti-in-deep-learning-gpu-benchmarks-cheapest-rtx-vs-most-expensive-gtx-card-cd47cd9931d2
W gierkach każdy wie jak jest ale to chyba nie ten temat.

Próbowałeś działać na Google colab?