@jest_agrest-nie_ma: Stable-Difusion i trenowanie własnych modeli opartych o własne zdjęcia, nie będę się rozpisywał bo byłoby to długie i bardzo zaawansowane tłumaczenie nawet samego procesu treningu opartego o języka python i TensorFlowa. Model Stable-Dif i midjourney nie są zbytnio realistyczne na chwilę obecną.
@jest_agrest-nie_ma: Stable difusion, lokalne modele produkowane na TensorFlow i Pytorchu z własnych plików jpg png. Nie znajdziesz gotowych modeli w sieci pod taką zabawę, jedynie Midjoureny możesz sobie postawić, trening modelu oraz CP (Custom promptów) jest bardzo czasochłonny (I wręcz niemożliwy dla osób, które nie znają dobrze platform uczenia maszynowego), w przypadku np. modeli głosu już nie, wystarczy dataset_operation i liczba epchos wraz z czasem próbki głosu, w przypadku obrazu,
#ai #photography
@januszdoe
@Pyszczysko
https://www.instagram.com/fit_aitana/
To jest obecnie postać wygenerowana przez AI, więc jest to możliwe