Wpis z mikrobloga

  • 2
@RandomowyMirek: Utworzyłem sobie kilka grafik w MidJourney (kluczowym parametrem w promptach był --cref by mieć spójne postacie), następnie ożywiłem je w Luma AI. Dźwięki otoczenia i głosy to ElevenLabs, a w tle jest jeszcze piosenka zrobiona w Udio.
  • Odpowiedz
@heban_dev: Przekaz sam w sobie dobry, ale model który został użyty do generowania twarzy trochę amatorski ale nie mam ci tego absolutnie za złe, nie każdy musi tworzyć własne modele, które wyglądają w 100% jak realistyczne postacie, po przesłuchaniu słyszę deafultowe głosy z Elevenlabsa, mogłeś postawić sobie RVC Applio i podłożyć inny głos z własnego pliku .pth lub z dostępnych na hugingface i otrzymałbyś o wiele bardziej realistyczną wymowę. Jak
  • Odpowiedz
  • 1
@Roneys: Dzięki za super merytoryczny komentarz. Ogólnie ta szczegółowość twarzy była (MidJourney), ale Luma powoduje pewną degradację i pojawia sie ten charakterystyczny blur podczas ruchu. Być może rozbicie tego na klatki i potraktowanie np. Gigapixelem z Face recovery załatwiłoby problem, ale nie chciałem spędzać nad tym kilku dni, a jedynie pokazać że można już w kilka godzin stworzyć takie coś. Co do głosów to użyłem Voice Design z Elevena, ale
  • Odpowiedz
@heban_dev: Proszę
Stable Video Diffusion - Link
Applio RVC - Link
Prosty i darmowy Runway - Link
Biblioteka głosów RVC -Link Wyszukiwanie lupą u góry, jeśli nie ma modelu można wytrenować własny w kilka sekund z poziomu Weights choć to nie to samo co trenowanie na GPU w technologii RMVPE_GPU Lub Mangio-Crepe
Gdy chcesz dalej generować twarze w Midjoureny spróbuj zrobić Face swapa po animacji twarzy możesz skorzystać z
  • Odpowiedz