Wpis z mikrobloga

@gg_jap: Ludzie czytają napisy bo chcą usłyszeć oryginalnego aktora, a nie że nie mogą znieść desynchronizacji ust z głosem dubbingu

Więc takie trochę z tyłka założenie
  • Odpowiedz
@Rad-X: ale tu wlasnie chodzi o to, ze bedizesz mial glos aktora i dopasowanie ust w jezyku w ktorym jest dystrubucja filmu, czyli taki Robert de Niro bedzie mowil po polsku swoim głosem i usta beda sie zgadzac, jakbys polski film ogladal ;)
  • Odpowiedz
via Wykop Mobilny (Android)
  • 0
@gg_jap: widziałem jak animatorzy narzekali na równie rewelacyjne zwiększanie klatek przez AI - psuje to charakter i duszę animacji. Faktycznie niektóre fragmenty wyglądały co najmniej dziwnie. Myślę że w tym przypadku może być podobnie ale zobaczymy.
  • Odpowiedz
@kochamschabowe: na pewno na poczatku bedzie to wygladać dziwnie, ale algorytmy potrzebuja czasu i danych by sie odpowiednio przeszkolic, wiec mysle, ze docelowo nie będziemy wiedzieć i słyszeć różnicy, Charlie Chaplin tez wyglada dziwnie na pierwszych filmach które kręcono
  • Odpowiedz
@gg_jap: Ludzie czytają napisy bo chcą usłyszeć oryginalnego aktora, a nie że nie mogą znieść desynchronizacji ust z głosem dubbingu


Więc takie trochę z tyłka założenie

Ci za głupotę tu napisałeś to głowa mała
  • Odpowiedz
@gg_jap może i tak. Jak będzie gotowe i dopracowane to wtedy będzie można stwierdzić czy lepiej tak jak było kiedyś czy nowe rozwiązanie. Wg mnie dziwnie byłoby oglądać De Niro mówiącego po polsku :D
  • Odpowiedz
via Wykop Mobilny (Android)
  • 1
@gg_jap: ale ja sobie obejrzałem stronę tej firmy i nigdzie nie ma informacji, że głos jest generowany przez sieci neuronowe. Skąd ty to wymyśliłeś?
  • Odpowiedz
via Android
  • 0
@zartynabok jak napisałem wyżej to jest część technologii, a niby skąd ma być ten głos? 4lata temu umieli już zrobić, by "nauczyć" Trumpa mówić po chińsku, więc to jest rozwinięcie tej technologii o mimikę twarzy by pasowała do słów po prostu
  • Odpowiedz
via Wykop Mobilny (Android)
  • 2
@gg_jap: chłopie, ta firma zajmuje się dostosowaniem mimiki, ruchu i ekspresji twarzy do dubbingu w innym języku. Tak, żeby wyglądało to jak najbardziej realnie. Do tego jest używana ta sieć neuronowa. Tam nie ma żadnego generowania głosu co dobitnie pokazuje ich film demo z Hanksem.
  • Odpowiedz