Wpis z mikrobloga

via Wykop Mobilny (Android)
  • 0
@gg_jap: widziałem jak animatorzy narzekali na równie rewelacyjne zwiększanie klatek przez AI - psuje to charakter i duszę animacji. Faktycznie niektóre fragmenty wyglądały co najmniej dziwnie. Myślę że w tym przypadku może być podobnie ale zobaczymy.
@kochamschabowe: na pewno na poczatku bedzie to wygladać dziwnie, ale algorytmy potrzebuja czasu i danych by sie odpowiednio przeszkolic, wiec mysle, ze docelowo nie będziemy wiedzieć i słyszeć różnicy, Charlie Chaplin tez wyglada dziwnie na pierwszych filmach które kręcono
@gg_jap: Ludzie czytają napisy bo chcą usłyszeć oryginalnego aktora, a nie że nie mogą znieść desynchronizacji ust z głosem dubbingu


Więc takie trochę z tyłka założenie

Ci za głupotę tu napisałeś to głowa mała
@zartynabok jak napisałem wyżej to jest część technologii, a niby skąd ma być ten głos? 4lata temu umieli już zrobić, by "nauczyć" Trumpa mówić po chińsku, więc to jest rozwinięcie tej technologii o mimikę twarzy by pasowała do słów po prostu
via Wykop Mobilny (Android)
  • 2
@gg_jap: chłopie, ta firma zajmuje się dostosowaniem mimiki, ruchu i ekspresji twarzy do dubbingu w innym języku. Tak, żeby wyglądało to jak najbardziej realnie. Do tego jest używana ta sieć neuronowa. Tam nie ma żadnego generowania głosu co dobitnie pokazuje ich film demo z Hanksem.