Wpis z mikrobloga

#openai #dalle #sora #sztucznainteligencja #technologia #ai

https://openai.com/sora

Pozamiatane. Myślałem że taka jakość w generowaniu filmików dopiero nadejdzie za minimum 2 lata, a to się dzieje już teraz, w tym momencie. Jak tak dalej pójdzie to za rok myślę że można się spodziewać pierwszych scen w dużych filmach wygenerowanych przez ai. Pytanie jedynie kiedy dadzą dostęp dla wszystkich.
  • 13
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@Monsieur_V a ja czekam aż np. ktos wpisze "jak zrobic sciane" albo "jak wymienic gniazko" i wrzucasz zdjecie swojego pomieszczenia , albo np. tego gniazdka i robi Ci animacje z opisem co np. musisz kupic, oraz pokazaniem jak sie za to zabrac.

Cos takiego juz jest na yt miliony, ale to by było bardziej spersonalizowane do konkretnego odbiorcy.
  • Odpowiedz
Myślałem że taka jakość w generowaniu filmików dopiero nadejdzie za minimum 2 lata


@Monsieur_V: OAI powoli i stopniowo bedą przyzwyczajać świat do prawdziwych możliwości swoich najlepszych modeli sztucznej inteligencji. Nie ma możliwości, by Sora był najlepszym modelem sztucznej inteligencji wideo, jaki mają. OAI coraz czesciej niestety (stety? )dziala tak ze wypuszcza stare, doglebnie zbadane modele. Calkiem mozliwe ze poglaski o tym ze 'wewnetrznie' osiagneli juz AGI są prawdziwe i to
  • Odpowiedz
@Monsieur_V: @martinlubpl: A ja czekam na model, który pozwala pracować z generowaną przez siebie treścią w sposób interaktywny, tzn. "rozumiejący" który fragment prompta odpowiadał za jaką cechę outputu, umożliwiając iteracyjną pracę na zasadzie "fajne, ale ryba ma być zielona, światło chłodniejsze i ciemniejsze, wywal rozgwiazdy, glony zrób większe i bez tych dziwnych odblasków w 2:33". Na tę chwilę to jest niemożliwe, bo "rozwój" generatywnego AI polega na (1) znalezieniu petabajtów danych uczących i (2) zbudowaniu modelu który jest wystarczająco ogromny, żeby je pochłonąć, ale jednocześnie był do nauczenia w tygodnie a nie lata, i wykonywał się w minuty a nie tygodnie.
Nic nie zabije Hollywoodu. Filmy dźwiękowe nie zabiły Hollywoodu, nie zabiły go filmy kolorowe, nie zabiły rendery 3D, nie zabije AI. Ludzie chcieli, chcą i będą chcieli oglądać prawdziwe filmy i dlatego one będą powstawać. Oczywiście, głównym nurtem dla małp będzie marvel revengers 13, w połowie wygenerowany przez AI a w połowie wyrenderowany w 3D, z jedną scenką dla beki z prawdziwym aktorem, ale cywilizowani ludzie będą chodzić na filmy z aktorami. Nawet jeśli jakość będzie nie do odróżnienia, to pieczątka "zrobione na prawdziwej kamerze" pozostanie.

Calkiem mozliwe ze poglaski o tym ze 'wewnetrznie' osiagneli juz AGI są prawdziwe


Imho nie są, z trzech przyczyn. Wiedzielibyśmy o tym, ponieważ wiadomość takiej rangi byłaby niemożliwa do opanowania przez NDA, a że przy tak zaawansowanej sztucznej inteligencji pracują setki ludzi, to wyciek jest nie do zablokowania. Po drugie, nawet nie bardzo mamy definicję tego, czym AGI miałaby być. Wiesz, jak OpenAI definiuje AGI wewnętrznie? Wcale ( ͡° ͜ʖ ͡°) Wg ich statutu, AGI osiągnięte zostaje wtedy, kiedy zarząd fundacji uzna, że osiągnięto AGI. I w tym kontekście przyczyna trzecia: poprawnie zdefiniowane AGI (jakakolwiek ta definicja by nie była; intuicja każe myśleć w kategoriach "model, który wykonuje dowolne zadania, włączając nowe") jest problemem o rzędy wielkości bardziej złożonym od "model co robi ładne filmiki"
  • Odpowiedz
@Monsieur_V: nope, ma ten sam problem co wszystkie inne modele - generuje losowe rzeczy z bardzo prostych promptów. Te wszystkie ai zrobią Ci fajny obrazek jak mu wpiszesz, że chcesz "elfa w lesie", ale jak już chcesz konkretnego elfa, w konkretnym lesie, z konkretnym kątem kamery, ubranego w konkretne ubranie, trzymajacego w rekach konkretne przedmioty, stojacego w konkretnej pozie - to powodzenia. Szybciej sie od zera photoshopa nauczysz i sam
  • Odpowiedz