Aktywne Wpisy

cypisek84 +126
W końcu po 2 letniej tułaczce w kołchozie udało mi się uzbierać na wymarzony pojazd ( ͡° ͜ʖ ͡°)
Skoda Octavia RS 2.0 TSI 265 KM w jedynym prawilny kolorze i nadwoziu.
Wrażenia z jazdy? Na razie trudno cokolwiek powiedzieć, boje się przekraczać 3k obrotów ale jest z tym ciężko przy tym aucie.
Dostałem info od handlowca, że DSG uczy się kierowcy przez pierwsze 1500 km więc nie
Skoda Octavia RS 2.0 TSI 265 KM w jedynym prawilny kolorze i nadwoziu.
Wrażenia z jazdy? Na razie trudno cokolwiek powiedzieć, boje się przekraczać 3k obrotów ale jest z tym ciężko przy tym aucie.
Dostałem info od handlowca, że DSG uczy się kierowcy przez pierwsze 1500 km więc nie
źródło: 8c03719117ac1018c7d6054370a38d78579fe6e0c3c457357f184b3af6825aac,w800
Pobierz
diszpetri +255
Treść przeznaczona dla osób powyżej 18 roku życia...




Wydaje mi się, że wszystkie najważniejsze laby osiągnęły lub zaczynają widzieć na horyzoncie granicę w trenowaniu llmów. Tą granicą są oczywiście dane i dostępność GPU. Nie można skalować wielkości modelu i ilości danych treningowych w nieskończoność. Nie jestem pewien tylko, czy spodziewali się, że nastąpi to tak szybko. Dlatego historia zaczyna zataczać koło i obecnie prace skupiają się na próbach:
a) trenowania małych modeli za pomocą llmów lub;
b) wdrażania rozwiązań rule-based, transferu wiedzy, czy Q* learningu w małych modelach, czyli gofai.
Widać to zwłaszcza po ilości paperów, które pojawiają się na konferencjach/arxivie. Próbuje się także przepisać warstwe "uwagową" transformersów, by nie była tak bardzo zasobożerna, np. https://arxiv.org/abs/2311.10642?fbclid=IwAR3MHBjNf5mY93VJAhm6iquGU5gHFbf9jKcJV5k-ZtrYJQurkdpmiWJDR6E
Nie wiemy ile pieniędzy realnie spalane jest na trenowaniu llmów, ale po szumie wokół prób znalezienia nowego podejścia obstawiam, że kilka rzędów wielkości więcej niż się spodziewamy.
Filozoficznie (ale też lingwistycznie) llmy wciąż cierpią na to, co Goertzel określa "brakiem ugruntowania symbolicznego". W swoim wpisie na blogu, przy okazji premiery GPT-3 podał on ciekawy przykład, co to oznacza:
Podając GPT-3 zadanie:
Q: Write one line of Ruby code to reverse an array.
Odpowie poprawnie:
A: ary.reverse
Ale zadając pytanie bardziej szczegółowo:
Q: Reverse the following array: [1, 3, 5, 6, 10, 4, 2, 77]
Pogubi się.
A: [10, 6, 4, 2, 77, 3, 5, 1]
Oczywiście GPT-4 pewnie poradzi sobie lepiej z tym problemem i odpowie poprawnie, ale istnieje duża szansa, że wyłoży się na innym, bardziej zaawansowanym przykładzie tego typu. Dlaczego? W skrócie, wg. Goertzela GPT-3 (i inne modele oparte na architekturze transformerów) nauczył się pisać kod do odwracania tablic, ucząc się skomplikowanych wzorców między językiem angielskim a składnią języków programowania, nie tworząc jednak wewnętrznego modelu struktur danych, takich jak tablice, które manipuluje. Brakuje mu ugruntowania symbolicznego, czyli zdolności do identyfikacji lub tworzenia konkretnych odniesień do używanych słów i fraz. Ta luka ogranicza jego użyteczność w praktycznym programowaniu, ponieważ GPT-3 nie rozumie, co to jest przycisk czy kości do gry, więc nie może zaprojektować programu z ich użyciem na podstawie praktycznych wymagań użytkownika. Do poczytania przy niedzieli.
http://multiverseaccordingtoben.blogspot.com/2020/07/gpt3-super-cool-but-not-path-to-agi.html
Wdrażanie gofai do llmów jest dlatego ważne, że potencjalnie rozwiązuje problem ugruntowania symbolicznego, tworząc brakujące odniesienia.
@JamesJoyce: wrzuciłem to właśnie do gpt 3.5 i sobie poradził
A co z tą informacją, że Open AI znalazło sposób żeby modele same się uczyły na podstawie danych, które stworzą. Jest w tym jakiś sens?
źródło: fc825d84e3aa31b6058d19ea67d5b0a9d69905553a29279d60482c89af6e9cc1
Pobierz