Aktywne Wpisy
#mecz
źródło: Zdjęcie z biblioteki
Pobierz
bet730 +123
================
13. Polska - 35.875
================
NADESZLA, WIEKOPOMNA, CHWIŁA!
Jesteśmy jedną spośród 7 federacji europejskich, której wszystkie drużyny grają w fazie ligowej europejskich rozgrywek!
13. Polska - 35.875
================
NADESZLA, WIEKOPOMNA, CHWIŁA!
Jesteśmy jedną spośród 7 federacji europejskich, której wszystkie drużyny grają w fazie ligowej europejskich rozgrywek!
źródło: coeff_28.08
Pobierz




Wydaje mi się, że wszystkie najważniejsze laby osiągnęły lub zaczynają widzieć na horyzoncie granicę w trenowaniu llmów. Tą granicą są oczywiście dane i dostępność GPU. Nie można skalować wielkości modelu i ilości danych treningowych w nieskończoność. Nie jestem pewien tylko, czy spodziewali się, że nastąpi to tak szybko. Dlatego historia zaczyna zataczać koło i obecnie prace skupiają się na próbach:
a) trenowania małych modeli za pomocą llmów lub;
b) wdrażania rozwiązań rule-based, transferu wiedzy, czy Q* learningu w małych modelach, czyli gofai.
Widać to zwłaszcza po ilości paperów, które pojawiają się na konferencjach/arxivie. Próbuje się także przepisać warstwe "uwagową" transformersów, by nie była tak bardzo zasobożerna, np. https://arxiv.org/abs/2311.10642?fbclid=IwAR3MHBjNf5mY93VJAhm6iquGU5gHFbf9jKcJV5k-ZtrYJQurkdpmiWJDR6E
Nie wiemy ile pieniędzy realnie spalane jest na trenowaniu llmów, ale po szumie wokół prób znalezienia nowego podejścia obstawiam, że kilka rzędów wielkości więcej niż się spodziewamy.
Filozoficznie (ale też lingwistycznie) llmy wciąż cierpią na to, co Goertzel określa "brakiem ugruntowania symbolicznego". W swoim wpisie na blogu, przy okazji premiery GPT-3 podał on ciekawy przykład, co to oznacza:
Podając GPT-3 zadanie:
Q: Write one line of Ruby code to reverse an array.
Odpowie poprawnie:
A: ary.reverse
Ale zadając pytanie bardziej szczegółowo:
Q: Reverse the following array: [1, 3, 5, 6, 10, 4, 2, 77]
Pogubi się.
A: [10, 6, 4, 2, 77, 3, 5, 1]
Oczywiście GPT-4 pewnie poradzi sobie lepiej z tym problemem i odpowie poprawnie, ale istnieje duża szansa, że wyłoży się na innym, bardziej zaawansowanym przykładzie tego typu. Dlaczego? W skrócie, wg. Goertzela GPT-3 (i inne modele oparte na architekturze transformerów) nauczył się pisać kod do odwracania tablic, ucząc się skomplikowanych wzorców między językiem angielskim a składnią języków programowania, nie tworząc jednak wewnętrznego modelu struktur danych, takich jak tablice, które manipuluje. Brakuje mu ugruntowania symbolicznego, czyli zdolności do identyfikacji lub tworzenia konkretnych odniesień do używanych słów i fraz. Ta luka ogranicza jego użyteczność w praktycznym programowaniu, ponieważ GPT-3 nie rozumie, co to jest przycisk czy kości do gry, więc nie może zaprojektować programu z ich użyciem na podstawie praktycznych wymagań użytkownika. Do poczytania przy niedzieli.
http://multiverseaccordingtoben.blogspot.com/2020/07/gpt3-super-cool-but-not-path-to-agi.html
Wdrażanie gofai do llmów jest dlatego ważne, że potencjalnie rozwiązuje problem ugruntowania symbolicznego, tworząc brakujące odniesienia.
@JamesJoyce: wrzuciłem to właśnie do gpt 3.5 i sobie poradził
A co z tą informacją, że Open AI znalazło sposób żeby modele same się uczyły na podstawie danych, które stworzą. Jest w tym jakiś sens?
źródło: fc825d84e3aa31b6058d19ea67d5b0a9d69905553a29279d60482c89af6e9cc1
Pobierz