Jest sens dalej to ciągnąć/ się prosić ?
w skrócie laska mnie ghostuje i to tak nagle
A bardziej złożona historia:
Zagadałem do laski, a po 3/4 dniach byliśmy ugadani na spacer, uważam, że wypadłem dosyć słabo w porównaniu do innych spotkań, ale laska wyszła tylko z 1 chłopem z neta, więc może nie miała porównania i na koniec spotkania powiedziała do zobaczenia, więc myślałem, że będzie drugie spotkanie + z 5 min po spotkaniu napisała pierwsza
2 spotkanie zaplanowałem po 2/3 dniach do activity baru mówi, że bardzo chętnie i praktycznie od razu się ugadaliśmy, tam uważam było o wiele lepiej, więcej śmiechu itp, spotkanie też z 2h trwało
na następne spotkanie chciałem zabrać ją na squasha, ale akurat sobotę miała zaplanowana od rana do wieczora(potwierdzenie na snapie/ig) a na nastepny dzień mogła być skacowana, wiec no okej
w skrócie laska mnie ghostuje i to tak nagle
A bardziej złożona historia:
Zagadałem do laski, a po 3/4 dniach byliśmy ugadani na spacer, uważam, że wypadłem dosyć słabo w porównaniu do innych spotkań, ale laska wyszła tylko z 1 chłopem z neta, więc może nie miała porównania i na koniec spotkania powiedziała do zobaczenia, więc myślałem, że będzie drugie spotkanie + z 5 min po spotkaniu napisała pierwsza
2 spotkanie zaplanowałem po 2/3 dniach do activity baru mówi, że bardzo chętnie i praktycznie od razu się ugadaliśmy, tam uważam było o wiele lepiej, więcej śmiechu itp, spotkanie też z 2h trwało
na następne spotkanie chciałem zabrać ją na squasha, ale akurat sobotę miała zaplanowana od rana do wieczora(potwierdzenie na snapie/ig) a na nastepny dzień mogła być skacowana, wiec no okej
Wydaje mi się, że wszystkie najważniejsze laby osiągnęły lub zaczynają widzieć na horyzoncie granicę w trenowaniu llmów. Tą granicą są oczywiście dane i dostępność GPU. Nie można skalować wielkości modelu i ilości danych treningowych w nieskończoność. Nie jestem pewien tylko, czy spodziewali się, że nastąpi to tak szybko. Dlatego historia zaczyna zataczać koło i obecnie prace skupiają się na próbach:
a) trenowania małych modeli za pomocą llmów lub;
b) wdrażania rozwiązań rule-based, transferu wiedzy, czy Q* learningu w małych modelach, czyli gofai.
@JamesJoyce: wrzuciłem to właśnie do gpt 3.5 i sobie poradził