@WpiszSwojLogin: pewnie to, że miało zaciągnięty pełny kod do minecrafta, którego pewnie masa w internecie i tak oto AI zrobiło rozbudowaną grę od zera
@9Japko9 Modele LLM tak nie działają, one nie mają w pamięci żadnych "zassanych" danych, tekstów, czy zdjęć, a jedynie miliardy parametrów, dzieki którym są w stanie wyświetlić odpowiedź na inputowe zapytanie.
@iedynak: mają w pamięci te dane, tylko, że w postaci właśnie tych miliardów parametrów. Dodatkowo można skazić dane uczące (czasem przez przypadek, czasem nie). I wtedy zdarza się, że rozwiązanie napisane przez LLMy do jakiegoś zadanka programistycznego to kropka w kropkę rozwiązanie z neta.
I wtedy zdarza się, że rozwiązanie napisane przez LLMy do jakiegoś zadanka programistycznego to kropka w kropkę rozwiązanie z neta.
Ciężko żeby nie było skoro modele językowe nie myślą tylko sobie obliczają prawdopodobieństwo występowania odpowiednich tokenow po sobie. A skąd te prawdobienstwo jest brane ano z neta na podstawie częstotliwości występowania danych fraz ze sobą.
@Bejro: bzdura, choćby dlatego, że LLMy nie zmieniają swojej struktury po zakończeniu procesu uczenia.
ogólnie, to sieci neuronowe mają tyle wspólnego z prawdziwymi mózgami, co algorytmy rojowe z rojami pszczół. Naukowcy wpadli na pewien koncept zainspirowani naturą i tyle. Później są już próby optymalizacji i opracowywania jak najskuteczniejszych modeli. Nie ma tu prób naśladowania mózgów 1 do 1.
@zobq: To, że struktura jest stała niczego nie udowadnia. Sieć może być stale doszkalana ale nie musi i zazwyczaj nie jest. Sieci transformatorowe (jak LLMy) używają tego samego modelu matematycznego do szukania i odczytu informacji co hipokamp i to fakt. Stało się to przez przypadek (nie było świadomych prób naśladownictwa) ale jednak, skończyliśmy z takim samym rozwiązaniem jak to zaproponowane przez ewolucję.
Byłem na wschodzie słońca na śnieżce, piękny to był widok. Muszę to powtórzyć kiedyś. Na zdjęciu moment wschodu słońca. #gory #sniezka #karkonosze #sudety
https://websim.ai/c/vfluu34IS6MDDgtzb
#programowanie #programista15k #pracait #ciekawostki #technologia
@zobq: o, to zupełnie tak jak ludzki mózg :)
@ly000: eh, kolejna ofiara wielu lat uproszczeń przy tłumaczeniu działania sieci neuronowych.
Ciężko żeby nie było skoro modele językowe nie myślą tylko sobie obliczają prawdopodobieństwo występowania odpowiednich tokenow po sobie. A skąd te prawdobienstwo jest brane ano z neta na podstawie częstotliwości występowania danych fraz ze sobą.
Chyba że coś się
ogólnie, to sieci neuronowe mają tyle wspólnego z prawdziwymi mózgami, co algorytmy rojowe z rojami pszczół. Naukowcy wpadli na pewien koncept zainspirowani naturą i tyle. Później są już próby optymalizacji i opracowywania jak najskuteczniejszych modeli. Nie ma tu prób naśladowania mózgów 1 do 1.
@Bejro: Nie jest, bo takie doszkalanie nie wpływa pozytywnie na jakość LLMów, w przeciwieństwie do mózgów istot żywych. To jest istotna różnica.
to czekam na jakieś linki skoro to fakt.