Wpis z mikrobloga

@9Japko9 Modele LLM tak nie działają, one nie mają w pamięci żadnych "zassanych" danych, tekstów, czy zdjęć, a jedynie miliardy parametrów, dzieki którym są w stanie wyświetlić odpowiedź na inputowe zapytanie.
  • Odpowiedz
@iedynak: mają w pamięci te dane, tylko, że w postaci właśnie tych miliardów parametrów. Dodatkowo można skazić dane uczące (czasem przez przypadek, czasem nie). I wtedy zdarza się, że rozwiązanie napisane przez LLMy do jakiegoś zadanka programistycznego to kropka w kropkę rozwiązanie z neta.
  • Odpowiedz
mają w pamięci te dane, tylko, że w postaci właśnie tych miliardów parametrów.


@zobq: o, to zupełnie tak jak ludzki mózg :)
  • Odpowiedz
@zobq: o, to zupełnie tak jak ludzki mózg :)


@ly000: eh, kolejna ofiara wielu lat uproszczeń przy tłumaczeniu działania sieci neuronowych.
  • Odpowiedz
@zobq:

I wtedy zdarza się, że rozwiązanie napisane przez LLMy do jakiegoś zadanka programistycznego to kropka w kropkę rozwiązanie z neta.

Ciężko żeby nie było skoro modele językowe nie myślą tylko sobie obliczają prawdopodobieństwo występowania odpowiednich tokenow po sobie. A skąd te prawdobienstwo jest brane ano z neta na podstawie częstotliwości występowania danych fraz ze sobą.

Chyba że coś się
  • Odpowiedz
@Bejro: bzdura, choćby dlatego, że LLMy nie zmieniają swojej struktury po zakończeniu procesu uczenia.

ogólnie, to sieci neuronowe mają tyle wspólnego z prawdziwymi mózgami, co algorytmy rojowe z rojami pszczół. Naukowcy wpadli na pewien koncept zainspirowani naturą i tyle. Później są już próby optymalizacji i opracowywania jak najskuteczniejszych modeli. Nie ma tu prób naśladowania mózgów 1 do 1.
  • Odpowiedz
@zobq: To, że struktura jest stała niczego nie udowadnia. Sieć może być stale doszkalana ale nie musi i zazwyczaj nie jest. Sieci transformatorowe (jak LLMy) używają tego samego modelu matematycznego do szukania i odczytu informacji co hipokamp i to fakt. Stało się to przez przypadek (nie było świadomych prób naśladownictwa) ale jednak, skończyliśmy z takim samym rozwiązaniem jak to zaproponowane przez ewolucję.
  • Odpowiedz
@zobq: To, że struktura jest stała niczego nie udowadnia. Sieć może być stale doszkalana ale nie musi i zazwyczaj nie jest.


@Bejro: Nie jest, bo takie doszkalanie nie wpływa pozytywnie na jakość LLMów, w przeciwieństwie do mózgów istot żywych. To jest istotna różnica.

i to fakt

to czekam na jakieś linki skoro to fakt.
  • Odpowiedz