Wpis z mikrobloga

@LazyInitializationException: Andrzej Dragan jest ekscentryczny, przeczytałem jego Kwantechizm i więcej tam literatury popularnej niż naukowej. Nie zmienia to faktu, że gość jest inteligentniejszy niż my i nie tylko on jest pod wrażeniem rozwoju si. Każdy z nas był kiedyś dzieckiem i na kupę mówił np. gaga, ale jesteśmy dalej tymi ludźmi co wcześniej, tylko dojrzeliśmy. Można śmiać się ze współczesnej si, ale to "dziecko" dorośnie i będzie mądrzejsze od rodziców.
  • Odpowiedz
@wojtek-m: Nie twierdzę, że nie jest inteligenty.

Można śmiać się ze współczesnej si, ale to "dziecko" dorośnie i będzie mądrzejsze od rodziców.


W sensie masz jakieś podstawy, żeby tak uważać, czy popełniasz błąd logiczny i po prostu ekstrapolujesz obecny trend? Jeżeli jako dziecko w skoku w dal umiałem przeskoczyć 100 cm, jako nastolatek 200 cm, a jako dorosły 300 cm, to znaczy, że jak będę wystarczająco długo ćwiczył to przeskoczę kanał
  • Odpowiedz
@LazyInitializationException: Lubisz się chyba czepiać szczegółów, dobrałem najprostsze porównanie. Gdybyś się nie starzał i ciągle rósł (tak jak si) to byś ten kanał przeskoczył. Możesz mi teraz "imputować" (czy jakie tam lubisz mądre słówka), że z takich to a takich powód nie mógłbyś tak urosnąć i ok. Mogę ci wklejać jakieś teksty A4 z wywodami naukowymi, żebym "nie popełnił błędu logicznego".Ale mi się nie chce.
  • Odpowiedz
@wojtek-m: Zwrócenie uwagi na błąd w rozumowaniu to nie jest czepianie się tylko normalny element dyskusji. Swoje wnioski bazujesz na założeniu, że metody uczenia maszynowego nie mają żadnych inherentnych ograniczeń, a mój przykład ze skokiem w dal jest ilustracją takiego problemu, nie wszystko będzie się rozwijało liniowo i samo założenie czegoś takiego jest bardzo naiwne.

Obecnie GPT-4 ma 1.76 biliona parametrów i nie jest w stanie rozwiązać prostej zagadki, którą podałem.
  • Odpowiedz
@LazyInitializationException: Nowe typy si są samo programowalne, trochę jak mutujący wirus. Za którymś razem powstanie "szczep", który rozwiąże twoją zagadkę (nie czytałem) a inną nie. Optymalizacja to faktycznie problem, ale pewnie też coś wymyślą. Inna sprawa, że sposób " myślenia" si będzie całkiem inny od ludzkiego, gdzie większość zachowań jest związana z przedłużeniem gatunku i zaspokojeniem potrzeb fizjologicznych itp. itd.
  • Odpowiedz
Nowe typy si są samo programowalne


@wojtek-m: Jakie nowe typy? Co masz na myśli, że są programowalne? Co innego zapropgramować SI a co innego nauczyć. SI to są modele uczenia maszynowego, je się uczy, buduje model na podstawie danych uczących.

Póki co to jeżeli uczy się modele LLM danymi, które generują inne modele LLM to następuje regresja, co zresztą nie jest dziwne, jeżeli zna się zasadę działania takich modeli.

Inna sprawa,
  • Odpowiedz
@LazyInitializationException: Dobrze, to cała ta międzynarodowa pańka to jakiś spisek? Gra polityczna polityków korzystających na "medialności" tematu si? Tego pojęcia llm, przyznam się nie znam. Możliwe, że potrzebujesz kogoś bardziej obeznanego z tematem, chociaż pozwolę pozostać przy swoim zdaniu. Chętnie bym zobaczył wypowiedzi innych w temacie, no ale to wykop a nie grupa naukowa;)
  • Odpowiedz
Dobrze, to cała ta międzynarodowa pańka to jakiś spisek?


@wojtek-m: Jaka panika xD Kto konkretnie panikuje? Nie wiesz, że najlepiej sprzedaje się strach? AI zajmują się firmy notowane na giełdach, dla nich im więcej rozgłosu tym lepiej bo zlecą się inwestorzy.

Tego pojęcia llm, przyznam się nie znam


LLM to są duże modele językowe, przykładem tego jest np. ChatGPT. Mówienie ogólnie o "SI" nie ma sensu, bo SI to zarówno ChatGPT,
  • Odpowiedz