Aktywne Wpisy
![duszan_z_kapitana_dupy](https://wykop.pl/cdn/c0834752/1ddd63d868ee20502821c30c225ff10d2a93f5c46c10c3b90a30f3e0f1a0c4f3,q60.jpg)
26 dni urlopu w Polsce to żart xD Przychodzi sezon letni i nagle tutaj Zdzisia nie ma 2 tygodnie, Ani 3 tygodnie, Basi nawet cały miesiąc (bo jeszcze przechodzi niewykorzystany xDD). Następnie ci sami ludzi biorą sobie jakieś dni wolne w majówki, na żądanie bo ktoś pochlał czy chce sobie jechać do energylandi w środku tygodnia. Jak w tym kraju ma być dobrze skoro ludzi nie ma w pracy praktycznie? Co chwila
![radek7773](https://wykop.pl/cdn/c3397992/radek7773_6ApVGY6Jva,q60.jpg)
radek7773 +301
![radek7773 - Wolny rynek ( ͡° ͜ʖ ͡°)
#sejm #polityka #bekazpisu #bekazkonfederacji #k...](https://wykop.pl/cdn/c3201142/b396b80fdf335679fb9b00dfdcdf8f08cc4a05b3c0b6fa941980a289471c63e4,w150.jpg?author=radek7773&auth=f476600c507dda11d1775210e7c267e0)
źródło: temp_file7987697845692629545
Pobierz
Ale żeby dojść do AGI potrzeba jeszcze 2 rzeczy
1. Prostsza sprzętowa implementacja operacji mnożenia i dodawaniu, przez opór, napięcie i natężenie
2. Sprzętowa implementacja architektury (po udanym uczeniu można produkować
@ElMatadore: Czemu problemu doszukujesz się akurat w aparacie matematycznym? Mając dostatecznie mocny model obliczeniowych pod względem siły wyrazu jak i wydajności moglibyśmy zasymulować realny mózg a nie to co teraz. Nie ma jakichś większych powodów żeby to miało nie zadziałać bo i aktualnie nie ma powodów dla których duże modele miałyby być jakkolwiek ograniczone, przecież mamy twierdzenia o uniwersalnej
Pamiętaj, że ludzie uczą się z bardzo małej liczby przykładów. Sieć neuronowa jest tego przeciwieństwem. Potrzebuje ona wielkiej ilości danych. Ale nawet mimo posiadania ich, obecne architektury są opakowaną w hajp funkcją przewidywania następnego słowa/pasującego obrazu. Niczym więcej, niczym mniej.
Co do
@JamesJoyce model nie halucynuje tylko konfabuluje, zdarza się to jak mamy dziury i automatycznie uzupełniane jest to najprawdopodobniejsza treścią jak unludzi. Ludzie nie uczą się po bardzo małej ilości przykładów. Sama nauka chodzenia to ok rok nauki po kilka godzin dziennie. Wielka sieć neuronowa ma już bardzo dobrze wykształcone odpowiednie rejony do odpowiednich celów, wykształcają się pośrednie wartości sygnałów które reprezentują pewną cechę danych która służyć może do nowych wyzwań. Wykorzystuje się to w fine-tuningu w którym nie trzeba już tak dużo danychy nauczyć się czegoś nowego.
To trochę tak jak uczenie niemowlaka działań matematycznych, też potrzebujesz wtedy ogromnych ilości przykładów ale gdy masz już do czynienia z wykształconym człowiekiem to bazując na tym co potrafi szybciej jest w stanie się czegoś nowego nauczyć, bo już dużo więcej
Ale czego nowego? Jak działa świat? Dlaczego jak przełożymy długopis z jednej części blatu na drugi to dzieje się x,y,x czy jednak nowego, w rozumieniu: znam 20 marek samochodów, a dzięki finetuningu poznam kolejne 10 na podstawie wiedzy, którą już posiadam? Bo chyba jednak to
Jeśli wprowadzasz coś nowego to w niewytrenowanej sieci musisz zmodyfikować kilkadziesiąt warstw, natomiast w wytrenowane sieci wystarczy istotne zmiany wystarczy wprowadzić gdzieś w środku, jeśli gradient jest znormalizowany to
Nie twierdzę, że to magia. Trenuje sieci neuronowe od lat i wiem jak działają. Gpt4 nie rozumie kompletnie nic.
„Odpowiednio duża sieć neuronowa rozumie”
Po prośbie o podanie publikacji, które tego dowodzą, zmieniasz zdanie i jednak sieć nie rozumie, a jak rozumie to „w sposób inny niż ludzki”.
Poza tym, istnieją jeszcze głębsze problemy z prostą redukcją rozumienia ludzkiego i maszynowego, np. tzw. problem ugruntowania symbolicznego https://en.wikipedia.org/wiki/Symbol_grounding_problem czy problem stochastycznych papug https://en.wikipedia.org/wiki/Stochastic_parrot
Ale ta funkcje matematyczna potrafi logiczne wnioskować, może na dość niskim poziomie i nie jakieś skomplikowane rzeczy ale potrafi