Aktywne Wpisy
iTuTego +743
Mireczki, trzymajcie kciuki za moją Żonkę, właśnie jedziemy na przeszczep serca. Lubię tą społeczność bo obcuje z Wami już wiele lat, a o tej porze nawet się nie mam komu wygadać.
Echh spanie w jednym łóżku ale pod osobnymi kołdrami to coś zajebistego.
Możemy dzieciuta wziąć bez kombinowania do łóżka, nie ma walki o kołdrę, stary nie narzeka że śpię w skarpetkach, albo że mam za długie paznokcie. Jedyny minus to to że nie można się fajnie przytulić w nocy ( ͡° ʖ̯ ͡°)
Możemy dzieciuta wziąć bez kombinowania do łóżka, nie ma walki o kołdrę, stary nie narzeka że śpię w skarpetkach, albo że mam za długie paznokcie. Jedyny minus to to że nie można się fajnie przytulić w nocy ( ͡° ʖ̯ ͡°)
Już dawno temu zauważyłem, że model, który deterministycznie udziela odpowiedzi na pytania na podstawie tekstu nie powinien być nazywany inteligencją niezależnie od tego jakie ma zastosowanie (bo oczywiście nie wykluczam szerokich zastosowań takich rzeczy).
Gdy ktoś zapyta mnie o to ile jest 2+2, to oczywiście odpowiedź będzie natychmiastowa, niczym zaserwowana "z cache". Ale wyniku działania 563+125 nie mam w pamięci, więc gdybym miał udzielić odpowiedzi w stałym czasie, odpowiedziałbym "nie wiem". Ale gdy coś takiego dostaje na teście, zaczynam to liczyć z użyciem znanych mi schematów, które jednak zależą od danych wejściowych, bo inaczej zacznę liczyć 5000+6000 a inaczej 53+174.
Więc pierwszą rzeczą jaką wg mnie musi posiadać inteligencja jest logika, która zależy od danych wejściowych. Skoro jestem w stanie wykonywać w pamięci algorytmy z pętlami, to oczywiste jest, że każdy model, który "nie mógłby się zapętlić" nie jest inteligentny.
Tym tropem można iść dalej. Skoro to ma być "inteligencja", to powinna móc uczyć się dowolnych rzeczy i wykonywać dowolne zadania. Załóżmy, że na danym sprzęcie zainstalowane jest AI a ja każę mu zmodyfikować algorytm LZO i skompresować tym zmodyfikowanym algorytmem dany duży plik. Jeśli na danym sprzęcie jest architektura powiedzmy AArch64, to logicznym jest, że hipotetyczne AI powinno być w stanie wygenerować instrukcje maszynowe (być może niebezpośrednio) dla tej architektury, a potem wykonać je "natywnie" - bo to byłoby inteligentniejsze niż wykonywanie tego w swoim VM.
Drugą rzeczą jest więc możliwość generacji i delegacji logiki tak, aby była ona wykonywana w optymalny sposób (możliwie jak najbardziej natywnie). Bez tego takie "AI" będzie niepraktyczne.
Trzecią rzeczą jest wg mnie możliwość ciągłej ewolucji w trakcie wykonywania zadań, czyli brak klasycznego podziału na proces uczenia oraz wykonywania zadań. Tu przykład mógłby być taki "Jak najszybciej złam ten hash sha256: X. W międzyczasie przetłumacz stronę Y na język chiński.". No i tak, jeśli na tej stronie Y było by napisane "sha256(Z) = X", to najoptymalniejszym rozwiązaniem - i takim, które wykonałby człowiek - byłoby sprawdzenie Z poza kolejką. To jednak wymaga tego, żeby swoją wiedzę wykorzystać również do tego aby zoptymalizować dalsze pozyskiwanie wiedzy.
Obecne modele są niewątpliwie czymś ciekawym i mogą być przydatne, ale wg mnie one nie są tym, czym wiele ludzi myśli, że są.
#ai #openai #chatgpt #sztucznainteligencja #przemyslenia
Komentarz usunięty przez autora Wpisu
Komentarz usunięty przez autora Wpisu
Komentarz usunięty przez autora Wpisu