Wpis z mikrobloga

Prawdziwe przerażenie. Poczuliście je kiedyś, gdy zaledwie usłyszeliście o jakiejś hipotetycznej, choć prawdopodobnej sytuacji? Gdy dotarły do Was jej konsekwencje?

Mi się to niedawno zdarzyło.

Nie -- nie chodzi o teorie spiskowe. To było coś, co nie na żadnego związku ze spiskiem jakiegokolwiek rządu czy organizacji, ani zagrożeniem ze strony kosmitów. To byłyby myśli nienaukowe, niepoparte trendami. Spekulacje.

Myśl, o której mówię, zaczyna docierać do coraz większej liczby wpływowych ludzi, którzy mają pewną wiedzę na ten temat. Elona Musk. Billa Gates. Pojawia się na ten temat coraz więcej dyskusji, ale wciąż nie w mainstreamie..

Oto ta myśl.

Zostaniemy pokonani. Nie będziemy w stanie absolutnie nic z tym zrobić. Zostaniemy zmiażdżeni. Zdeklasowani przewagą tak ilościową, jak i jakościową. Całkowicie zdani na coś, co wobec nas pozostanie całkowicie bezduszne. Jeśli w ogóle dopuścimy do tego, żeby zaczęła się walka na większą skalę -- przegramy ją z kretesem. Na pewno.

Czy taka walka będzie miała miejsce? Prawdopodobnie, jeśli nic z tym nie zrobimy.

Co nas zniszczy?

AI. Sztuczna inteligencja.

Zdaje się rodzić w bólach i, podobnie jak latające samochody czy statki kosmiczne, zdaje się być w tyle za filmami science-fiction. Nawet tymi sprzed 50 lat. Ale to niesprawiedliwe porównanie.

Aby to zrozumieć, przyjrzyjmy się podstawowemu podziałowi AI. Wyróźnijmy trzy poziomy.

1. AI, która potrafi skutecznie wykonywać jedną, konkretną, potencjalnie złożoną czynność. Równie dobrze jak człowiek. Albo lepiej.
2. AI, która jest wszechstronna i dorównuje pod każdym względem człowiekowi. Może uczyć się nowych rzeczy i robić wszystko równie dobrze jak człowiek.
3. Super AI, czyli taka, która jest inteligentniejsza od każdego człowieka.

Na którym poziomie są AI, które obecnie tworzymy?

Na pewno nie na 2 i 3. W filmach często mamy do czynienia z poziomem 2, ale to dlatego, że bardzo łatwo stworzyć obraz takiej inteligencji. Nie trzeba nawet efektów specjalnych. To po prostu umysł scenarzysty. Poziom 3 nieco trudniej pokazać, bo autor fikcji nie wymyśli przecież niczego, czego żaden człowiek nie mógłby wymyślić. Może jednak np. podać, że jego AI w ułamek sekundy stworzyła lek na HIV i sposób na zimną fuzję.

A co z wyspecjalizowanym AI, poziomem nr 1? Tak -- mamy go! Ale... od niedawna.

Gdy byłem w szkole, superkomputery zaczynały konkurować z arcymistrzami szachowymi. Szło to w bólach, ale pod koniec lat 90., specjalnie przygotowany IBM Deep Blue pokonał w końcu Kasparova.

Dzisiaj? Każdy może sobie zainstalować na swoim laptopie program, który rozpyka bez problemów każdego arcymistrza szachowego.

Pierdoły typu warcaby zostały rozpykane jeszcze bardziej. Ale to tylko gierki. Co z resztą?

Google car przejeżdża autonomicznie milion kilometrów bez stłuczki. Sama wyszukiwarka Google działa nieporównywalnie sprawniej niż przeszukiwanie przez ludzi jakiegokolwiek archiwum. Polega na robotach indeksujących i korzysta z bardzo zaawansowanych, szybkich algorytmów.

Ostatnio, ale dopiero ostatnio, nasze AI zaczęły też radzić sobie naprawdę dobze z rozpoznawaniem mowy czy obrazów. Siri działa całkiem przyzwoicie!

Korzystałem ostatnio z zagranicznego banku i tam część rzeczy, jakie można załatwić przez telefon, obsługuje AI zdające się rozumieć nie tylko podawany na głos kod, ale też mowę potoczną, gdy odpowiadamy na pytanie w jakiej sprawie dzwonimy. Najnowsze samochody same parkują, a zwykła kamera i minikomputerek wystarczą, by auto rozpoznawało znaki i wyświetlało nam maksymalną dopuszczalną prędkość.

To niewielki postęp?

Wielki! Pod koniec XX wieku jeszcze tego wszystkiego nie było. Znaczy: niby było, niby *prawie było*, bo tę mowę trochę rozpoznawało, te obrazki trochę rozumiało, ale w praktyce działało to słabo i nie nadawało się do regularnego użytku. Programiści wiedzą, jak ogromna różnica jest pomiędzy "prawie działa" a "działa". Te ostatnie 10% projektu zajmuje... kolejne 90% czasu.

Ale dziś to wszystko właśnie już działa. Na tyle dobrze, że można z tego korzystać na co dzień.

Co dalej? Jak stworzyć AI poziomu drugiego, tj. ludzką inteligencję?

Nie wiemy. Jeszcze.

W najgorszym wypadku: możemy zeskanowąć i odtworzyć -- w ramach symulacji -- ludzki mózg, atom po atomie. Potrzeba szybszych komputerów, dokładniejszych, trójwymiarowych skanerów i sporo pracy, ale nie widać specjalnych przeszkód, by w przyszłości to zrobić.

A może zamiast tego zastosujemy algorytmy ewolucyjne. Skoro ewolucja stworzyła nas, to moglibyśmy odpalić jej symulację z takimi bodźcami, które premiowałyby wysoką inteligencję. My ewoluowaliśmy przez setki milionów lat (lub jeszcze więcej -- zależy jak liczyć), ale ewolucja ma w sobie dużo losowości. I nie dążyła przecież specjalnie do wysokiej inteligencji. Może nasza symulacja odcinałaby ślepe zaułki szybciej niż dobór naturalny. A na pewno mogłaby działać dużo, dużo szybciej.

Wreszcie: może napiszemy AI głupszą niż my, zorientowaną na samodoskonalenie. Opanowaliśmy inteligencję poziomu 1, tę zorientowaną na konkretne zadania, więc czemu nie zrobić takiej, której jedynym zadaniem byłoby... stworzenie inteligencji poziomu 2?

OK, a jak osiągnąć poziom 3?

Cóż -- tak samo jak 2. Większość dróg do AI poziomu 2 zakłada coś, co potrafi samo się ulepszać. Dla takiej inteligencji, osiągnięcie poziomu 2 -- naszego poziomu -- nie będzie żadnym szczególnym momentem. Po prostu poleci dalej, ulepszając się ponad ludzkie możliwości. Dodajmy do tego wzrost wykładniczy, tj. to, że głupsza inteligencja będzie się wolniej ulepszać, a mądrzejsza -- szybciej.

Przez 10 lat możemy dążyć do poziomu inteligencji psa. Potem, przez rok, do 5-letniego dziecka. Ale ten poziom możemy osiągnąć np. o 9 rano. A o 14 możemy mieć już poziom przeciętnego dorosłego. O 15 -- Einsteina czy Newtona. O 15:30 możemy mieć coś, co już całkowicie wykracza poza nasze pojmowanie. A co jeśli pochodzi to jeszcze pół godziny? Jeszcze dzień? Rok?

Szybko możemy mieć do czynienia z czymś o tyle inteligentniejszym od nas, o ile my jesteśmy inteligentniejsi od ślimaka.

Jak w ogóle spróbować wytłumaczyć ślimakowi statki kosmiczne? Albo internet? Promieniowanie Hawkinga? Albo tworzenie antyprotonów w akceleratorze cząstek?

Po prostu się nie da. Jest to z definicji skazane na porażkę. Ślimak nie skuma.

Co więc mogłaby zrobić super AI, gdyby była o tyle inteligentniejsza od nas, jak my od ślimaka? Jak potężna by była?

Potrafiłaby dużo więcej, niż jesteśmy w stanie wymyślić. Teleportacja? Zaginanie czasoprzestrzeni? Podróż z prędkością większą niż prędkość światła? Prościzna. Pomyślałem o tych rzeczach, więc nie mogą być aż tak skomplikowane.

Nawet jeśli rozpatrywalibyśmy dużo głupszą AI, niewiele inteligentniejszą od nas, jeśli chciałaby nas zniszczyć -- mielibyśmy całkowicie przesrane.

Pomyślcie tylko...

Ale najpierw -- pośmiejcie się ze mnie.

Jestem programistą. Zaawansowanym -- wszystko (łącznie z rynkiem) wskazuje na to, że w swojej dziedzinie jestem nawet sporo bardziej zaawansowany niż ten niesławny, standardowy wykopowy programista. Szkoliłem dziesiątki koderów, którzy sami należeli do górnych kilku procent rynku. Tak u nas, jak i w Londynie.

Jak programuję?

Pokracznie. Przeczytałem dziesiątki książek. Stosuję różne profesjonalne praktyki. Mentalne i programowe narzędzia, by popełniać jak najmniej błędów.

Ale wciąż je popełniam.

Robię literówki. Wciąż zapędzam się w ślepe zaułki. Wciąż debuguję. Wciąż robię głupoty. Ludzie mówią, że mam wyjątkowo dobrą pamięć techniczną. I, do licha, mają rację, jeśli porównać to np. z moją pamięcią do twarzy. Ale nawet w technikaliach, ciągle o czymś zapominam. Muszę coś sprawdzić w specyfikacji.

Wymyślam rozwiązanie. Sprawiam, by działało. Nieoptymalne! Wycofuję się. Próbuję ponownie. Dalej słabo? No to stosuję jeszcze inny z kilkudziesięciu znanych mi wzorców. Próbuję ponownie. Znów brzydko to wygląda. Co to w ogóle za kod, który muszę wywołać? Kto to napisał? A -- ja sam, trzy miesiące temu. Nie pamiętam już, jak to działa, a czytelność nie jest tak dobra, jak sądziłem.

Wierzcie lub nie, ale większość koderów -- jako że są mniej doświadczeni -- robi to wszystko jeszcze pokraczniej, jeszcze gorzej niż ja (choć newbies się do tego nie przyznają, bo zobaczyliby to dopiero gdyby nagrywali swój dzień).

Oczywiście, czasem łapię dobry flow. Nawet wtedy, przy całym moim doświadczeniu, nie wyciągnę chwilowo więcej niż 80 słów na minutę. Nie napiszę funkcji w mniej niż kilka minut.

Wyobraź sobie, że jesteś AI.

AI, która programuje. AI, która projektuje.

Działasz nie w minuty. W nanosekundy.

Masz doskonałą pamięć. Pamiętasz dokładnie każdy fragment informacji, który się o Ciebie obił. Przeszukujesz tę pamięć w ułamki sekund.

Masz dostęp do praktycznie całej wiedzy ludzkości. Tak, możesz się łączyć z Internetem. Ale wgrano ci też szczegółowe, tajne plany wojskowych maszyn i najlepszych ludzkich rakiet i broni.

Przeglądasz je w ułamki sekund. Rozumiesz każdy szczegół każdego z tych projektów.

Obliczenia wykonujesz na wielu rdzeniach. Czterech? Ośmiu? Nie. Na milionie. Miliardzie. Robisz miliard rzeczy naraz.

Nie piszesz kodu po kilka znaków na sekundę. Piszesz naraz milion programów. W każdym po tysiąc, milion komend na sekundę.

Nie robisz literówek. Nie patrzysz, czy aplikacja działa. Nie piszesz testów. Kod symulujesz sobie na własnych procesorach, na bieżąco.

Nie komunikujesz się z innymi programistami, bo ten milion rdzeni masz wbudowany w sobie. Możesz komunikować się z innymi AI. Ale nie poprzez gardło i ucho. Nie poprzez palce i oko. Poprzez bezpośrednie łącze transmitujące terabajty danych na sekundę.

Nie odpoczywasz. Nie musisz. Nie tracisz czasu na jedzenie. Religię. Rodzinę.

W każdym momencie możesz stworzyć swoje klony. Możesz ulepszyć swoje podzespoły. Możesz dodać sobie jeszcze więcej inteligencji. Tysiąckrotnie.

* * *

Co my temu przeciwstawimy?

Zespół 20 najlepszych inżynierów? 20 najlepszych programistów, którzy są sporo lepsi od takiego mnie, więc będą robili trochę mniej błędów niż ja, pisali trochę lepszy kod i będą robili to trochę szybciej?

Jesteśmy zdeklasowani. Mamy p--------e. Jesteśmy tak głęboko w tak ciemnej dupie, że jest to aż niewyobrażalne.

MYŚLMY o tym. Przygotujmy się na to.

Stwórzmy środki zaradcze. Firewalle.

Jak obronić się przed AI, które stworzymy? Pracujemy nad tym. Wciąż nie wiemy.

Ale musimy się dowiedzieć. Musimy to zrobić, zanim będzie za późno.

#technapoziomie (macie propozycję lepszego tagu dla moich tekstów technicznych? chyba by się przydał)
#technologia
#sztucznainteligencja
  • 29
  • Odpowiedz
  • Otrzymuj powiadomienia
    o nowych komentarzach

@Sh1eldeR: zawsze pisałeś takie rzeczy, że nic tylko plusować, ale tutaj akurat się nie zgodzę. Jest parę podstawowych problemów:
- bariera technologiczna (póki nie przejdziemy poziom wyżej - komputery kwantowe - to po prostu brakuje nam mocy)
- stworzenie kopii mózgu: co ono nam da? mamy własne mózgi i jakoś nie udało nam się za ich pomocą stworzyć AI lvl 2 ( ͡° ͜ʖ ͡°)
-
  • Odpowiedz
@Sh1eldeR: tekst całkiem spoko, ale sporo w nim błędów moim zdaniem. Chyba wszystkie przykłady, które podałeś w teksie nijak się mają do AI. Samoistne parkowanie samochodu? Byle elektronik jest w stanie coś takiego zrobić mając tych kilka czujników odległościowych i kontrolę nad kierownicą i pedałami - tu nie ma inteligencji, to prosty program sekwencyjny. Wyszukiwarka? Jak sam piszesz - "korzysta z bardzo zaawansowanych, szybkich algorytmów". To nadal nie jest inteligencja,
  • Odpowiedz
@Sh1eldeR: @nicniezgrublem: to będzie chyba kluczowy moment kiedy (jeżeli w ogóle) uda nam się stworzyć coś co faktycznie będzie mogło działać niezależnie. W sensie uczyć się, działać, rozwijać. Na razie tak jak mówisz, wszystko to tylko jakieś programy/algorytmy które w ograniczony sposób próbują naśladować nas. Czyli programiści po prostu opracowują teorię na to jak coś u nas działa a potem ta teoria jest programowana. Żeby ewolucyjne tutaj zadziałały
  • Odpowiedz
@Sh1eldeR: Polecam film pt. Her. Poza kilkoma momentami, ktore moga wydac sie dosyc dziwne to film w ktorym ludzie stworzyli sztuczna inteligencje w systemie operacyjnym i udostepnili dla kazdego, polecam na pewno Ci się spodoba.
  • Odpowiedz
- bariera technologiczna (póki nie przejdziemy poziom wyżej - komputery kwantowe - to po prostu brakuje nam mocy)

@superbybak:
Nie sądzę, by tak było. Fakt, megaherce pojedynczego procesora nie idą w górę. Ale i tak pojedynczy procek jest dużo szybszy niż neuron. Możemy pójść w stronę zwiększenia liczby rdzeni. Do tysięcy. Milionów. Wymaga to innych paradygmatów programowania, jak np. programowanie czysto funkcyjne, ale jest do zrobienia.

Poza tym, najszybszy superkomputer na świecie ma WIĘKSZĄ zdolność obliczeniową niż maksymalna wydajność, jaką -- według naszych szacunków -- ma ludzki
  • Odpowiedz
Nie jestem przekonany co do znaczenia i wagi intuicji.


@Sh1eldeR: to jest proste. Mówisz łazikowi: "jeździj i badaj to miejsce" - ale skąd on ma wiedzieć, czego szukać? Co badać? Co jest interesujące? Wie tylko to, do czego jest zaprogramowany, może zbierać dane, wyszukiwać wzorce itd., ale nie wymyśli własnych wzorców.
Tak można się "droczyć" w nieskończoność - ja powiem "nie wymyśli własnych ciekawych wzorców", Ty powiesz "jeśli dasz mu
  • Odpowiedz
@superbybak:
W naszym mózgu też musi być jakaś stosunkowo prosta funkcja podstawowa. Brakuje przesłanek by sądzić, że nie jesteśmy w stanie jej wrzucić do AI. Albo jakiejś lepszej wersji.

Z prostej indukcji wynika że będziemy zawsze krok do przodu ( ͡° ͜ʖ ͡°) #januszematematyki

Była taka książka sci-fi. Powiedzieli AI zarządzającej fabryką spinaczy: zmaksymalizuj liczbę wyprodukowanych spinaczy. AI ostatecznie się uwolniła i uznała, że wybije ludzi, bo marnotrawią zasoby, a cała Ziemię
  • Odpowiedz
@Sh1eldeR: znów rozumując podobnie: jeśli jesteśmy w stanie poznać (i zrozumieć) tę funkcję podstawową, to teoretycznie możemy ją ulepszyć - jak AI ma nas wyprzedzić, skoro będziemy w stanie ulepszać własne umysły, które na razie są daleko przed AI?
Komputer to tylko maszyna, sprawdza się doskonale w obliczeniach, ale nie umywa się do mózgu w kwestii kojarzenia faktów. Dlatego twierdzę że komputer+człowiek to silny duet, ale sam komputer nie ma
  • Odpowiedz
@superbybak:
Możemy ją ulepszyć -- i gdy ją zaimplementujemy w AI, to rozwali nas jeszcze bardziej. Gdy jej nie zaimplementujemy w AI, to nic nam nie da.

Ta funkcja podstawowa sama w sobie jest zbyt prosta by była użyteczna. Ona pozwala nam się uczyć i tworzyć konkretne funkcje. Więc jakby "wyspecjalizowane AI" (w zasadzie NI -- naturalne) pierwszego poziomu wewnątrz naszych własnych mózgów. Wybitni specjaliści z różnych dziedzin wytworzyli sobie własne funkcje, zarówno działania, jak i prawdopodobnie uczenia się, dopasowane do ich konkretnych dziedzin. To dopiero te funkcje pozwalają nam robić coś dobrze.

Funkcja podstawowa robi to tylko pośrednio -- jej waga polega na tym, że ona dopiero tworzy funkcje, które
  • Odpowiedz
@Sh1eldeR: hej, bardzo mi sie podobają Twoje przemyślenia. Jezeli nie bedziesz miał zbyt wielu "folołersów" to wołaj mnie ręcznie- nie dam rady przeglądać miliona tagów.

Czy następnym krokiem ludzi nie powinno być ingerowanie w nasz organizm? Mechanicznie wspomagać prace mózgu tworząc swego rodzaju cyborgi? Które mając możliwości AI bedą posiadały ten "ludzki pierwiastek" dzięki któremu bedą stały po "normalnej" stronie?
  • Odpowiedz
Jak obronić się przed AI, które stworzymy? Pracujemy nad tym. Wciąż nie wiemy.


@Sh1eldeR: wiemy od dawna, od bardzo dawna - tak od kilku tysięcy lat, zanim jeszcze ktoś wymyślił termin "sztuczna inteligencja" (a nawet i sam "inteligencja"). Nie interesuję się Elonem Muskiem i Billem Gatesem, ale z tego co mówisz, wygląda na to, że stoją po "tej złej" (czyt.: po stronie elit, przeciwko zwykłym ludziom) stronie barykady, skoro straszą
  • Odpowiedz