Wpis z mikrobloga

@fetozaur: polecam artykuły na https://intelligence.org/about/ i wiki na http://lesswrong.com/

Tu chyba opisane najprościej: https://intelligence.org/faq/#safety

The primary concern is not spooky emergent consciousness but simply the ability to make high-quality decisions. Here, quality refers to the expected outcome utility of actions taken, where the utility function is, presumably, specified by the human designer. Now we have a
  • Odpowiedz
W skrócie - masz fabrykę i generalne, samoulepszające się AI optymalizujące produkcję spinaczy do papieru. Zapomniałeś wspomnieć, że procent tlenu w atmosferze ma zostać niezmieniony. No sorry - ale jak się ten tlen zużyje, to spinaczy będzie więcej. I analogicznie musisz zaprogramować każdą rzecz, która jest istotna (choć o niektórych nawet nie wiesz).


@tell_me_more: hmm wszystko sie zgadza tylko przy zalozeniu, ze AI bedzie mialo dostep do.zasobow jakie mu sie
  • Odpowiedz