Wpis z mikrobloga

Piękna sprawa jeśli chodzi o prawo, etykę i informatykę.

Programiści stworzyli bota, któremu dawali co tydzień 100$ w Bitcoinach, po czym ten miał za zadanie wydać swoje kieszonkowe na co tylko chciał w sklepach Darknetu. Całość chcieli następnie wystawić, wiecie, głęboka sztuka i co taki bot zrobi ze swoim algorytmem i pieniędzmi.
Problem pojawił się, gdy pewnego dnia do programistów przyszła paczka z 10 pigułkami ecstasy, a w następnym tygodniu - podrobiony węgierski paszport.

I teraz programiści mają problem, bo pojawiło się ważniejsze pytanie - kto w tym przypadku złamał prawo? Oni, programując bota, czy sam bot, kupując zakazane przez prawo przedmioty?

http://fusion.net/story/35883/robots-are-starting-to-break-the-law-and-nobody-knows-what-to-do-about-it/

#bitcoin #darkmarket #tor #silkroad #informatyka #prawo #narkotykizawszespoko
  • 22
  • Odpowiedz
@Donk_von_Fisher: najlepsze rozwiązywanie kazusów opiera się na wyolbrzymianiu.
A gdyby ktoś stworzył robota, który w ramach swojej sztucznej inteligencji zdobył jakąś broń i kogoś zabił? Zabójstwo pozostałoby bez winnego? No oczywiście, że nie. Sztuczną inteligencję trzeba tak zaprogramować, by wykluczyć jakiekolwiek działania przestępne, ewentualnie nadzorować każde działanie robota.
  • Odpowiedz
I teraz programiści mają problem, bo pojawiło się ważniejsze pytanie - kto w tym przypadku złamał prawo? Oni, programując bota, czy sam bot, kupując zakazane przez prawo przedmioty?

Ale jaki problem? Powiedzą, że robot posiadał dragi? Nie to oni posiadali dragi.
@Donk_von_Fisher:
  • Odpowiedz
@Donk_von_Fisher: czy jeśli winny jest robot to karanie go będzie bardziej zbliżone do karania dzikiego zwierzęcia czy sterty kamieni?
czy brak kary dla właściciela nie spowoduje czasem że ludzie celowo będą programować roboty łamiące prawo?
czy karanie właściciela będzie sprawiedliwe gdy nie miał on złych intencji programując maszynę?
  • Odpowiedz
@Donk_von_Fisher: Ale gdzie tu problem? To nie jest tak jak ze złośliwym oprogramowaniem? BOT jest tylko narzędziem, odpowiada ten kto je uruchomił. Jak zbuduje w pytkę, morderczą maszynę i puszczę ją na miasto i ona kogoś pokiereszuje, a ja w tym czasie będę w domu jadł czipsy i batony, to co jestem nie winny?
  • Odpowiedz
@Fafnucek: Pytanie też brzmi jednak, czy maszyna została zaprogramowana na bycie morderczą, czy nie. Bo jeżeli nie i coś się popsuje (jeden bit zostanie przekłamany w procedurze do przytulania, że zrobi się miażdżenie), że będzie niebezpieczna, to trudno to ocenić :>
patrolez - @Fafnucek: Pytanie też brzmi jednak, czy maszyna została zaprogramowana na...
  • Odpowiedz
@patrolez: Sprawa dla cwańszych cwaniaków niż ja ( ͡º ͜ʖ͡º) W wypadku sprawy o której napisał @Donk_von_Fisher można przyjąć, iż z samych założeń bot miał łamać prawo. Darkmarket to raczej nie jest sklep ze słodyczami.
Z morderczą maszyną przychodzi mi do głowy jeszcze jedna analogia. Masz wrednego, zabójczego pitbula, szkolonego do różnych okropności. Dopóki trzymasz go na smyczy i w kagańcu i nikomu się
  • Odpowiedz
@mudkipz: ok, ale problem można troche skomplikować:
wyobraź sobie, że mamy autonomiczne auto - i ciąg nieprzewidywalnych zdarzeń - sytuację, w której auto ma wybór (uproścmy), wjechać w drzewo ( i zabić pasażera auta) albo wjechać na chodnik i zabić 1 przechodnia. Zakładam taką sytaucje, w której nadzór człowieka nad maszyną by nie miał żadnego wpływu.

Oczywiście wiadomo, że mózg takiego pojazdu powinien za wszelką cenę uniknąć i tego i
  • Odpowiedz
  • 3
@mudkipz: @bruceivins: @nico112: @serpentes: @Fafnucek: a co jeżeli AI robota było tak stworzone że nie jest nikt w stanie przewidzieć jego następnych zakupów ponieważ opierają się one na zwykłym randomie, albo na podstawie poprzednich zakupów. Moim zdaniem sprawa jest ciekawa i nie ma w niej prostej odpowiedzi.
  • Odpowiedz