Kogo zabije autonomiczny samochód: właściciela czy matkę z dzieckiem?

Czy twój autonomiczny samochód powinien cię zabić, aby uratować grupę przechodniów? Hamulcem rozwoju samochodów bez kierowcy nie jest już technologia, ale brak jasnych, powszechnie akceptowanych zasad etycznych.
z- 483
- #
- #
- #
- #
- #












![[EN]Naukowcy stworzyli syntetyczny organizm...](https://wykop.pl/cdn/c3397993/link_OiqdX2Cz2OBEakaOukpXtD63oWuFzgBe,w220h142.jpg)



Samochód ma jechać po jezdni z punktu A do punktu B i robić to zgodnie z przepisami oraz unikając kolizji. Cała reszta to gimboetyka, bo człowiek w sytuacji skrajnej przede wszystkim będzie chronił siebie/bliskich i to niezależnie od kosztów otoczenia.
"A gdyby grupa przedszkolaków..." - nie.
"A jeśli słoń..." - nie.
Zatrzymanie pojazdu w tym konkretnym miejscu i w danej sekundzie może spowodować w konsekwencji zagładę ludzkości i nikomu nic do tego.
@Trevize: Co ma niby symulować przez te 100 ms? Fizyki nie oszukasz. Jak pojazd ma pęd, to go nie straci od dylematów moralnych procesora. Masa się nie zmniejszy, więc zostaje tylko hamowanie. Kolizja jest
Piszę, że jeśli program jest na 100% pewien kolizji, to powinien wybrać taką drogę, która zapewnia jak najmniejszą energię zderzenia. Tyle. Nic więcej. To rozwiązuje wszystkie problemy.
Pytanie zatem brzmi tak: jak najszybciej wyhamować zanim uderzę w
W porównaniu z komputerem
Poza tym gdzie w Twoim przykładzie jest wypadek czy inna sytuacja nagła?
System kierujący samochodem odmówi dalszej pracy i zatrzyma pojazd prosząc o dalsze prowadzenie przez kierowcę. Co w tym nadzwyczajnego? Tempomaty już działają na podobnej zasadzie.