Wpis z mikrobloga

Moje pytania do Petera Singera z wczorajszego ama na reddicie.

Pierwsze pytanie:

Hello Professor Singer,

I agree that if you want to be moral, utilitarianism is the way to go. Why would I want to be moral though?

If you could take a pill that makes you more sensitive to other people's suffering (thus making you a better altruist) would you take it? Why?


Jego odpowiedź:

I'd take it, because that would be the right thing to do, and I think it is also the rational thing to do, both in the sense that it is what a purely rational being would do, and in the sense that it is what humans like us who want to live more fulfilling lives should do. I argue for the first of these claims in The Point of View of the Universe, and for the latter in The Most Good You Can Do. Some of the blogs on www.thelifeyoucansave.org also address the question of why being an effective altruist is a personally rewarding thing to do.


Drugie pytanie:

Hello Professor Singer,

I am a PhD student of Robotics from Edinburgh. Some of current robots run with algorithms which rely on punishment and reward system (reinforcement learning). These robots try to complete some task and are in "pain" if they fail. Do you think it is ethical to apply punishment to those agents? What features robot requires to make it equally morally relevant as human?

These algorithms could be rewritten in a way that is functionally equivalent and not using reinforcement learning (i.e. you could not distinguish two robots with different code). Is there any value in doing that?

Do you think we will be able to ultimately disseminate what is so important about pleasure and suffering of others? Is it possible that after some years of research we decide that not caring about other beings' utility is the way to go?


Jego odpowiedź:

Do you think these robots are conscious beings?

I assume not, in which case they are not feeling pain, and so they are not really being punished. I hope that we will never cease to care about the utility of conscious beings! In general, the trend is in the opposite direction (see my book The Expanding Circle - you can find info on it, plus a conversation between me and Robert Wright, here: http://press.princeton.edu/titles/9434.html


#moralnosc #filozofia #nauka #petersinger #ai #utilitarianizm
  • 5
@KurzeJajko: Szczerze mówiąc nie zrobiły na mnie wrażenia. Oczywiście nie spodziewałem się zbyt wiele po krótkich odpowiedziach w AMA. Nie czytałem też książek, które wymienił. Może to by dopełniło odpowiedzi.
@iramusa: Pierwsze pytanie ciekawe i rzeczywiście odpowiedź mało satysfakcjonująca, to tylko odnośnik do książek. Ale drugie wydaje mi się dość oczywiste. O ile generalnie problem świadomości jest trudny (mało powiedziane) i udowodnienie, że coś jest świadome albo nie może być logicznie niemożliwe, to istnieją skrajne przypadki, co do których jesteśmy prawie pewni - jednym z nich jest to, że inni ludzie są świadomi, drugim, że aktualnie istniejące maszyny są nieświadome (prawie
@reneene: Drugie nie wydaje mi się oczywiste. Nic co związane ze świadmością nie jestem dla mnie oczywiste. Nie potrafię nawet określić czym świadomość jest. Zwłaszcza w języku programowania. Nie wiem co miałoby znaczyć, że robot jest świadomy. Można go zaprogrowamować, tak że potrafi rozpoznać swoje odbicie itp.

Jestem za to pewny, że biologiczne mózgi nie są niczym specjalnym w fizyce i potencjalnie algorytm uruchomiony na silikonowym procesorze może być świadomy i
@iramusa:

Jestem za to pewny, że biologiczne mózgi nie są niczym specjalnym w fizyce i potencjalnie algorytm uruchomiony na silikonowym procesorze może być świadomy i czuć tak jak my. Tak skomplikowanych algorytmów jeszcze nie ma.

Zgadzam się.

Nawet jeżeli już mielibyśmy jakąś definicje świadomości, nie do konca rozumiem dlaczego cierpienie bytów nieświadomych nie jest ważne a świadomych jest.

Cierpienie może istnieć tylko w świadomości, z definicji. Mogę przyjąć, że sygnalizacja świetlna