9 апреля 2023
|
|
Ногa
Ахахахаха, забиваю «preference utilitarianism» в гугль-поиск и почти сразу вижу кучу длиннейших талмудов. Ну спасибо. И ведь придётся это читать, тема интересная. Правда, уже на третьей странице одного из талмудов вижу, что ни хрена не понимаю. (Google translate) Что, если теперь усложнить ситуацию и рассмотреть вселенную с двумя организмами: Крисом (увлеченным доминостроителем) и Дороти? Предположим, что единственная цель Дороти — предотвратить строительство домино-башен. Таким образом, Крис может действовать так, как он считает этичным, только если он ограничивает этические убеждения Дороти. То же самое верно и для Дороти в отношении этических убеждений Криса. Как мы разрешим спор? Почему? Что значит «придерживаться своей веры в два раза сильнее»? Это если речь идёт о вере во что-то реальное, ты можешь придерживаться её сильнее или слабее, или если речь об удовольствии и страдании. Но тут же вроде «утилитаризм предпочтений», что значит «в два раза сильнее»? Если у Дороти одна-единственная цель, то сравнивать её «силу» не с чем. Мы имеем просто «единицу против единицы», цель Дороти против цели Криса. Если же под «силой» цели подразумеваются «страдания от недостижения», то тогда мы говорим как раз о гедонистическом утилитаризме, а не преференциальном.Вспомним, что этика начала применяться во вселенной только после того, как появились Крис и Дороти. Предположим, Дороти придерживается своей веры в два раза сильнее, чем Крис. Тогда, в каком-то смысле, вера Дороти «существует» в два раза больше, поэтому квазиуниверсальная этическая позиция состоит в том, чтобы в два раза больше учитывать веру Дороти. В этом конкретном примере лучше предотвратить строительство башен домино. Если мы применим интуицию из этих примеров к любому конечному числу организмов, все с конечно сильными этическими убеждениями, результатом будет утилитаризм предпочтения. |