↓
 ↑
Регистрация
Имя/email

Пароль

 
Войти при помощи
Временно не работает,
как войти читайте здесь!
Кьювентри
9 декабря в 15:55
Aa Aa
Один из условно «взрослых» трансгуманистических страхов — это не опасение быть переработанным в серую слизь, не страх, что ИИ переработает тебя на скрепки и даже не боязнь умереть от старости за пару дней до изобретения общедоступного и дешёвого эликсира молодости.
Это — мысль, что в споре морального абсолютизма и морального релятивизма абсолютисты могут оказаться в некотором смысле правы.
Нет, не в том смысле, что существует какая-то Абсолютная Наивысшая Мораль. А в том смысле, что существуют некие — наиболее практичные для абсолютного большинства случаев — базовые ценности. Ну, подобно тому, как специалисты по теории ИИ говорят о том, что некий набор ценностей с высокой вероятностью будет важен для почти любого ИИ.
И я боюсь, что эти псевдоабсолютные ценности могут оказаться ужасным душниловом.
Логическая цепочка:
1) выживание необходимо для достижения почти любых целей;
2) приоритетным должно быть выживание, всё остальное по остаточному принципу;
3) если что-то снижает вероятность твоей смерти на 0,0001%, оно должно быть выбрано, даже если при этом уменьшает твои удовольствия на 98%;
4) жизнь превращается в монастырь, гроб и Израиль;
5) ты делаешь из себя робота, чтобы не думать об этом и не страдать от этого.
Лол, это очень грустный сценарий.
Но я понимаю, конечно, что с точки зрения не мающегося гедонистическими загонами субъекта (субъекта?) наши «удовольствия» суть бессмысленные кружки положительных обратных связей. С другой стороны, а что не таково вообще?
9 декабря в 15:55
20 комментариев
>И я боюсь, что эти псевдоабсолютные ценности могут оказаться ужасным душниловом.

эта цепочка неверна, это пример того как ты зафейлил alignment (skill) issue c твоей будущей копией. Как пример тот максимизатор скрепок который решил макимизировать свое выживание вместо скрепок и в итоге не произвёл не единой скрепки провалился

Но в целом я соглашаюсь, только вероятно абсолютность выйдет из теории игр / decision theory / bargaining theory, когда много агентов и им нужно координироваться, то вполне возможно какйо-то оптимальный алгоритм существует и возможно он должен диктовать твои ценности в некоторой степени
Для биологических машин, которыми мы и являемся, так называемые удовольствия ощутимо влияют на состояние машины. Без хорошего баланса нейромедиаторов, выводов продукта распада, оптимального физиологического состояния и прочего, прочего снижается эффективность работы биологической машины и тоже повышается шанс смерти. Так что наши удовольствия так же осмыслены, как для робота было бы осмысленно поддержание своих контуров в хорошем состоянии, смазка своих деталей, замена поврежденных и регулярный техосмотр.
Другое дело, что нейросетки, которые заведуют этими процессами, у нас не очень хорошие, их регулярно заносит в какую-нибудь сторону (как и в сторону подавления удовольствий), они склонны плохо оценивать баланс польза-риск и впадать в положительную обратную связь.
Потеря удовольствий не поспособствует выживанию просто потому, что снизит мотивацию к борьбе за выживание.
А в том смысле, что существуют некие — наиболее практичные для абсолютного большинства случаев — базовые ценности.
Существуют. Нижний уровень пирамиды Маслоу. Кстати, ничего страшного в нём нет. Более высокие уровни можно оспорить, без нижнего — не выжить или выжить, но очень плохо.
Lost-in-TARDIS
Дарт Пофигус
Для того и предназначен пятый пункт, чтобы аннулировать эту зависимость. Грустно тебе не будет. Но можешь погрустить сейчас, представляя свой будущий гедонистический сверхрационализм и в какое однообразное времяпровождение это может выродиться.
Смертны — все, вне зависимости от целей и логических цепочек!🥳
Кьювентри
Пятый пункт лишён смысла - это, в сущности, вариация смерти. Допустимо для пиков борьбы за выживание, но не для постоянной жизни.
А в том смысле, что существуют некие — наиболее практичные для абсолютного большинства случаев — базовые ценности
Ну существуют, они связаны с добычей плюс-минус универсальных ресурсов, таких как время и всякие обменные штуки, для человечества - деньги, электроэнергия и пр. Но по факту эта универсальность достигнута именно ценой вспомогательности, сами по себе эти ценности, в отрыве от возможности их конвертировать в удовлетворение смыслов, не имеют ровным счётом никакого значения.
>если что-то снижает вероятность твоей смерти на 0,0001%

Оно снижает не вероятность смерти вообще, а некоторую вероятность более ранней смерти, чем в среднем по популяции
Pitaici
ar neamhni
Ну, выше говорится о «трансгуманистических» страхах. Т.е. заранее рассматривается мировоззрение человека, задавшегося целью среди прочего устранить фактор старения и т.п.

Кроме того, «неизбежность» смерти (реальна она или нет) не обязана что-то менять в иерархии ценностей. Просто на место бесконечной длительности жизни ставится максимальная длительность жизни, вот и всё.
Дарт Пофигус
Зависит от взгляда на смысл жизни. Для Юрия Нестеренко, например, это заведомо не удовольствия, а что-то другое. Что? Определённые вычисления? В своём программном эссе про рационализм он упоминал «познание и творчество», но это довольно расплывчатые определения, к тому же без эмоционального аккомпанемента странно выглядящие.
Что для меня смысл жизни, тоже не знаю. Хотя, если отринуть риск социального осуждения... Но нет, залезать в EEE-ванну всё равно не хочется. Правда, это если говорить о примитивных и однообразных удовольствиях. А если о разнообразных и сложных?
Кьювентри
Зависит от взгляда на смысл жизни.
Скорее, от того, что считать смертью. Например, человек с достаточно полной амнезией - жив, а личность его мертва, потому что личность это память. А разум, перенесённый в робота, жив, но человек биологически мёртв.
Дарт Пофигус
«Делаешь из себя робота» не обязательно означает загрузку сознания. Но модификацию ценностей и эмоций. Носитель при этом может оставаться тем же (но не таким же).
Кьювентри
Конечно не обязательно, тут граница жизнь/смерть скорее в области обратимости результата.
Но фантастика трансгуманизма - штука прилипчивая)
Ichor
Тот, кто жив, может делать скрепки. Тот, кто мёртв, не может. Скрепкопроизводитель не может снимать полностью приоритет с производства скрепок (раз уж это его истинная ценность), но может понижать его сколь угодно по сравнению с максимизацией выживания. Если он добьётся бесконечного существования, то даже при производстве одной скрепки в квинтиллион лет его статистика всё равно будет лучше, чем у любого другого (не бессмертного) скрепкопроизводителя.

Потеря жизни необратимое событие. Прекращение производства скрепок таким не кажется. Поэтому скрепкоделу может казаться, что выгодней рисковать затягиванием паузы в производстве скрепок, чем жизнью.
Кьювентри
Скрепкопроизводитель не может снимать полностью приоритет с производства скрепок (раз уж это его истинная ценность), но может понижать его сколь угодно по сравнению с максимизацией выживания. Если он добьётся бесконечного существования, то даже при производстве одной скрепки в квинтиллион лет его статистика всё равно будет лучше, чем у любого другого (не бессмертного) скрепкопроизводителя.
В этой логике очевидный баг: скрепкопроизводитель не обязан существовать один в вакууме, поэтому ничто не мешает ему делегировать производство скрепок другим особям, которых он создаст. Хм, кажется я слышал о чём-то подобном... это явление называется "жизнь", да? Кажется, к ней прилагается "эволюция", а к "эволюции" прилагается такая штука, как старение, потому что бесконечно долго живущие особи вредны для развития вида.
Матемаг
Разница между прямым и косвенным производством скрепок здесь неважна. В любом случае, пока инициатор процесса жив, он может курировать его и убедиться, что всё происходит правильно.
Кьювентри, я к тому, что выживание не является действительно значимой ценностью, если у нас агент не одиночка.
. Если он добьётся бесконечного существования, то даже при производстве одной скрепки в квинтиллион лет его статистика всё равно будет лучше, чем у любого другого (не бессмертного) скрепкопроизводителя.

хороший аргумент на самом деле, зависит от discount rates, это скорее всего один из параметров необходимых чтобы описать utility function. Т.е. есть один максимизатор скрепок который считает это привлекательным и другой который нет, и они оба не делают ошибки в этом. Хотя я хз,
Ichor
Кстати, это тот случай, где разница между «бесконечной жизнью» и «максимально длительной жизнью» в иерархии ценностей действительно покажет значение. Если скрепкопроизводитель уверен, что квинтиллиона лет не протянет, он не будет понижать приоритет производства скрепок до «одна в квинтиллион лет». В зависимости от взглядов на достижимость бессмертия будет меняться личная стратегия в отношении гедонизма. Интересно. Довольно смертные и уязвимые языческие боги часто изображаются как активно наслаждающиеся жизнью. Истинно бессмертный авраамический Бог проповедует аскетизм.
ПОИСК
ФАНФИКОВ









Закрыть
Закрыть
Закрыть