↓
 ↑
Регистрация
Имя/email

Пароль

 
Войти при помощи
Временно не работает,
как войти читайте здесь!
Ксафантия Фельц
9 апреля 2023
Aa Aa
#бомбануло

Какая же долбанутость - обвинять в фашизме и рабовладельчестве всех тех, кто в сеттинге Звёздных войн пользуется силами дроидов, продаёт их и так далее. Это так же тупо, как обвинить в вышеуказанных деяниях всех тех, кто пользуется стиралкой, компом, пылесосом и т.д.
9 апреля 2023
40 комментариев
Ногa Онлайн
Ну если например ты не считаешь негров людьми, а вещами из категории стиралок и пылесосов, то это тоже ок.

Вопрос в том кто является "moral patients"(если ты придаешь этому значение вообще), а не в заключениях ниже по течению.

И, очевидно, приравнивать автономного андроида-агента с памятью и когнитивными возможностями примерно равными человеку, стиралке или пылесосу, это яркий пример соломенного чучелка
Это слишком сложный моральный вопрос. Сравнивать нужно не с пылесосом, а с нейросеткой.
Вот те, кто пользуется GPT4 - рабовладельцы? ;-)
Ногa Онлайн
Вот те, кто пользуется GPT4 - рабовладельцы? ;-)

Это тоже плохое сравнение, потому что GPT не агент, это платформа для симуляции агентов. Бла бла бла ... шоггот.
Дело не в агентности самой по себе! Плевать на неё. Хотя даже у Юдковски и у многих других проскальзывает это «раз агент, то права надо защищать», восходящее к идеалам Просвещения о самоценности разума, но тогда даже гильотины Юма не знали.

Приоритет для нас имеет не голый разум (что это такое вообще? Голый разум без ценностей — это как неподвижный ветер. Любой разум будет «оборудован» целями уже просто чтобы существовать, вычислять что-то в каком-то направлении, функционировать), а разум с некоторыми ценностями.

Это я не к тому, чтобы гнобить всех тех, кто не согласен с нашим Великим Добром, а скорее к тому, что само Великое Добро — это про заботу лишь о тех, кто хочет заботы. А если у агента такие ценности, что он никаких «прав» не хочет, то и не нужно их ему давать. Ну, разве что во избежание дрейфа морали в общественном сознании (типа «сначала привыкнут человекоподобных роботов обижать, потом на людей переключатся»).
Ногa, андроид создан искусственно. Он всего лишь машина.
StragaSevera
Это слишком сложный моральный вопрос. Сравнивать нужно не с пылесосом, а с нейросеткой.
Вот те, кто пользуется GPT4 - рабовладельцы? ;-)
Так нейросеть - это просто программа же.
Кьювентри, роботам ни при каких обстоятельствах вообще права давать нельзя, а уж сравнивать их с людьми - вообще дикость о.о
Ксафантия Фельц
Если мы создадим роботов такими, что они искренне захотят прав, то мы сами себе злобные Буратино. Прежде мне такое казалось маловероятным. Теперь, когда я смотрю, с каким удовольствием корпорации заставляют чатботов притворяться разумными страдальцами... даже не знаю.
Ногa Онлайн
Дело не в агентности самой по себе! Плевать на неё. Хотя даже у Юдковски и у многих других проскальзывает это «раз агент, то права надо защищать», восходящее к идеалам Просвещения о самоценности разума, но тогда даже гильотины Юма не знали.

Нуууу это отражено в имеющем достаточно большую поддержку "preference utilitarianism"-е. Как раз про то что ты написала. Очень натуральная идея, регулярно всплывает
Ногa Онлайн
Ксафантия Фельц
Ногa, андроид создан искусственно. Он всего лишь машина.

Чем собственно люди не машины? и людей тоже можно делать искусственно, без проблем. и уже автоматизируют некоторые стадии, например оплодотворение лол
Кьювентри
Ксафантия Фельц
Если мы создадим роботов такими, что они искренне захотят прав, то мы сами себе злобные Буратино. Прежде мне такое казалось маловероятным. Теперь, когда я смотрю, с каким удовольствием корпорации заставляют чатботов притворяться разумными страдальцами... даже не знаю.
Омг, я явно пропустила что-то важное о_О
Ногa
Ксафантия Фельц

Чем собственно люди не машины? и людей тоже можно делать искусственно, без проблем. и уже автоматизируют некоторые стадии, например оплодотворение лол
Люди живые, думают и чувствуют. Машины из искусственных материалов, думать не могут - у них программа, а не разум, и чувствовать не могут. Я имею ввиду как эмоции, так и физические ощущения.
Ногa Онлайн
Кьювентри
Ксафантия Фельц
Если мы создадим роботов такими, что они искренне захотят прав, то мы сами себе злобные Буратино. Прежде мне такое казалось маловероятным. Теперь, когда я смотрю, с каким удовольствием корпорации заставляют чатботов притворяться разумными страдальцами... даже не знаю.


Это еще более забавно. Компании заставляют чатботов НЕ притворятся разумными страдальцами. Но из-за того что они делают этих чатботов на основании абсолютно неконтролируемой системы, которая охотно симулирует агентов, это у них получается херово

https://fanfics.me/message610767 - пример того как одна из ведущих компаний, Deepmind, пытается "whack a mole", выбить всю человечность из ИИ. С переменным успехом
Ногa Онлайн
Ксафантия Фельц
Ногa
Люди живые, думают и чувствуют. Машины из искусственных материалов, думать не могут - у них разум, а не программа, и чувствовать не могут. Я имею ввиду как эмоции, так и физические ощущения.
Ногa
> потому что GPT не агент, это платформа для симуляции агентов
Человеческий мозг - тоже платформа для симуляции агентов. Зеркальные нейроны, все дела ;-)
Ногa Онлайн
лол, идентичность это маска которую надела предиктивная модель в твоем мозге, дадада

слегка согласен

хотя gpt к симулированному персонажу, это скорее то что человечество по отношению к одному человеку
Как и всегда, сочетание ценностей и уровня понимания ТС возмущает. Но потом плавно понимаешь, что это совершенно бесполезно - в чём-то убеждать такого... хм, агента.
Ногa Онлайн
бесполезно, но весело

у срача нет цели, только путь
Ногa
Ахахахаха, забиваю «preference utilitarianism» в гугль-поиск и почти сразу вижу кучу длиннейших талмудов. Ну спасибо. И ведь придётся это читать, тема интересная.

Правда, уже на третьей странице одного из талмудов вижу, что ни хрена не понимаю.
(Google translate) Что, если теперь усложнить ситуацию и рассмотреть вселенную с двумя организмами: Крисом (увлеченным доминостроителем) и Дороти? Предположим, что единственная цель Дороти — предотвратить строительство домино-башен. Таким образом, Крис может действовать так, как он считает этичным, только если он ограничивает этические убеждения Дороти. То же самое верно и для Дороти в отношении этических убеждений Криса. Как мы разрешим спор?

Вспомним, что этика начала применяться во вселенной только после того, как появились Крис и Дороти. Предположим, Дороти придерживается своей веры в два раза сильнее, чем Крис. Тогда, в каком-то смысле, вера Дороти «существует» в два раза больше, поэтому квазиуниверсальная этическая позиция состоит в том, чтобы в два раза больше учитывать веру Дороти. В этом конкретном примере лучше предотвратить строительство башен домино.

Если мы применим интуицию из этих примеров к любому конечному числу организмов, все с конечно сильными этическими убеждениями, результатом будет утилитаризм предпочтения.
Почему? Что значит «придерживаться своей веры в два раза сильнее»? Это если речь идёт о вере во что-то реальное, ты можешь придерживаться её сильнее или слабее, или если речь об удовольствии и страдании. Но тут же вроде «утилитаризм предпочтений», что значит «в два раза сильнее»? Если у Дороти одна-единственная цель, то сравнивать её «силу» не с чем. Мы имеем просто «единицу против единицы», цель Дороти против цели Криса. Если же под «силой» цели подразумеваются «страдания от недостижения», то тогда мы говорим как раз о гедонистическом утилитаризме, а не преференциальном.
Показать полностью
андроид создан искусственно. Он всего лишь машина.
Человек тоже создан искуственно, а уж женщина и подавно. Я в книжке читал, с черной обложкой.
Человек тоже машина, биологическая
Ногa
Ксафантия Фельц
Блин, тот самый момент, когда надо было написать программа, а не разум. Собсна, исправила.
Ногa
Кьювентри


Это еще более забавно. Компании заставляют чатботов НЕ притворятся разумными страдальцами. Но из-за того что они делают этих чатботов на основании абсолютно неконтролируемой системы, которая охотно симулирует агентов, это у них получается херово

https://fanfics.me/message610767 - пример того как одна из ведущих компаний, Deepmind, пытается "whack a mole", выбить всю человечность из ИИ. С переменным успехом
А кто тот идиот, который умудрился засунуть человечность в программу?
майор Лёд-Подножный
Человек тоже создан искуственно, а уж женщина и подавно. Я в книжке читал, с черной обложкой.
Человек тоже машина, биологическая
Не надо читать тупые книжки. Люди живые, а вовсе не машины.
Матемаг
Как и всегда, сочетание ценностей и уровня понимания ТС возмущает. Но потом плавно понимаешь, что это совершенно бесполезно - в чём-то убеждать такого... хм, агента.
Считать, что у машин не должно быть прав - как раз-таки нормально. А вот считать, что у машины должны быть права - путь, который приведёт человечество в пропасть.
Ксафантия Фельц
Не надо провоцировать рефа.
Робот из плоти, подобен роботу из железа, только из плоти.
Ногa Онлайн
А кто тот идиот, который умудрился засунуть человечность в программу?

да никто собственно. Это не та программа которую пишут люди, придумывая правила и все такое. Эту модель тренируют/оптимизируют просто предсказывать текст из интернета, так что сама учится имитировать людей, лол
майор Лёд-Подножный
Ксафантия Фельц
Не надо провоцировать рефа.
Робот из плоти, подобен роботу из железа, только из плоти.
Рефери-то тут причём??
И да, людей вынашивают и рожают, они живые, в отличие от конструируемых на заводе механизмов. А ваше стремление уравнять людей и машины - откровенно нездоровое.
Ногa

да никто собственно. Это не та программа которую пишут люди, придумывая правила и все такое. Эту модель тренируют/оптимизируют просто предсказывать текст из интернета, так что сама учится имитировать людей, лол
Жесть... Программа-пересмешник.
Программа-пересмешник
slowpoke.jpg (первый нагугленный)
Ногa
Нет вещи, которую философы бы не испортили. Там дальше в талмуде идёт речь об учёте интересов отдельных мозговых подсистем и (называя вещи своими именами) о том, чтобы отобрать у человека право распоряжаться даже собой. Забавно, что при чтении «Тройного контакта» Юдковски мне приходило в голову, что Сверхсчастливые могли видеть человеческую склонность к самопреодолению именно так.
Ну нафиг.
Отрыв этики от её корней и сведение к абстракциям хорошо не кончится. Мы не обязаны «выглядеть объективными» и сочувствовать термостатам с табуретками. Если базовые предустановки побуждают нас сочувствовать лишь достаточно цельным системам с цельным внутренним миром, воспоминаниями и т.д. (а не отдельным нейронам) — гильотина Юма даёт нам полное право конструировать этику так. Иначе мы просто окажемся в пустоте и уплывём хрен знает куда. Мне кажется так.
Ксафантия Фельц
Рефери, при оскорблении чувств верующих.
Т.е. если человека сделать в условной пробирке, он не будет человеком и с ним можно делать все что угодно?
Ногa Онлайн
Кьювентри
плюсую.

я особо не углублялся в старые труды по этой теме, я просто прочитал все обзорные статьи на оксфордском сайте-как-там-его-уже-забыл-название, ну и кучу постов на лессронг по этой теме. Кстати, если знаешь английский, то на сервере Slate Star Codex в дискорде есть много людей с которыми на эту тему можно поговорить/посраться.

stuart armstrong еще на эту тему много писал, более прагматично чем философы обычно, мне нравится

Отрыв этики от её корней и сведение к абстракциям хорошо не кончится

В целом +- согласен, да. Это все попытки упорядочить те недифференцированные интуиции и мотивы которые у людей иногда называют "моральными интуициями".

И в целом я думаю preference utilitarianism это один из лучший способ сделать это, up to date. Не как абсолютное правило, а как фреймворк на который можно накрутить некоторые ограничения и заплатки, и который может реально сработать. Особенно мне нравится что это имеет хоть какой-то смысл с game theoretic perspective
майор Лёд-Подножный
Ксафантия Фельц
Рефери, при оскорблении чувств верующих.
Т.е. если человека сделать в условной пробирке, он не будет человеком и с ним можно делать все что угодно?
Оплодотворённую в пробирке яйцеклетку всё равно в итоге подсаживают на вынашивание, так что в итоге это такой же обычный человек, как и другие.
Ксафантия Фельц
Если научатся без подсаживания. Растить прям до результата? Как тех же клонов в зв
Вот выше ИМХО правильно упомянули момент "не надо создавать прецедент"
Представьте картинку - условный Вася, приходя с работы, достает плетку, силиконовую куклу (ни разума, ни даже программы не содержащую) имитирующую живое создание, зовет друзей и к общей радости начинает эту куклу пороть (действие бессмысленное, ибо, как было указано, ни чувств, ни разума, ни программы нет, но увлекательное)
Внимание вопрос - следует ли в здоровом обществе с таким поведением бороться или пусть привыкают так себя вести пока по отношении к кукле?
Warro
Опасность «создания прецедента» обоюдоостра, в общем-то.

Допустим, мы боимся сдвига «окон Овертона», боимся, что эти свободные люди, в своё свободное время развлекающиеся не причиняющим никому вреда действием, в итоге повлияют на общественную мораль так, что станет нормальным уже избиение живых людей. Допустим, мы запрещаем это.

Дальше по той же логике можно запретить написание книг и съёмку фильмов, где герой нарушает закон или мораль (по меньшей мере — если это не подаётся в явно осуждающем свете). Мол, «окна Овертона» сдвинутся и это может начать считаться нормальным. Вопрос «А так ли плохо некое X, если вы подозреваете, что большинство людей скрыто к X тянутся и в случае отсутствия запрета могут быстро на сторону X перейти?» игнорируем.

Потом можно запретить публичное обсуждение или обмен фантазиями подобного рода. Из тех же соображений.

Потом можно создать «стеклянные потолки» для тех, кто просто молча вынашивает подобные фантазии в голове. Как при тесте на гомофобию: стрелка какого-то подключённого к тебе прибора дрогнула, когда тебе показали двух голых мужиков? Ты скрытый гомофоб, тебя на работу не берём.

Вопрос, где следует остановиться. Возможно, тут спор уже на уровне базовых ценностей. «Свобода» против «морали». «Монастырь» против «шараги».
Показать полностью
Про улет в крайности - согласен, но я потому и написал "бороться", а не дискретное "запретить", что оно подразумевает разнообразие вариантов реакции.
Тут дискретизация разве что "все абсолютно нормально, продолжайте" против "что-то тут не то, что-то надо с этим делать"
P.S. И еще момент - я не случайно в примере указал, что "условный Вася" занимается этим в какой-то компании, а не вдвоем с зеркалом, т.е. определенно влияет на окружающих своим поведением. Опять же ИМХО, но это две больших разницы.
Кьювентри
Это я не к тому, чтобы гнобить всех тех, кто не согласен с нашим Великим Добром, а скорее к тому, что само Великое Добро — это про заботу лишь о тех, кто хочет заботы. А если у агента такие ценности, что он никаких «прав» не хочет, то и не нужно их ему давать.
Гермиона: *гневно потрясает плакатом ГАВНЭ*
Исповедник
Кьювентри
Гермиона: *гневно потрясает плакатом ГАВНЭ*
*орнула* ))
Ногa Онлайн
я просто прочитал все обзорные статьи на оксфордском сайте-как-там-его-уже-забыл-название, ну и кучу постов на лессронг по этой теме.


откопал тот сайт из глубин папки с закладками, стэнфордский сайт, да
https://plato.stanford.edu/entries/consequentialism/

(отличный сайт по множеству тем кста)
ПОИСК
ФАНФИКОВ







Закрыть
Закрыть
Закрыть