![]() #религия #опрос #упрт
Предположим, что вам предложили три варианта посмертия на выбор: Первый - идеально подстроенная под ваши личные особенности персональная виртуальность, в которой вы сами не помните, что находитесь в виртуальности. В этой виртуальности нет других личностей, все, с кем вы контактируете - "китайские комнаты", с которыми вы можете творить что угодно. Второй - общая с другими выбравшими вариант комфортная для всех, подстраивающаяся подо всех среда, но личности вас и прочих скорректированы так, чтобы вы все могли сосуществовать со взаимным удовольствием неограниченное время. В чем точно в каждом конкретном случае будет заключаться коррекция - вы не знаете, кроме того, что проводится она в минимально-необходимом объеме. Третий - никаких коррекций личности, общая для всех среда поддается коррекции всех в равно слабой степени, творить друг с другом обитатели среды могут что угодно - никто извне не вмешается. Лучшее посмертиеПубличный опрос
Персональная Матрица (первый вариант) Фрашкард с прохождением через Металл (второй вариант) Лимб/Ад (третий вариант) Проголосовали 46 человек
Голосовать в опросе и просматривать результаты могут только зарегистрированные пользователи 19 октября 2020
1 |
![]() |
Fluxius Secundus Онлайн
|
парадокс "рычага удовольствий" в том что иррациональный человек зачастую не может сам выбрать самую эффективную форму получения удовольствий В нормальной среде - да. Сядешь на крокодил - быстро и мучительно сдохнешь. Но в персональной Матрице-то не так!К слову, самым эффективным способом получения удовольствия в такой матрице были бы именно опиаты, и с точки зрения оптимизации только по критерию удовольствия избегать их в таких условиях иррационально:) |
![]() |
|
Fluxius Secundus
nadeys моему гипофизу тоже нафиг не нужны эмоции и чувстваНе-не, вы запоминаете и делаете выводы. Плюс вы испытываете всякие эмоции и чувства, что изображающей вас "элизе" совершенно не нужно. просто у него инструкция качать серотонин при определённых условиях и он её бездумно выполняет и нейронам коры мозга тоже глубоко плевать какие именно воспоминания они запоминают - им просто приходит электрический код и они его хранят сами не зная зачем 3 |
![]() |
Fluxius Secundus Онлайн
|
nadeys
Показать полностью
Но каким образом можно узнать о наличии сознания в машине? Эта проблема имеет не только абстрактно-философское значение, ибо предположение, что какая-то машина, которая отправляется на лом из-за того, что ремонт не оплачивается, имеет сознание, превращает наше решение уничтожить материальный предмет, типа граммофона, в акт уничтожения индивидуальности, осознанного убийства. Кто-то мог бы оснастить граммофон пластинкой и выключателем таким образом, что, если бы мы сдвинули его с места, то услышали бы крики: "Ах, умоляю, подари мне жизнь!". Как можно отличить такой, без сомнения, бездушный аппарат от мыслящей машины? Только вступая с ней в разговор. Английский математик Аллан Тьюринг (Allan Turing) в своей работе "Может ли машина мыслить?" предлагает в качестве решающего критерия "игру в имитацию", которая основывается на том, что мы задаем Кому-то произвольные вопросы и на основании ответов должны сделать заключение, является ли этот Кто-то человеком или машиной. Если мы не сможем отличить машину от человека, то следует признать, что машина ведет себя как человек, то есть что она обладает сознанием. С поправкой на то, что в случае Матрицы ответы можно читать в памяти спрашивающего.Отметим со своей стороны, что игру можно усложнить. Можно предположить два вида машин. Первый вид является "обычной" цифровой машиной, которая устроена как человеческий мозг; с ней можно играть в шахматы, разговаривать о книгах, о мире и вообще на все темы. Если бы мы ее вскрыли, то увидели бы огромное количество соединений элементов, подобно соединениям нейронов в мозгу, кроме того - блоки ее памяти и т.д. и т.п. Второй вид машины совсем другой. Это увеличенный до размера планеты (или космоса) граммофон. Она имеет очень много, например, сто триллионов, записанных ответов на всевозможные вопросы. Таким образом, когда мы спрашиваем, машина ничего "не понимает", а только форма вопроса, т.е. очередность вибраций нашего голоса, приводит в движение передатчик, который запускает пластинку или ленту с записанным ответом. Не будем задумываться о технической стороне вопроса. Понятно, что такая машина неэкономична, что ее никто не создаст, потому что это невозможно и главное - неизвестно, зачем ее создавать. Но нас интересует теоретическая сторона. Потому что, если вывод о том, имеет ли машина сознание, делается на основе поведения, а не внутреннего строения, не придем ли мы неосмотрительно к выводу, что "космический граммофон" обладает им - и тем самым выскажем нонсенс? (А скорее неправду). Можно ли, однако, запрограммировать все возможные вопросы? Без сомнения, средний человек не отвечает в обычной жизни даже на один их биллион. Мы же на всякий случай записали их во много раз больше. Что же делать? Мы должны вести нашу игру по достаточно развитой стратегии. Мы задаем машине (то есть Кому-то, потому что не знаем, с кем имеем дело; разговор ведется, например, по телефону) вопрос, любит ли она анекдоты. Машина отвечает, скажем, что да, она любит хорошие анекдоты. Рассказываем ей анекдот. Машина смеется (т.е смеется голос в трубке). Или у ней был этот анекдот записан и это позволило ей правильно отреагировать, т.е. засмеяться, или это в самом деле мыслящая машина (или человек, ибо мы этого не знаем). Мы разговариваем с машиной какое-то время, а потом неожиданно спрашиваем, припоминает ли она анекдот, который мы ей рассказали. Она должна его помнить, если она действительно мыслит. Она скажет, что помнит. Мы попросим, чтобы она повторила его своими словами. Вот это уже очень трудно запрограммировать, потому что таким образом мы вынуждаем конструктора "космограммофона" записать не только отдельные ответы на возможные вопросы, но и целые последовательности разговоров, которые могут вестись. Это требует, конечно, памяти, т.е. дисков или лент, которых, может, и вся солнечная система не вместит. Положим, машина не может повторить нашего анекдота. И мы тем самым разоблачаем, что она - граммофон. Задетый конструктор берется за усовершенствование машины таким образом, что пристраивает ей такую память, благодаря которой она сможет вкратце повторить сказанное. Но таким образом он сделал первый шаг в направлении от машины-граммофона к машине мыслящей. Так как бездушная машина не может признать идентичными вопросы аналогичного содержания, но сформулированные даже с незначительными формальными отклонениями, типа: "Вчера было хорошо на улице?", "Вчера была прекрасная погода?", "Погожим ли был предыдущий день?" и т.д. и т.п., то для машины бездушной они будут вопросами различными, а для машины мыслящей - идентичными. Конструктор вновь разоблаченной машины вынужден опять ее перерабатывать. В конце концов, после долгой серии переделок, он введет в машину способности индукции и дедукции, способность ассоциации, схватывания тождественной "формы" по-разному сформулированных, но одинаковых по содержанию высказываний, пока в результате не получит машину, которая просто будет "обычной" мыслящей машиной. Так появляется интересная проблема: когда именно в машине появилось сознание? Предположим, что конструктор не переделывал эти машины, а относил каждую в музей и следующую модель создавал с начала. В музее стоит 10 000 машин, потому что столько было очередных моделей. Результатом стал плавный переход от "бездушного автомата" типа играющего шкафа к "машине, которая мыслит". Должны ли мы признать машиной, имеющей сознание, машину номер 7852 или только номер 9973? Они отличаются друг от друга тем, что первая не умела объяснить, почему она смеется над рассказанным анекдотом, а только говорила, что анекдот очень смешен, а вторая умела. Но некоторые люди смеются над шутками, хотя и не могут объяснить, что именно в них смешно, потому что, как известно, теория юмора - это твердый орешек. Разве эти люди тоже лишены сознания? Нет же, они, наверное, просто не очень быстро реагируют или малообразованные, их ум не обладает навыками аналитического подхода к проблемам; но мы спрашиваем не о том, умная ли машина или скорее туповатая, мы только спрашиваем, имеет ли она сознание или нет. Казалось бы, следует признать, что модель номер 1 имеет ноль сознания, модель номер 10 000 имеет полное сознание, а все средние имеют "все больше" сознания. Это утверждение показывает, насколько безнадежной является мысль о том, что сознание можно точно локализовать. Отсоединение отдельных элементов ("нейронов") машины спровоцирует только слабые, количественные изменения ("ослабления") сознания так же, как это делает в живом мозге прогрессирующий процесс болезни или нож хирурга. Проблема не имеет ничего общего ни с использованным для конструкции материалом, ни с размерами "мыслящего" устройства. Электрическую мыслящую машину можно построить из отдельных блоков, соответствующих, положим, мозговым извилинам. Теперь разделим эти блоки и разместим на всей Земле так, что один находится в Москве, второй в Париже, третий в Мельбурне, четвертый в Иокогаме и т.д. Отделенные друг от друга, эти блоки "психически мертвы", а соединенные (например, телефонными кабелями) они стали бы одной, интегральной "индивидуальностью", единым "мыслящим гомеостатом". Сознание такой машины находится ни в Москве, ни в Париже, ни в Иокогаме, но, в определенном смысле, в каждом из этих городов и, в определенном смысле, ни в одном из них. Потому что о нем трудно сказать, что оно, как Висла, имеет протяженность от Татр до Балтийского моря. Впрочем, подобная проблема демонстрирует, хотя и не так ярко, человеческий мозг, потому что кровеносные сосуды, белковые молекулы и ткани находятся внутри мозга, но не внутри сознания, и опять-таки нельзя сказать, что сознание находится под самым куполом черепа или, скорее всего, ниже, над ушами, по обеим сторонам головы. Оно "рассеяно" по всему гомеостату, по его функциональной сети. Ничего больше заявить на эту тему не получится, если мы хотим соединить сознание с возможностью рассуждать. |
![]() |
|
Fluxius Secundus
дело не в побочных эффектах наркотических препаратов дело в том что "абсолютный кайф" это само по себе ловушка сначала воткнуть в руку капельницу с бесконечным героином потом, поскольку я демиург, отключить симуляцию всего остального мира чтобы ничто не отвлекало от вечного удовольствия - останусь только я и комната с капельницей потом отключить симуляцию тела чтобы бренные жизненные процессы не отвлекали от кайфа - останется только мозг висящий в пустоте с подключённой капельницей потом убрать визуализацию капельницы и создавать чистейший опиат прямо в центре удовольствия потом почерёдно отключать ненужные функции мозга чтобы вообще ничто не мешало кайфовать в конечном итоге останется почти не сознающий себя вечно стимулируемый центр удовольствия висящий посреди абсолютного нигде 1 |
![]() |
|
Fluxius Secundus
не придем ли мы неосмотрительно к выводу, что "космический граммофон" обладает им - и тем самым выскажем нонсенс? (А скорее неправду). Тьюринг был неправ. Он жил сотню лет назад и при всём таланте, не умел мыслить по настоящему абстрактно. Он не мог и не хотел представить мироздание в котором все люди лишь бездумные биороботы живущие по составленной эволюцией программе. |
![]() |
|
nadeys
Да представить это легко, только это реальности не соответствует. Экспериментально фальсифицировано давно. |
![]() |
|
Fluxius Secundus
nadeys читать в чужой голове можно варианты ответовС поправкой на то, что в случае Матрицы ответы можно читать в памяти спрашивающего. но когнитивный блок который выбирает из этих варантов - это уже отдельная сущность |
![]() |
|
grey_area
nadeys эээ... и часто вы ставите эксперименты с участием всесильных демиургов не ограниченных законами физики?Да представить это легко, только это реальности не соответствует. Экспериментально фальсифицировано давно. |
![]() |
Fluxius Secundus Онлайн
|
в конечном итоге останется почти не сознающий себя вечно стимулируемый центр удовольствия висящий посреди абсолютного нигде И в чем проблема?читать в чужой голове можно варианты ответов Веса ответов читать тоже можно. |
![]() |
|
grey_area
тезис - все люди включая меня являются бездумными автоматами под бездумностью подразумевается отстутствие души или иного волшебного центра отвечающего за сознание - разум это результат совместной работы бездумных механизмов мозга доказательство - центр сознания нейробиологи так до сих пор не нашли |
![]() |
|
Бредовая копипаста
|
![]() |
Fluxius Secundus Онлайн
|
Чиорт
Это сумма технологии Лема. |
![]() |
Fluxius Secundus Онлайн
|
доказательство - центр сознания нейробиологи так до сих пор не нашли Привет, доказательство отсутствия, давно не виделись. |
![]() |
|
grey_area
я не получаю академическую зарплату и мне плевать на точность терминов есть такая штука - контекст дискуссии когда обсуждают китайские комнаты и осутствие волшебного центра разума - независимо от вариации терминов очевидно что фраза "все люди бездумные биороботы" подразумевает именно отсутствие души, а не буквальное отсутствие рассуждающих механизмов вообще |
![]() |
Fluxius Secundus Онлайн
|
nadeys
Крч, смысл в том, что в первом варианте эти механизмы минимально-необходимые для имитации, и втч сами эмоций-чувств не испытывают, хоть и изображают. |
![]() |
|
Fluxius Secundus
так уж сложилось что если коробка пустая то в качестве основной гипотезы принято полагать что она пустая |
![]() |
|
Fluxius Secundus
втч сами эмоций-чувств не испытывают, хоть и изображают Но я, допустим, и так не могу гарантированно знать, чувствуют ли что-то окружающие или только имитируют. Поэтому я разницу между первым и третьим не особо понимаю.Бесконечное удовольствие слишком однобокая вещь без контрастов, соответственно, матрица всё равно потенциально будет моделировать разные вещи. Получится не матрица, а восставший из ада, при чём, опять же, в обоих случаях - коллективно люди тоже, вангую, со скуки очень быстро начнут изощряться в выдумках. минимально-необходимые для имитации А вот если именно "минимально необходимые", то болванки будут походить на ботов из игрулин, и тогда, конечно, рано или поздно их станет недостаточно. |
![]() |
|
Fluxius Secundus
эти механизмы минимально-необходимые для имитации Мне кажется вот здесь неточность. Что значит "минимально-необходимые"? Минимально-необходимые чтобы изображать массовку в толпе? Минимально-необходимые чтобы изображать молчаливого таксиста? Минимально-необходимые чтобы изображать скучающую кассиршу в госучреждении? А если я заведу себе лучшего друга и буду с ним вести сложные дискуссии? Насколько детально его психоэмоциональная сфера должна быть "имитирована" чтобы он правдоподобно изображал все ответы, все свои переживания по острым вопросам, постепенную эволюцию точек зрения, тонкие оттенки сарказма и любопытства, едва заметные стороннему наблюдателю тайные мысли и подсознательные страхи? Где эта грань минимальной-достаточности? Не получится ли ненароком что эта грань выше чем мой собственный ограниченный интеллект? 3 |
![]() |
Fluxius Secundus Онлайн
|
А вот если именно "минимально необходимые", то болванки будут походить на ботов из игрулин, и тогда, конечно, рано или поздно их станет недостаточно. nadeys Проектирует-то эту штуку по определению превосходящий интеллект. |
![]() |
|
grey_area
У неё есть вечность, чтобы сходить со мной на свиданку, вполне вероятно, что со своим отчаянным хотением я смогу её заебать до согласия. Люди тоже подвержены манипулированию, насилию и убеждению; никто не живет в вакууме собственных хотелок. А состояние "отчаянно хочу вещь, но не получаю/получаю с трудом" тоже может быть в отдельный период самоцелью - когда надоест всё получать за так, например, или из любви к челленджам. Если же эта разница строгая ("есть запрос -> есть ответ" в первом случае), то болванки сводятся до ботов, а интересность до минимума. 1 |
![]() |
|
Как будто человеку нельзя покопаться в мозгах с помощью достаточно развитой технологии/магии
|
![]() |
Fluxius Secundus Онлайн
|
"Дружба — это оптимум" мелькала уже? В треде - нет. Но я и ее, и Caelum est conterrens, разумеется, читал.Потом не узнаете, но в процессе выбора же знаете. |