↓
 ↑
Регистрация
Имя/email

Пароль

 
Войти при помощи
Временно не работает,
как войти читайте здесь!
Fluxius Secundus Онлайн
19 октября 2020
Aa Aa
#религия #опрос #упрт
Предположим, что вам предложили три варианта посмертия на выбор:
Первый - идеально подстроенная под ваши личные особенности персональная виртуальность, в которой вы сами не помните, что находитесь в виртуальности. В этой виртуальности нет других личностей, все, с кем вы контактируете - "китайские комнаты", с которыми вы можете творить что угодно.
Второй - общая с другими выбравшими вариант комфортная для всех, подстраивающаяся подо всех среда, но личности вас и прочих скорректированы так, чтобы вы все могли сосуществовать со взаимным удовольствием неограниченное время. В чем точно в каждом конкретном случае будет заключаться коррекция - вы не знаете, кроме того, что проводится она в минимально-необходимом объеме.
Третий - никаких коррекций личности, общая для всех среда поддается коррекции всех в равно слабой степени, творить друг с другом обитатели среды могут что угодно - никто извне не вмешается.

Лучшее посмертие

Публичный опрос

Персональная Матрица (первый вариант)
Фрашкард с прохождением через Металл (второй вариант)
Лимб/Ад (третий вариант)
Проголосовали 46 человек
Голосовать в опросе и просматривать результаты могут только зарегистрированные пользователи
19 октября 2020
45 комментариев из 71 (показать все)
Fluxius Secundus Онлайн
Поскольку и первый, и второй подразумевают уже не меня.
А первый почему?

В рай жестокие критерии отбора, и большинство даже хороших людей им не соответствует, так что Богу, буде он существует

Критерии отбора: "Тогда скажет Царь тем, которые по правую сторону Его: «приидите, благословенные Отца Моего, наследуйте Царство, уготованное вам от создания мира:
ибо алкал Я, и вы дали Мне есть; жаждал, и вы напоили Меня; был странником, и вы приняли Меня; был наг, и вы одели Меня; был болен, и вы посетили Меня; в темнице был, и вы пришли ко Мне». Тогда праведники скажут Ему в ответ: «Господи! когда мы видели Тебя алчущим, и накормили? или жаждущим, и напоили? Когда мы видели Тебя странником, и приняли? или нагим, и одели? Когда мы видели Тебя больным, или в темнице, и пришли к Тебе?» И Царь скажет им в ответ: «истинно говорю вам: так как вы сделали это одному из сих братьев Моих меньших, то сделали Мне». Тогда скажет и тем, которые по левую сторону: «идите от Меня, проклятые, в огонь вечный, уготованный диаволу и ангелам его: ибо алкал Я, и вы не дали Мне есть; жаждал, и вы не напоили Меня; был странником, и не приняли Меня; был наг, и не одели Меня; болен и в темнице, и не посетили Меня».
Тогда и они скажут Ему в ответ: «Господи! когда мы видели Тебя алчущим, или жаждущим, или странником, или нагим, или больным, или в темнице, и не послужили Тебе?»
Тогда скажет им в ответ: «истинно говорю вам: так как вы не сделали этого одному из сих меньших, то не сделали Мне».И пойдут сии в му́ку вечную, а праведники в жизнь вечную.
(Св. Евангелие от Матфея 25:34-46)

Что ж, реально "жесткие, невозможные критерии". Прям никто не справится. Смирение и милосердие - вот и все критерии. Проблема в том, что достичь их сложно. А сами по себе они не сложны.
Показать полностью
И в первом, и в третьем есть вероятность, что внешние объекты разумны непроверяемо.
1. Сделав выбор, но не запомнив какой именно, смогу ли я (допустим, при учете бесконечного количества времени) определить, выбрала 1 или 3?
2. Способен ли первый вариант сгенерировать события более высокой степени нереалистичности, чем в третьем варианте? Например, из мысленных ожиданий моего разума смоделировать наименее человекоподобные объекты/явления?
3. Могут ли болванки действовать неожиданным для меня образом? Опираются ли они на прямой запрос или на некий мыслительный импульс?
Fluxius Secundus Онлайн
1. Сделав выбор, но не запомнив какой именно, смогу ли я (допустим, при учете бесконечного количества времени) определить, выбрала 1 или 3?
В первом случае вы не помните самого выбора.

2. Способен ли первый вариант сгенерировать события более высокой степени нереалистичности, чем в третьем варианте? Например, из мысленных ожиданий моего разума смоделировать наименее человекоподобные объекты/явления?
Вы не можете сравнить 1 и 3 непосредственно. Но можно предположить, что Матрица из первого варианта содержит не только информацию из головы помещенного в нее человека, но и какое-то количество шума иной информации.

3. Могут ли болванки действовать неожиданным для меня образом? Опираются ли они на прямой запрос или на некий мыслительный импульс?
Могут, разумеется.
Если оно выглядит как утка и крякает как утка - то это утка. Если виртуальное существо правдоподобно симулирует разум, то значит оно разумно. Я китайская комната и взаимодействие с другими китайскими комнатами меня не смущает.

Главный аргумент против первого сценария - эффект "рычага удовольствия". Будучи всесильным демиургом я просто наколдую себе вечный кайф и проведу вечность в бесплодном забытье.
Третий сценарий очень неприятен потому что пусть смерти и нет, зато есть прижигание паяльником, афганский тюльпан, рабство, изнасилования и много прочего веселья которое одни разумные могут сделать с другими разумными.

Реальность трансформируется коллективными желаниями что с немалой вероятностью породит разные взаимные мистические ужасы.
А первый почему?
в которой вы сами не помните, что находитесь в виртуальности.
Коррекция памяти = коррекция личности.
Второе оптимально - меня и чительниц литнета в разумных пределах трансформируют друг к другу и мы будем жить мире в котором гармонично сочетаются приятные удовольствия, интересные проекты, сочные кинки, и капелька безопасного вархаммера дабы не становилось скучно.
Fluxius Secundus Онлайн
grey_area
в которой вы сами не помните, что находитесь в виртуальности.
Коррекция памяти = коррекция личности.
Но люди все время что-то забывают. По отношению же к вам текущему это все равно, что запихнуть в такую виртуалку, ничего не спрашивая и не объясняя.
nadeys
Меня удивила редкость этой позиции в комментариях. По китайской комнате - нет, для её создания нужен разум, но сама она его не имеет.
Fluxius Secundus Онлайн
nadeys


Главный аргумент против первого сценария - эффект "рычага удовольствия". Будучи всесильным демиургом я просто наколдую себе вечный кайф и проведу вечность в бесплодном забытье.
А в чём разница с вечным существованием в матрице же, но не в забытье?
Fluxius Secundus Онлайн
Странно, что никто не предложил добавить опцию связи между 2 и 3 (связь с 1 противоречит концепции эхо-матрицы) с возможностью позже подать заявку на переезд в 2, с коррекцией под 2.
По отношению же к вам текущему это все равно, что запихнуть в такую виртуалку, ничего не спрашивая и не объясняя.
Именно так. И мне это бы совершенно не понравилось.
Смирение и милосердие - вот и все критерии. Проблема в том, что достичь их сложно
Ну так я и говорю, критерии жёсткие, что не так?
Суть в том, что все мы грешники, и прежде, чем войти в рай, должны претерпеть некое изменение, доведение до совершенства.
Fluxius Secundus
Так не говорит никто, что челленджа не будет. Но тот, который будет - будет приятным из-за того, что подправили или создателя челленджа, или вас.
Ну, допустим, люблю я, откровенно говоря, в конфликтах выигрывать – а второй вариант подразумевает изначальное согласие всех со всеми (да ещё и принуждённое). Видится такая себе коммуна без общего врага. Или институт, в котором ты не можешь проявить свои качества.
Я в таком обществе на первом десятилетии посмертия загнусь))
Не вижу ничего плохого в изменении личности. Если кто-то возьмёт мои плохие качества и заменит на хорошие, я хоть сейчас согласна.
Опричница
люблю я, откровенно говоря, в конфликтах выигрывать - а второй вариант подразумевает изначальное согласие всех со всеми
Я так понимаю что предполагается всё же некая разумная мера взаимного согласия. Если вам двоим будет интересен и приятен жаркий конфликт - система не станет вмешиваться и мешать вам.

Вплоть до того чтобы позволить вам по итогам жаркого спора разбить друг другу морды в кровь. Главное чтобы не доходило до глубокой личной ненависти, а мелкие добрые ссоры это часть веселья.

Если же вам хочется именно убивать и ненавидеть, то система скорее всего в конечном итоге создаст специальных инопланетных монстров на которых можно будет этично охотиться. В одиночку или большими компаниями, разовое сафари или большая война с танками и планетарными экстерминатусами.


Fluxius Secundus
nadeys
А в чём разница с вечным существованием в матрице же, но не в забытье?
парадокс "рычага удовольствий" в том что иррациональный человек зачастую не может сам выбрать самую эффективную форму получения удовольствий

если единожды подсел на героиновую иглу, то очень трудно слезть с неё для познания бесконечного многообразия прочих удовольствий

именно для этого нужны раздражители в виде прочих людей с другими мнениями и идеями, препятствия в виде физических законов и естественных пределов выносливости тела
Показать полностью
Fluxius Secundus
По китайской комнате - нет, для её создания нужен разум, но сама она его не имеет.
Повторюсь - я китайская комната. Мои нейроны не умеют в логику, математику и русский язык. Все мои рассуждения это просто очень большой набор рекурсивных if-else инструкций.

Никакой волшебного органа отвечающего именно за разумность у меня нет.
Fluxius Secundus Онлайн
nadeys
Не-не, вы запоминаете и делаете выводы. Плюс вы испытываете всякие эмоции и чувства, что изображающей вас "элизе" совершенно не нужно.
Fluxius Secundus Онлайн
парадокс "рычага удовольствий" в том что иррациональный человек зачастую не может сам выбрать самую эффективную форму получения удовольствий
В нормальной среде - да. Сядешь на крокодил - быстро и мучительно сдохнешь. Но в персональной Матрице-то не так!
К слову, самым эффективным способом получения удовольствия в такой матрице были бы именно опиаты, и с точки зрения оптимизации только по критерию удовольствия избегать их в таких условиях иррационально:)
Fluxius Secundus
nadeys
Не-не, вы запоминаете и делаете выводы. Плюс вы испытываете всякие эмоции и чувства, что изображающей вас "элизе" совершенно не нужно.
моему гипофизу тоже нафиг не нужны эмоции и чувства

просто у него инструкция качать серотонин при определённых условиях и он её бездумно выполняет

и нейронам коры мозга тоже глубоко плевать какие именно воспоминания они запоминают - им просто приходит электрический код и они его хранят сами не зная зачем
Fluxius Secundus Онлайн
nadeys
Но каким образом можно узнать о наличии сознания в машине? Эта проблема имеет не только абстрактно-философское значение, ибо предположение, что какая-то машина, которая отправляется на лом из-за того, что ремонт не оплачивается, имеет сознание, превращает наше решение уничтожить материальный предмет, типа граммофона, в акт уничтожения индивидуальности, осознанного убийства. Кто-то мог бы оснастить граммофон пластинкой и выключателем таким образом, что, если бы мы сдвинули его с места, то услышали бы крики: "Ах, умоляю, подари мне жизнь!". Как можно отличить такой, без сомнения, бездушный аппарат от мыслящей машины? Только вступая с ней в разговор. Английский математик Аллан Тьюринг (Allan Turing) в своей работе "Может ли машина мыслить?" предлагает в качестве решающего критерия "игру в имитацию", которая основывается на том, что мы задаем Кому-то произвольные вопросы и на основании ответов должны сделать заключение, является ли этот Кто-то человеком или машиной. Если мы не сможем отличить машину от человека, то следует признать, что машина ведет себя как человек, то есть что она обладает сознанием.

Отметим со своей стороны, что игру можно усложнить. Можно предположить два вида машин. Первый вид является "обычной" цифровой машиной, которая устроена как человеческий мозг; с ней можно играть в шахматы, разговаривать о книгах, о мире и вообще на все темы. Если бы мы ее вскрыли, то увидели бы огромное количество соединений элементов, подобно соединениям нейронов в мозгу, кроме того - блоки ее памяти и т.д. и т.п.

Второй вид машины совсем другой. Это увеличенный до размера планеты (или космоса) граммофон. Она имеет очень много, например, сто триллионов, записанных ответов на всевозможные вопросы. Таким образом, когда мы спрашиваем, машина ничего "не понимает", а только форма вопроса, т.е. очередность вибраций нашего голоса, приводит в движение передатчик, который запускает пластинку или ленту с записанным ответом. Не будем задумываться о технической стороне вопроса. Понятно, что такая машина неэкономична, что ее никто не создаст, потому что это невозможно и главное - неизвестно, зачем ее создавать. Но нас интересует теоретическая сторона. Потому что, если вывод о том, имеет ли машина сознание, делается на основе поведения, а не внутреннего строения, не придем ли мы неосмотрительно к выводу, что "космический граммофон" обладает им - и тем самым выскажем нонсенс? (А скорее неправду).

Можно ли, однако, запрограммировать все возможные вопросы? Без сомнения, средний человек не отвечает в обычной жизни даже на один их биллион. Мы же на всякий случай записали их во много раз больше. Что же делать? Мы должны вести нашу игру по достаточно развитой стратегии. Мы задаем машине (то есть Кому-то, потому что не знаем, с кем имеем дело; разговор ведется, например, по телефону) вопрос, любит ли она анекдоты. Машина отвечает, скажем, что да, она любит хорошие анекдоты. Рассказываем ей анекдот. Машина смеется (т.е смеется голос в трубке). Или у ней был этот анекдот записан и это позволило ей правильно отреагировать, т.е. засмеяться, или это в самом деле мыслящая машина (или человек, ибо мы этого не знаем). Мы разговариваем с машиной какое-то время, а потом неожиданно спрашиваем, припоминает ли она анекдот, который мы ей рассказали. Она должна его помнить, если она действительно мыслит. Она скажет, что помнит. Мы попросим, чтобы она повторила его своими словами. Вот это уже очень трудно запрограммировать, потому что таким образом мы вынуждаем конструктора "космограммофона" записать не только отдельные ответы на возможные вопросы, но и целые последовательности разговоров, которые могут вестись. Это требует, конечно, памяти, т.е. дисков или лент, которых, может, и вся солнечная система не вместит. Положим, машина не может повторить нашего анекдота. И мы тем самым разоблачаем, что она - граммофон. Задетый конструктор берется за усовершенствование машины таким образом, что пристраивает ей такую память, благодаря которой она сможет вкратце повторить сказанное. Но таким образом он сделал первый шаг в направлении от машины-граммофона к машине мыслящей. Так как бездушная машина не может признать идентичными вопросы аналогичного содержания, но сформулированные даже с незначительными формальными отклонениями, типа: "Вчера было хорошо на улице?", "Вчера была прекрасная погода?", "Погожим ли был предыдущий день?" и т.д. и т.п., то для машины бездушной они будут вопросами различными, а для машины мыслящей - идентичными. Конструктор вновь разоблаченной машины вынужден опять ее перерабатывать. В конце концов, после долгой серии переделок, он введет в машину способности индукции и дедукции, способность ассоциации, схватывания тождественной "формы" по-разному сформулированных, но одинаковых по содержанию высказываний, пока в результате не получит машину, которая просто будет "обычной" мыслящей машиной.

Так появляется интересная проблема: когда именно в машине появилось сознание? Предположим, что конструктор не переделывал эти машины, а относил каждую в музей и следующую модель создавал с начала. В музее стоит 10 000 машин, потому что столько было очередных моделей. Результатом стал плавный переход от "бездушного автомата" типа играющего шкафа к "машине, которая мыслит". Должны ли мы признать машиной, имеющей сознание, машину номер 7852 или только номер 9973? Они отличаются друг от друга тем, что первая не умела объяснить, почему она смеется над рассказанным анекдотом, а только говорила, что анекдот очень смешен, а вторая умела. Но некоторые люди смеются над шутками, хотя и не могут объяснить, что именно в них смешно, потому что, как известно, теория юмора - это твердый орешек. Разве эти люди тоже лишены сознания? Нет же, они, наверное, просто не очень быстро реагируют или малообразованные, их ум не обладает навыками аналитического подхода к проблемам; но мы спрашиваем не о том, умная ли машина или скорее туповатая, мы только спрашиваем, имеет ли она сознание или нет.

Казалось бы, следует признать, что модель номер 1 имеет ноль сознания, модель номер 10 000 имеет полное сознание, а все средние имеют "все больше" сознания. Это утверждение показывает, насколько безнадежной является мысль о том, что сознание можно точно локализовать. Отсоединение отдельных элементов ("нейронов") машины спровоцирует только слабые, количественные изменения ("ослабления") сознания так же, как это делает в живом мозге прогрессирующий процесс болезни или нож хирурга. Проблема не имеет ничего общего ни с использованным для конструкции материалом, ни с размерами "мыслящего" устройства. Электрическую мыслящую машину можно построить из отдельных блоков, соответствующих, положим, мозговым извилинам. Теперь разделим эти блоки и разместим на всей Земле так, что один находится в Москве, второй в Париже, третий в Мельбурне, четвертый в Иокогаме и т.д. Отделенные друг от друга, эти блоки "психически мертвы", а соединенные (например, телефонными кабелями) они стали бы одной, интегральной "индивидуальностью", единым "мыслящим гомеостатом". Сознание такой машины находится ни в Москве, ни в Париже, ни в Иокогаме, но, в определенном смысле, в каждом из этих городов и, в определенном смысле, ни в одном из них. Потому что о нем трудно сказать, что оно, как Висла, имеет протяженность от Татр до Балтийского моря. Впрочем, подобная проблема демонстрирует, хотя и не так ярко, человеческий мозг, потому что кровеносные сосуды, белковые молекулы и ткани находятся внутри мозга, но не внутри сознания, и опять-таки нельзя сказать, что сознание находится под самым куполом черепа или, скорее всего, ниже, над ушами, по обеим сторонам головы. Оно "рассеяно" по всему гомеостату, по его функциональной сети. Ничего больше заявить на эту тему не получится, если мы хотим соединить сознание с возможностью рассуждать.

С поправкой на то, что в случае Матрицы ответы можно читать в памяти спрашивающего.
Показать полностью
Fluxius Secundus
дело не в побочных эффектах наркотических препаратов

дело в том что "абсолютный кайф" это само по себе ловушка

сначала воткнуть в руку капельницу с бесконечным героином

потом, поскольку я демиург, отключить симуляцию всего остального мира чтобы ничто не отвлекало от вечного удовольствия - останусь только я и комната с капельницей

потом отключить симуляцию тела чтобы бренные жизненные процессы не отвлекали от кайфа - останется только мозг висящий в пустоте с подключённой капельницей

потом убрать визуализацию капельницы и создавать чистейший опиат прямо в центре удовольствия

потом почерёдно отключать ненужные функции мозга чтобы вообще ничто не мешало кайфовать

в конечном итоге останется почти не сознающий себя вечно стимулируемый центр удовольствия висящий посреди абсолютного нигде
Fluxius Secundus
не придем ли мы неосмотрительно к выводу, что "космический граммофон" обладает им - и тем самым выскажем нонсенс? (А скорее неправду).
Тьюринг был неправ. Он жил сотню лет назад и при всём таланте, не умел мыслить по настоящему абстрактно. Он не мог и не хотел представить мироздание в котором все люди лишь бездумные биороботы живущие по составленной эволюцией программе.
nadeys
Да представить это легко, только это реальности не соответствует. Экспериментально фальсифицировано давно.
Fluxius Secundus
nadeys
С поправкой на то, что в случае Матрицы ответы можно читать в памяти спрашивающего.
читать в чужой голове можно варианты ответов

но когнитивный блок который выбирает из этих варантов - это уже отдельная сущность
grey_area
nadeys
Да представить это легко, только это реальности не соответствует. Экспериментально фальсифицировано давно.
эээ... и часто вы ставите эксперименты с участием всесильных демиургов не ограниченных законами физики?
эээ... и часто вы ставите эксперименты с участием всесильных демиургов не ограниченных законами физики?
А это зачем?
Я так понял, вы имели в виду, что реальные существующие люди являются бездумными автоматами.
С ними как бы это проверяется и без помощи всесильных демиургов.
Fluxius Secundus Онлайн
в конечном итоге останется почти не сознающий себя вечно стимулируемый центр удовольствия висящий посреди абсолютного нигде
И в чем проблема?

читать в чужой голове можно варианты ответов
Веса ответов читать тоже можно.
grey_area
тезис - все люди включая меня являются бездумными автоматами

под бездумностью подразумевается отстутствие души или иного волшебного центра отвечающего за сознание - разум это результат совместной работы бездумных механизмов мозга

доказательство - центр сознания нейробиологи так до сих пор не нашли
Бредовая копипаста
Fluxius Secundus Онлайн
Чиорт
Это сумма технологии Лема.
под бездумностью подразумевается отстутствие души или иного волшебного центра отвечающего за сознание
Ну так извините, вы сами придумали термину какой-то свой, оригинальный смысл, и используете его в дискуссии.
Я определение "бездумное" понимаю буквально - как то, что не думает. Человек думает (обрабатывает информацию мозгом), и это многократно доказано.
А то, что никакого волшебного центра нет - это называется "бездушие", но никак не "бездумность".
Fluxius Secundus Онлайн
доказательство - центр сознания нейробиологи так до сих пор не нашли
Привет, доказательство отсутствия, давно не виделись.
grey_area
я не получаю академическую зарплату и мне плевать на точность терминов

есть такая штука - контекст дискуссии

когда обсуждают китайские комнаты и осутствие волшебного центра разума - независимо от вариации терминов очевидно что фраза "все люди бездумные биороботы" подразумевает именно отсутствие души, а не буквальное отсутствие рассуждающих механизмов вообще
Fluxius Secundus Онлайн
nadeys
Крч, смысл в том, что в первом варианте эти механизмы минимально-необходимые для имитации, и втч сами эмоций-чувств не испытывают, хоть и изображают.
Fluxius Secundus
так уж сложилось что если коробка пустая то в качестве основной гипотезы принято полагать что она пустая
Fluxius Secundus
втч сами эмоций-чувств не испытывают, хоть и изображают
Но я, допустим, и так не могу гарантированно знать, чувствуют ли что-то окружающие или только имитируют. Поэтому я разницу между первым и третьим не особо понимаю.
Бесконечное удовольствие слишком однобокая вещь без контрастов, соответственно, матрица всё равно потенциально будет моделировать разные вещи. Получится не матрица, а восставший из ада, при чём, опять же, в обоих случаях - коллективно люди тоже, вангую, со скуки очень быстро начнут изощряться в выдумках.
минимально-необходимые для имитации
А вот если именно "минимально необходимые", то болванки будут походить на ботов из игрулин, и тогда, конечно, рано или поздно их станет недостаточно.
Поэтому я разницу между первым и третьим не особо понимаю.
Разница простая - если в первом сценарии я отчаянно хочу, чтобы девушка пришла на свидание - она придёт. В третьем - не придёт, если сама не хочет.
Fluxius Secundus
эти механизмы минимально-необходимые для имитации
Мне кажется вот здесь неточность.

Что значит "минимально-необходимые"? Минимально-необходимые чтобы изображать массовку в толпе? Минимально-необходимые чтобы изображать молчаливого таксиста? Минимально-необходимые чтобы изображать скучающую кассиршу в госучреждении?

А если я заведу себе лучшего друга и буду с ним вести сложные дискуссии? Насколько детально его психоэмоциональная сфера должна быть "имитирована" чтобы он правдоподобно изображал все ответы, все свои переживания по острым вопросам, постепенную эволюцию точек зрения, тонкие оттенки сарказма и любопытства, едва заметные стороннему наблюдателю тайные мысли и подсознательные страхи?

Где эта грань минимальной-достаточности? Не получится ли ненароком что эта грань выше чем мой собственный ограниченный интеллект?
Fluxius Secundus Онлайн
А вот если именно "минимально необходимые", то болванки будут походить на ботов из игрулин, и тогда, конечно, рано или поздно их станет недостаточно.
Атомный реактор механизм патчей и прочей внешней поддержки коробок условно не показан.

nadeys

Проектирует-то эту штуку по определению превосходящий интеллект.
grey_area
У неё есть вечность, чтобы сходить со мной на свиданку, вполне вероятно, что со своим отчаянным хотением я смогу её заебать до согласия. Люди тоже подвержены манипулированию, насилию и убеждению; никто не живет в вакууме собственных хотелок.
А состояние "отчаянно хочу вещь, но не получаю/получаю с трудом" тоже может быть в отдельный период самоцелью - когда надоест всё получать за так, например, или из любви к челленджам.

Если же эта разница строгая ("есть запрос -> есть ответ" в первом случае), то болванки сводятся до ботов, а интересность до минимума.
Как будто человеку нельзя покопаться в мозгах с помощью достаточно развитой технологии/магии
"Дружба — это оптимум" мелькала уже? Если что, я за первый вариант: все челленджи, которые необходимы личности, он обязан предоставить, иначе не выполняется формирующее условие. В т.ч. неотличимую имитацию свободной воли ботов и/или гармоничное сосуществование с ними. Т.е., если вам интереснее вариант 2 или 3, вы никогда не сможете узнать, что не находитесь в варианте 1 с соответствующе подобранными условиями.
Fluxius Secundus Онлайн
"Дружба — это оптимум" мелькала уже?
В треде - нет. Но я и ее, и Caelum est conterrens, разумеется, читал.
Потом не узнаете, но в процессе выбора же знаете.
Но а смысл выбирать что-то другое? Если вот это вот всё по второму и третьему вариантам действительно нужно, то первый должен предоставить, а если так, блажь, то первый всё ещё даёт именно то, что нужно, а не вот это вот всё.
ПОИСК
ФАНФИКОВ









Закрыть
Закрыть
Закрыть