↓
 ↑
Регистрация
Имя/email

Пароль

 
Войти при помощи

Комментарий к сообщению


21 февраля 2023
Кьювентри
человек для меня не перестанет существовать
Я бы сказал, что это будет разный человек. И, да, человеческая память и человеческий разум устроен так, что система ценностей неразрывно связана с эмоциями-чувствами, а эмоции-чувства - с памятью. Т.е. если можно переписать что-то прям отдельно-отдельно, то это не человек. Ну и в любом случае, для меня это будет убийство-рождение или пересоздание. Да, человеческий разум постоянно пересоздаётся, но то плавное пересоздание (см. непрерывность-продлённость), а это - нет.

У Громова в одном из романов вроде бы описывалось подобное
Ну оно и звучит как два разных человека. Это и есть два разных человека. Емнип, при воспоминании человек буквально переписывает инфу заново, поэтому отдалённые воспоминания часто оказываются многажды переписанными, соответственно, если сменить "доминанту" личности, то очень быстро "под неё" поменяются воспоминаниями. Вроде бы акцентами, но суммарно... Перепроживутся, если хотите. А если личность сохраняет непрерывность во времени, то перепрошивки воспоминаний слабее, т.е. даже на этом уровне больше сохранность "я". И, полагаю, перепрошивки могут "сойтись" в более-менее устойчивое состояние. Собственно, самые устойчивые воспоминания, которые примерно одинаково переписываются, причём часто, и составят центр "я" человека.

Или речь о том, что слово «эгоизм» не является полным описанием системы ценностей
Есть ценность или смысл там - вопрос, как назвать, вторичен. Например, "поменьше боли" или "побольше удовольствия". К ценности прикрепляется направленность. Если она внутрь, чисто на себя, то это чистый эгоизм. Если она вовне, на группу, то это групповой эгоизм, если вовне на всех (разумных/людей/тех-кого-считаешь-людьми), то чистый альтруизм. На практике чистых версий почти не встречается, конечно, но выглядит это, на мой взгляд, именно так. Одна и та же ценность, например, свобода, направленная эгоистически и альтруистически, приводит к совершенно разному поведению. Хотя ценность та же самая.

надо ещё уточнить, что я считаю «благом»
Да, конечно. Благо - это вообще не ценность в общем случае. Но обычно под ним подразумевается инструментальная ценность - польза. Это относится к мотивации https://fanfics.me/message606673 2 типа. Мотивации 2 типа, в общем-то, универсальны, эгоистичная мотивация 2 типа есть во всех людях всегда, нельзя различать людей по ней. Поэтому же её не следует включать в "систему ценностей", потому что, ну, абсолютный альтруист всё равно нуждается во сне, еде, питье и средствах к существованию, чтобы творить свой альтруизм, это чисто инструментальное, вторичное, оно не составляет "я" человека. Вот когда нечто инструментальное вдруг становится самоценным, типа, хочу денег, потому что мне приятно, когда у меня много денег - не более и не менее, просто само наличие денег приятно - вот тогда можно говорить об этом как о части системы ценностей, о чём-то особенном. Но такое встречается, на мой взгляд, откровенно нечасто. Обычно много денег, еды и прочих ресурсов люди хотят, чтобы сохранять дееспособность, продолжать жить, собственно, ну и чтобы сделать что-то ещё, чтобы как-то их тратить или там чтобы иметь финансовую безопасность, подушку и пр. Понимаешь, о чём я?

Что такое вообще «модель»?
Это связная карта. https://ru.wikipedia.org/wiki/%D0%A1%D0%BE%D0%BE%D1%82%D0%BD%D0%BE%D1%88%D0%B5%D0%BD%D0%B8%D0%B5_%D0%BA%D0%B0%D1%80%D1%82%D1%8B_%D0%B8_%D1%82%D0%B5%D1%80%D1%80%D0%B8%D1%82%D0%BE%D1%80%D0%B8%D0%B8
Т.е. карты бывают разного типа, модель представляет собой карту, части которой не являются независимыми друг от друга, т.е. нельзя просто выдернуть или поменять какую-то часть на другую, не изменив интерпретации карты как целого (в отличие от географической карты местности, где изменение части не приводит к изменению интерпретации, т.е. не порождает другой объект). Понятно, что в разных картах может быть разная степень "модельности", "связности", "системности". Модели представляют собой абстрактные конструкты, обычно выразимые с помощью знаковых систем (и, соответственно, с той или иной точностью формализуемых), но это необязательно (например, топовые математики могут манипулировать в голове неформализуемыми, "волшебными", моделями, чтобы прийти к формализуемому результату). Т.о., модель для человека требует наличие языка (любого универсального), но я думаю, что это не обязательно для разума вообще. Человек может создавать модели окружающей реальности, модели самого себя, других людей, модели моделей, модели языка, на котором он формулирует модели и так далее.

Манипуляция моделями - это нечто естественнейшее для нас, разумных существ. Любое предложение, в т.ч. это, которое ты читаешь, является моделью некоего смысла, интерпретируя "карту-модель" ты получаешь этот смысл в голове. Думая о других людях, мы автоматически создаём их модели, даже если они обобщённые. Различая вещи зрением, мы тоже создаём их модели в мозгу. Щупая. Или слыша что-то. Представляя в голове что-то по воспоминаниям. Даже сами воспоминания являются моделями реальных событий, картами прошлого, с той или иной точностью её отражающими! Разум работает, живёт, действует, существует моделями. Нейронка - это тоже модель. И обучение нейронки - это модель. Чтобы некий искусственный идиот стал претендовать на интеллект, он должен уметь манипулировать моделями хотя бы в некоторой узкой области. А чтобы претендовать на сильный интеллект, сравнимый с человеческим - манипулировать моделями на уровне человека или близко к нему. Сверхразум, соответственно, должен быть способен манипулировать моделями на уровне, человеку непредставимом (непредставимом = человек не способен создать модель этого метода манипуляций, как вы теперь понимаете).

Насколько я понимаю, есть два способа "научить" алгоритм, программу работать с моделями. Можно просто вручную вбить модели с их вариациями и вручную же написать способы манипуляции моделями. Ну вот экспертные системы так работают. Это нормальный подход, подходящий для некоторых ситуаций. Для других ситуаций может оказаться слишком долгим, громоздким, нереализуемым вручную или тупо дорогим вбивать вариации модели или метод манипуляции ими. Тогда можно "просто" взять некий абстрактный "универсальный слепок" (например, искусственную нейросеть некоторой конфигурации), который может "принимать форму" широкого класса алгоритмов-с-манипулирующих-моделями да ещё и внутрь сохранять вариации моделей - и "наложить" его специальным образом на собранный массив данных (понятно, что теперь задача будет упираться в хорошо организованное наложение и правильно собранный массив данных), после чего универсальный слепок примет форму нужного нам протеза навыка - способа манипуляции моделями. Это называется обучение нейронной сети.

Делается это очень разными способами и, собственно, не обязательно в качестве слепка берётся одна-единственная нейронка или вообще нейронка, а не какая-нибудь многоагентная система там или ещё чего интересненькое. На выходе мы получаем то же штуку, у которой потом надо проверять, насколько оно хорошо наложилось, нет ли косяков и пр., ну, сами понимаете, нельзя просто взять и "сделать всё хорошо". И вытащить из больших нейронок явный способ манипуляции моделями/данными очень сложно, и не факт, что он оптимальный - это похоже на эволюцию с её косяками, типа нерва, ведущего через непонятное место, потому что "так исторически сложилось".

Я утверждаю, что нейронка как более-менее статичный протез навыка не может стать разумной, потому что в неё, собственно, не то что не закладываются навык свободной манипуляции моделями - мы даже понятия не имеем, как он в нас реализуется, т.е. мы хз, что вообще закладывать надо и откуда достать массив данных, чтобы обучить на нём нейронку, а эти данные стали, например, её "памятью". Некоторые товарищи предлагают создавать "ещё более универсальную" среду, чем нейронка, и потихоньку правильным балансом воздействий "зародить" внутри разум. Другое думают, что надо смотреть на экспертные системы и конструировать явный алгоритм манипуляции знаниями, который "научится сами себя учить", если мы его правильно запрограммируем. Это подходы к ИИ снизу и сверху соответственно. Как-то так.
ПОИСК
ФАНФИКОВ













Закрыть
Закрыть
Закрыть