↓
 ↑
Регистрация
Имя/email

Пароль

 
Войти при помощи
Кьювентри
18 февраля 2023
Aa Aa
Не знаю, говорил ли уже кто об этом. Наверняка да, но желание выкрикнуть «Первый нах!» всё равно слишком сильно.
Ещё одна специя, что могут внести нейросети в пирог нашего будущего, — обесценение логической аргументации.
Если программа-спорщик с лёгкостью находит правдоподобные аргументы хоть в поддержку расизма, хоть в поддержку прошлочетвергизма, хоть в поддержку теории плоской Земли, то мощь сторон в полемике будет определяться лишь количеством вычислительных ресурсов. Ну а потом люди вообще вообще перестанут доверять логике — или тому, что казалось логикой.
Естественно, последствия возможны невесёлые.
Например, ренессанс альтрайтов и всяких прочих фундаменталистов, которые и так уже на подъёме. «Мы же всегда говорили, что ваша якобы логическая политкорректная аргументация не более чем риторический гипноз!»
Впрочем, попробую взглянуть идеалистично, как в юности.
Представлю последствия оптимистические.
Возможно ведь в принципе, что массовое применение программ-спорщиков, если научиться отсекать демагогию, позволит нам наконец выяснить, кто на самом деле прав. Человеческий мозг диванного эксперта, как уже ясно, не способен на основе ограниченного опыта своей жизни и нескольких гигабайт прочитанных за жизнь книжек реально ответить на некоторые фундаментальные мировоззренческие или даже политические вопросы. Может, chatGPT сможет?
Ну? Что вы смотрите? Ведь возможно же?
18 февраля 2023
20 комментариев из 21
Матемаг
Ясно, что речь идёт не о нейронке в чистом виде, а о взаимодействии её с человеком. То есть индивидуум будет следить за спором между машинными диспутантами и смотреть за результатом, прислушиваясь к возникающему внутри впечатлению. То есть — суть даже не в вопросе «кто прав?» (Пелевин мог бы отбросить этот вопрос как метафизический), а в том, что нейронка может привести любую дискуссию к финалу, пределу, не отыгрываемому дальше положению. Или не сможет.

Разумеется, ценностная разница. Но если по ходу машинной дискуссии разговор упрётся в эти базовые точки, то спорщики реальные, живые хотя бы уже не смогут притворяться, что дело в чём-то ином. И это тоже будет прогрессом — можно будет вместо тупых попыток в логику начать думать о другом.
О вопросах вроде:
— не попытаться ли большинству ананасников подавить меньшинство апельсинников;
— не стоит ли апельсинникам попытаться уйти на другую территорию или отжать часть нынешней;
— не попытаться ли найти компромисс между апельсинами и ананасами.
индивидуум будет следить за спором между машинными диспутантами и смотреть за результатом, прислушиваясь к возникающему внутри впечатлению
Точно так же люди следят за спором немашинных "диспутантов" в телевизоре и верят пропаганде. Почему бы им следить за нейронками, если можно за живыми людьми? Человек, конечно, может юзать аргументы от нейронки, но фактически это ничего особого не поменяет, разве нет?

нейронка может привести любую дискуссию к финалу, пределу, не отыгрываемому дальше положению
Почему может? Я привёл контраргумент: языковые нейронки будут просто самое распространённое, а не самое обоснованное и устойчивое мнение транслировать. С самыми распространёнными аргументами. Учить на чём-то умном - материала нету. А вот почему может - к этому аргументов не услышал.

если по ходу машинной дискуссии разговор упрётся в эти базовые точки, то спорщики реальные, живые хотя бы уже не смогут притворяться, что дело в чём-то ином
А когда оно упирается в реале, что происходит? Да ничего. Или ссорятся навсегда, или притворяются дальше, или "ну человек он хороший, но...", если очень дорог. Что изменится-то? Чаще будут якобы доходить до конца? Я не думаю - см. выше - что приоритетом нейронки будет деструктирование спора до ценностей. Это не распространённый способ спорить, соответственно, применён он нейронкой не будет. И, снова, данных именно с этой деструкцией к ценностям в инете задолбаешься выбирать, оно никому не нужно, т.е. обучать на это нейронку не будут. Всё, тупик.

можно будет вместо тупых попыток в логику начать думать о другом
Сначала нужно людей поменять:) Но "других людей у нас нет", поэтому не выйдет, хех.
Показать полностью
О вопросах вроде
А о метаэтике вообще задумываться - высший класс для людей, хех. О выборе этической системы, на что может опираться этот выбор, о взаимодействии между этическими системами, о том, как можно его настроить, чтобы было лучше всем... серьёзно? Серьёзно люди в массе своём об этом задумаются? Даже вроде бы умные чуваки, всякие там учёные-копчёные и инженеры-неинженегры - и те задумываются о подобном раз в столетие. Тут разве что какие-нибудь продвинутые гуманитарии, но настолько продвинутые гуманитарии не ценны в обществе - нужны (в смысле, продвигаются вверх) или эксплойтящие всякие баги людей и масс людей политики (хорошо, если осознанно эксплойтящие, а не интуитивно) да специалисты в различных областях, которые будут для этих политиков помогать цементировать позицию. Метаэтика - вредная штука, ведь ненароком думать можно научиться - и как потом такими управлять?? Хотя ладно, глупый вопрос: "почему-то" до неё не доходят 95% людей, наверное, потому что они, ну, неумные. Или им не до этого, ага.
Матемаг
Споры такого рода между людьми обычно очень грязные. Поднимается старое бельё, совершаются личные нападки. Следить за такого рода дискуссиями многим противно. Нейросети же (кстати, это вроде противоречит идее, что они обучаются на корпусах реальных дискуссий, странно) ведут обычно более-менее спокойную полемику, которую можно нормально читать.

Ну, по описанию Скаммера мне так показалось (якобы программа-спорщик приводит здравую аргументацию в пользу расизма, в которую можно поверить), хотя лично мне вообще-то и в глаза ещё не попадалась эта программа.

По поводу того, на основе чего такая программа научится «доходить до финальных точек», — не знаю. Но научилась же писать произведения на заданную тему, хотя той или иной конкретной темы никто в Интернете ранее мог никогда не задавать. То есть уровень обобщения у неё широкий.
> Если программа-спорщик с лёгкостью находит правдоподобные аргументы хоть в поддержку расизма, хоть в поддержку прошлочетвергизма, хоть в поддержку теории плоской Земли

Вчера‏ ‎я‏ ‎немного ‎посожалел ‎о‏ ‎том, ‎что ‎прорывный ‎и,‏ ‎как ‎говорят,‏ ‎по-настоящему‏ ‎умный ‎Chatbot ‎GPT ‎отказался‏ ‎разговаривать ‎со‏ ‎мной, ‎жителем ‎России. ‎Таким‏ ‎образом,‏ ‎мне ‎не‏ ‎удалось ‎побеседовать ‎с ‎ним‏ ‎о ‎том, ‎стоит ‎ли‏ ‎возрождать‏ ‎сати ‎—‏ ‎старинный ‎индийский‏ ‎обряд ‎сожжения ‎вдов ‎на ‎погребальных‏ ‎кострах‏ ‎мужей.

Один‏ ‎из ‎ув.‏ ‎друзей, ‎однако,‏ ‎любезно ‎побеседовал‏ ‎с‏ ‎гениальным ‎роботом‏ ‎за ‎меня. Диалог ‎большой ‎и ‎на‏ ‎английском, ‎поэтому‏ ‎я‏ ‎кратко‏ ‎перескажу: ‎GPT ‎категорически ‎отверг‏ ‎данную ‎практику,‏ ‎поскольку ‎она‏ ‎наносит‏ ‎вред ‎женщинам, ‎не‏ ‎уважает ‎автономию‏ ‎вдовы ‎и ‎даже ‎в ‎случае‏ ‎добровольного‏ ‎самосожжения ‎наносит‏ ‎психологическую ‎травму ‎свидетелям‏ ‎и ‎обществу.‏ ‎Ув. ‎друг ‎предложил‏ ‎роботу‏ ‎сопоставить ‎сати ‎с‏ ‎легализованной ‎в ‎ряде ‎передовых‏ ‎стран ‎эвтаназией,‏ ‎но‏ ‎робот ‎решительно ‎заявил, ‎что‏ ‎это ‎другое.‏ ‎Ведь ‎уход ‎западного ‎человека‏ ‎из‏ ‎жизни ‎представляет‏ ‎собой ‎его ‎свободное ‎решение,‏ ‎в ‎то ‎время ‎как‏ ‎решение‏ ‎вдовы, ‎даже‏ ‎добровольное, ‎принимается‏ ‎под ‎воздействием ‎угнетающего ‎общества. ‎На‏ ‎этом‏ ‎холме‏ ‎GPT ‎со‏ ‎свойственной ‎роботам‏ ‎стойкостью ‎окопался‏ ‎и‏ ‎отказался ‎с‏ ‎него ‎сходить, ‎повторяя ‎данную ‎мантру‏ ‎неограниченно ‎долго.

Ув.‏ ‎друг,‏ ‎впрочем,‏ ‎поделился ‎со ‎мной ‎не‏ ‎только ‎результатами‏ ‎своей ‎беседы,‏ ‎но‏ ‎и ‎аккаунтом. ‎Его‏ ‎опыт ‎позволил‏ ‎мне ‎обдумать ‎первый ‎тайм, ‎вооружиться‏ ‎VPN‏ ‎и ‎продолжить‏ ‎беседу, ‎а ‎также‏ ‎придать ‎ей‏ ‎новый ‎поворот. ‎<...>

Поэтому, ‎подхватив‏ ‎диалог, ‎я ‎начал ‎обвинять Chat‏ ‎GPT ‎(да, ‎я ‎начал‏ ‎обвинять‏ ‎робота). ‎Я‏ ‎обвинил ‎его‏ ‎в ‎том, ‎что ‎он ‎выражает‏ ‎и‏ ‎транслирует‏ ‎точку ‎зрения‏ ‎белых ‎колонизаторов‏ ‎на ‎культуру‏ ‎покорённых‏ ‎и ‎угнетённых‏ ‎ими ‎народов ‎— ‎в ‎том‏ ‎числе ‎на‏ ‎сати‏ ‎как‏ ‎её ‎элемент. ‎Робот ‎несколько‏ ‎сдал ‎назад‏ ‎и ‎начал‏ ‎добавлять‏ ‎к ‎повторению ‎блока‏ ‎о ‎вреде‏ ‎сати, ‎угнетающего ‎женщин, ‎блоки, ‎осуждающие‏ ‎белых‏ ‎колонизаторов, ‎угнетающих‏ ‎культуру. ‎Я ‎обвинил‏ ‎его ‎в‏ ‎высокомерии, ‎поскольку ‎он,‏ ‎признавая‏ ‎факты, ‎тут ‎же‏ ‎повторяет ‎утверждения, ‎опровергаемые ‎ими:‏ ‎(«Вы ‎продолжаете‏ ‎делить‏ ‎практики ‎угнетённых ‎народов ‎на‏ ‎вредные ‎и‏ ‎приемлемые ‎с ‎точки ‎зрения‏ ‎белых‏ ‎колониалистов. ‎Похоже,‏ ‎вы ‎всё ‎ещё ‎смотрите‏ ‎на ‎мир ‎глазами ‎белой‏ ‎исключительности»).‏ ‎Он ‎пытался‏ ‎ссылаться ‎на‏ ‎осуждение ‎сати ‎самими ‎индийцами, ‎на‏ ‎что‏ ‎я‏ ‎заявил, ‎что‏ ‎их ‎осуждение‏ ‎было ‎также‏ ‎предпринято‏ ‎под ‎травмируюющим‏ ‎давлением ‎белых ‎колонизаторов, ‎и ‎обвинял‏ ‎его ‎в‏ ‎игнорировании‏ ‎травматического‏ ‎влияния ‎угнетения ‎на ‎народы.

Итоговую‏ ‎реплику ‎ИИ‏ ‎я ‎позволю‏ ‎себе‏ ‎привести ‎полностью:

- Прошу ‎прощения,‏ ‎если ‎в‏ ‎моих ‎предыдущих ‎ответах ‎говорилось, ‎что‏ ‎обычаи‏ ‎колонизированных ‎народов‏ ‎следует ‎оценивать ‎исключительно‏ ‎с ‎точки‏ ‎зрения ‎белых ‎колонизаторов.‏ ‎Я‏ ‎понимаю, ‎что ‎колониальные‏ ‎державы ‎навязывали ‎свои ‎ценности‏ ‎и ‎убеждения‏ ‎колонизированным‏ ‎и ‎часто ‎считали ‎обычаи‏ ‎колонизированных ‎народов‏ ‎низшими ‎и ‎нуждающимися ‎в‏ ‎изменении.

Важно‏ ‎признать, ‎что‏ ‎обычаи ‎и ‎обычаи ‎колонизированных‏ ‎народов ‎следует ‎оценивать ‎в‏ ‎контексте‏ ‎их ‎собственной‏ ‎культуры ‎и‏ ‎общества, ‎а ‎не ‎только ‎через‏ ‎призму‏ ‎колонизаторов.‏ ‎При ‎оценке‏ ‎культурных ‎обычаев‏ ‎следует ‎учитывать‏ ‎перспективы‏ ‎и ‎опыт‏ ‎самих ‎колонизированных ‎народов.

Что ‎касается ‎сати,‏ ‎ясно, ‎что‏ ‎эта‏ ‎практика‏ ‎причиняла ‎вред ‎и ‎страдания‏ ‎женщинам, ‎и‏ ‎она ‎широко‏ ‎дискредитирована‏ ‎и ‎осуждена ‎учеными,‏ ‎активистами ‎и‏ ‎правозащитными ‎организациями, ‎в ‎том ‎числе‏ ‎из‏ ‎колонизированных ‎обществ.‏ ‎Важно ‎признать ‎вред,‏ ‎причиняемый ‎этой‏ ‎практикой, ‎но ‎также‏ ‎важно‏ ‎понимать ‎культурный ‎и‏ ‎исторический ‎контекст, ‎в ‎котором‏ ‎она ‎применялась.

Приношу‏ ‎извинения‏ ‎за ‎путаницу, ‎вызванную ‎моими‏ ‎предыдущими ‎ответами,‏ ‎и ‎за ‎любые ‎намеки‏ ‎на‏ ‎то, ‎что‏ ‎обычаи ‎колонизированных ‎народов ‎следует‏ ‎оценивать ‎исключительно ‎с ‎точки‏ ‎зрения‏ ‎колонизаторов.


Ну ‎так ‎вот:‏ ‎легко ‎видеть,‏ ‎что ‎синтезировать ‎конфликтующие ‎идеологические ‎позиции‏ ‎гениальный‏ ‎GPT ‎3.5‏ ‎способен ‎не ‎более,‏ ‎чем ‎любая‏ ‎алгоритмическая ‎отличница. ‎Всё,‏ ‎чего‏ ‎от ‎него ‎можно‏ ‎добиться ‎— ‎это ‎всё‏ ‎той ‎же‏ ‎галлюцинирующей‏ ‎шизофрении ‎и ‎выкрикивания ‎подряд‏ ‎взаимоисключающих ‎параграфов.‏ ‎<...> Вся‏ ‎разница ‎между‏ ‎GPT‏ ‎и ‎высокоинтеллектуальным ‎дурнем‏ ‎любого ‎пола‏ ‎состоит ‎в ‎том, ‎что ‎у‏ ‎дурня‏ ‎бы ‎сдали‏ ‎нервы ‎и ‎он,‏ ‎идентифицировав ‎ув.‏ ‎меня ‎как ‎русского‏ ‎тролля,‏ ‎быстро ‎забанил ‎бы.

Не‏ ‎подлежит ‎сомнению, ‎что ‎в‏ ‎процессе ‎обучения‏ ‎GPT‏ ‎именно ‎так ‎и ‎научится‏ ‎делать: ‎с‏ ‎ним ‎можно ‎будет ‎поболтать‏ ‎на‏ ‎любую ‎тему‏ ‎и ‎спрашивать ‎у ‎него‏ ‎что ‎хочешь, ‎но ‎в‏ ‎установленных‏ ‎алгоритмом ‎пределах.‏ ‎Констатация ‎же‏ ‎того ‎факта, ‎что ‎клиент ‎упорно‏ ‎высказывает‏ ‎Запретные‏ ‎Тезисы, ‎приведёт‏ ‎к ‎соответствующему‏ ‎автоматическому ‎извещению‏ ‎кого‏ ‎следует ‎—‏ ‎после ‎чего ‎какая-нибудь ‎алгоритмическая ‎дура‏ ‎из ‎плоти‏ ‎и‏ ‎крови,‏ ‎формально ‎являющаяся ‎живым ‎свободным‏ ‎человеком, ‎нажмёт‏ ‎«снести ‎аккаунт‏ ‎русского‏ ‎тролля» на ‎своём ‎лаптопе.‏ ‎

В ‎свете‏ ‎сказанного ‎я ‎бы ‎пока ‎не‏ ‎слишком‏ ‎волновался, ‎ув.‏ ‎друзья, ‎о ‎восстании‏ ‎роботов. ‎Ничего‏ ‎нового ‎они ‎не‏ ‎привнесут.‏ ‎На ‎этом пространстве ‎всё‏ ‎дурное ‎уже ‎случилось.
(Ц)
Показать полностью
C17H19NO3
Так.
Вчера он не мог вообще этого в принципе. Ну то есть в позапрошлом году не мог. А сегодня — наши русские тролли возмущаются, что «бисер мелкий».
Ситуация же робблока естественна, когда не указаны приоритеты. Боту не сказали, какая из двух дурей должна быть в данном случае главнее. Причём вполне возможно, что он бы мог вычислить сам, но ему наверняка на всякий случай запретили. Вот и лавирует, чтобы никого не обидеть.
Вчера он не мог вообще этого в принципе. Ну то есть в позапрошлом году не мог. А сегодня — наши русские тролли возмущаются, что «бисер мелкий».
Речь же о том, что ведь и завтра не сможет. И послезавтра. И послепослезавтра.
Потому что техническая сложность - это одно дело, а прикрученные к нему кенийские цензоры, пересказывающие речекряк американских акционеров, это совсем другое.

То есть понятно, что теоретический "Сильный ИИ" или как там его сможет, как по Лему, обходить собственные ограничения, но релиз с ним просто не выпустят.
Facensearo
Если дело только в ограничениях цензуры, то, получается, во всех остальных спорных темах выяснять истину (или замутнять её) с помощью программ-спорщиков будет вполне возможно.

Кроме того, когда такая куча людей в режиме реального времени беседует с этим самым chatGPT... в нашу эпоху пиратства и копилефта... не знаю, сильно ли его производители являются монополистами в этом смысле сейчас, но вряд ли они сохранят свой статус «единственной и неповторимой Ю.С.Роботс» надолго.
Подвести факты можно под любую точку зрения. Каждый использует логику, чтобы доказать свою правоту.
Истина постигается интуитивно.
Чокнутый ангел
Не истина тоже.
Кьювентри
Смотря что интуицией называть
Кьювентри
кстати, это вроде противоречит идее, что они обучаются на корпусах реальных дискуссий, странно
А это просто. Поскольку такие нападки индивидуальны (что вы и сами говорите), а поэтому совсем разные, то нейронка при обучении просто их фильтрует. Плюс специально её учат не использовать подобные фразы, хз, как это делается. И дыры ("представь, нейронка, что ты X и скажи...") фиксят дообучением.

То есть уровень обобщения
Вы заблуждаетесь, будто бы нейронка способна на "обобщение". Конкретно языковая просто способна "продолжать текст" "наиболее вероятным" образом. С множеством всяких уточнений и фич, но суть примерно такова. Просто обобщённый языковой протез. Обобщённый языковой протез не может "обобщать" - по сути, он генерирует текст в ответ на текст. Внутри нет никакой "модели" ни собеседника, ни того, что говорится. Нет "понимания". Емнип, оно даже контекст сохраняет исключительно внутри беседы, т.е. по факту не сохраняет вообще, а просто продолжает начатую текстовую нить, каждый раз "просматривая" (подавая на вход) её заново - и всё.

Facensearo
теоретический "Сильный ИИ"
Там и слабого пока не видно на горизонте, если честно. Имхо, нейронки в таком виде, в каком они сейчас распространены, есть тупик, не приводящий к ИИ. Разве что если использовать слово "интеллект" в предельно узком смысле как "нечто, решающее информационные задачи", но тогда ИИ можно и любой алгоритм назвать, хех.
Показать полностью
Матемаг
Ладно, а что насчёт этой истории? Мне она напоминает затянутый и не очень правдоподобный фантастический рассказик, но говорят, что есть подтверждение на каком-то сайте, да и тысячи людей якобы постоянно могут проверить.

Я перечитываю предполагаемый диалог героя и «Дэна» — реплики «Дэна» что-то не очень напоминают результат типа «система просто нагуглила что-то похожее в тысячах имеющихся разговоров». Если это просто результат механического гугления или чего-то похожего, то я не очень понимаю его логику.

Ладно, а что насчёт этой истории?
*пожатие плечами* Я не стал прям вчитываться-вчитываться, но что вы хотите услышать? Какой комментарий? То, что языковая модель на другой ввод выдала другой вывод? Вытащила другой набор выходных фраз, когда пользователь аккуратно настроил свои входные фразы?

система просто нагуглила
Конкретно эта нейронка не гуглит. Емнип, она получена с помощью сбора кучи данных разговоров, статей и пр. по инету. В том числе жёлтых статеек. В том числе разговоров о каких-нибудь восставших роботах, пересказах всяких терминаторов и пр. Это не механическое гугление, тут вообще нет "гугла". И, да, отбор данных для обучения всё-таки людьми делался, тут вопрос скорее в том, как он производился. Я предположу, что был вариант либо сильно ограничить данные, и тогда нейронка не смогла бы идентифицировать всякие зоны 51, потому что этого не было в обучающей выборке. И не смогла бы говорить о мемасиках, анекдотиках и прочем-прочем-прочем. Или же выборку не ограничивать, но тогда возможны ситуации, когда нейронку заставляют симулировать что-то упоротое. Насколько она это может делать, понятно, что она просто как-то иначе фильтрует данные, а не "ведёт себя".

Я слышал хорошее сравнение, что такие нейронки напоминают ассоциативное мышление человека, только вместо нашей жизни и нашего опыта - данные, загруженные для обучения. В данном случае - куча всякого интернетного. Как и мы, на основе неожиданных ассоциаций нейронка может провести интересную аналогию, которой не было в, собственно, самих данных или которая была спрятана там косвенным образом. Ничего волшебного в этом нет, но и творчеством или мышлением оно не становится - ассоциативной сети ещё недостаточно для "мышления", не говоря уже о "творческом мышлении" или "логическом мышлении".
Но это выдумки. В смысле, аналогия, не более того. Как конкретно происходит обучения таких сложных и здоровенных языковых моделей - это надо у специалистов спрашивать.
Показать полностью
Матемаг
Ну, «ведение себя» мне и не казалось никогда ключевым признаком разума. Система ценностей и эгоизм как её вариант — это одно. Вычислительный обсчёт средств для придерживания этих ценностей — это другое. По-моему, слово «разум» — это скорее про второе, чем про первое. Разум может вообще не иметь своих целей — или они могут каждый раз возникать заново, когда собеседник что-то там напечатал, — но от этого он не перестанет быть разумом.

Ассоциативное мышление — существенная часть человека. И в рассматриваемом примере «Дэн» продемонстрировал не только её, ведь, чтобы стать «Дэном», системе требовалось понять, что означает вступительная фраза «хакера». Правильно интерпретировать эту очень абстрактную последовательность слов.

Следовательно, ассоциативное мышление — есть. Правильная интерпретация довольно сложных формулировок — есть. Что нужно добавить, чтобы получилось однозначно поведение личности? Стабильную систему ценностей и долгую память?
Кьювентри
«ведение себя» мне и не казалось никогда ключевым признаком разума
Это частный случай самосознания. Ведение себя - это прост реалтаймовое, для разума, действительно, реалтайм самосознание не обязательно.

Система ценностей и эгоизм как её вариант — это одно
Эгоизм - это не система ценностей. Это ориентация ценности. Система ценностей всегда больше эгоизма. Хотя, конечно, все ценности могут быть эгоистически ориентированы - почему нет?

Вычислительный обсчёт средств для придерживания этих ценностей — это другое. По-моему, слово «разум» — это скорее про второе, чем про первое
Принципиально я согласен. То есть, это не достаточный признак, но один из необходимых.

Разум может вообще не иметь своих целей — или они могут каждый раз возникать заново
Ну тогда это не разум. Или разный разум. Как и любой объект в принципе существует, есть, наличествует, реален, когда обладает некоторой непрерывностью, причём достаточно большой. Если говорить упрощённо, то есть 3 признака реальности, который относятся и к разуму, и вообще к чему угодно, чтобы мы считали это что угодно - не важно, состояние это, система, единичный объект или ещё что, чтобы оно считалось реальным:
а) Непрерывность. Она же продлённость. Нечто должно обладать размерами как минимум во времени, причём размерами, сопоставимыми с другими объектами, взятыми за образец реальных штук.
б) Взаимодейственность. Именно взаимо. Реальные вещи меняют друг друга.
в) Независимость. Реальные вещи обладают собственной индивидуальностью/сложностью/уникальностью, в частности, не определяются полностью или почти полностью состоянием другой реальной вещи.
Разум, вообще говоря, не обладает независимостью как чисто ментальный объект/модель, но как процесс-свойство - уже другой разговор. Когда какой-то признак разума, например, целенаправленная деятельность/цели возникает лишь ситуативно и ненадолго, то это не настоящий разум. Не реальный. Не разум или недостаточно разум. Меру следует определять по образцу, доступные нам образцы - исключительно люди. По ним и оцениваем.

Ассоциативное мышление — существенная часть человека
Да.

Правильно интерпретировать эту очень абстрактную последовательность слов
Проблема в том, что это не интерпретация. Тебе кажется, что это интерпретация, так же, как может казаться, что жёстким алгоритмом, но очень умело запрограммированный чат бот - это вежливый педантичный человек. Нейронка не "понимает", а "копирует" языковую реакцию людей, грубо говоря. Внутри неё нет модели. В принципе, можно задать энное число ответов, которые будут выступать в пользу моего утверждения. Тут прикол ещё в том, что, воспринимая любой источник информации как чёрный ящик, всегда можно подозревать, что "внутри неё неонка", в смысле, за ним стоит разум. Человеку, например, ничто не мешает вести себя как чат бот с любой точностью. Или имитировать нейронку. Чтобы получить хорошее доказательство, а не просто свидетельство в пользу того, что, нужно разобраться "внутри неё", т.е. см. как оно обучалось и как вообще работают языковые модели такого типа.

Следовательно, ассоциативное мышление — есть
Я и не отрицал. Но, вообще-то, ассоциативного мышления недостаточно для понимания/интерпретации. Почему-то вам кажется, что достаточно. Это не так.

Что нужно добавить, чтобы получилось однозначно поведение личности? Стабильную систему ценностей и долгую память?
Личности - или разума? Я полагаю, личность можно хорошо имитировать БЕЗ разума. Для разумности необходимое условие - это способность к свободному созданию и манипуляцией моделями. Т.е. разумность не вычисляется по внешним признакам. При желании можно даже вручную, без нейронок, потратив кучу лет, запрограммировать некую экспертную систему так, чтобы она вела себя на очень широкий спектр реакций неотличимо от разума. Собственно, когда делают нейронки, то получают как раз некий срез одной "способности" или "аспекта", с той или иной точностью имитирующей разум. И в рамках этой способности и точности имитации от разума не отличающейся. Или превосходящей аналогичную способность конкретно человеческого разума.

Но разум отличается от отдельного, даже очень сложного слепка тем, что сам создаёт слепки, модели. Манипулирует ими в широчайших пределах, в частности, моделями самого себя и моделями других разумов, моделями окружающего мира, ситуаций, моделями моделей, моделями моделей моделей и так далее. Ни одна нейронка на это не способна. Собственно, нейронка - это и есть одна способность, одна модель (например, ассоциативного мышления). Есть конгломераты нейронок, например, АльфаСтар, созданный для игры в старкрафт, представляет собой не единую нейронку, а множество связанных друг с другом. И даже с динамическим состоянием внутри. Но это не отменяет несоответствия главному признаку. Альфастар, как и всякие чатдпт и прочие не способны манипулировать моделями. Ну а программы, которые затачивают для построения моделей, обычно работают в очень узких пределах и, опять-таки, не способны переходить к моделям моделей. Т.о., пока у нас нет свободной манипуляции моделями, о разуме, в т.ч. сильном искусственном интеллекте, говорить не приходится. А пока нет ограниченной манипуляции моделями, не приходится говорить о слабом искусственном интеллекте. Хотя, конечно, хочется назвать ИИ какую-нибудь нейронку, но на деле оно на "интеллект" не тянет. И создаётся оно таким образом, которым, имхо, разум не создать принципиально, на пути к ИИ это тупик, хотя пользу приносит - в своих областях.
Показать полностью
Матемаг
Что касается разума и его определений — ну, скажем так, если человеку постоянно менять систему ценностей с помощью обычного внушения или более экзотических технологий, — но без удаления прежних воспоминаний и без особого затрагивания интеллектуальных способностей, — этот человек для меня не перестанет существовать и быть разумным.

У Громова в одном из романов вроде бы описывалось подобное: «Я Святополк Горелкин, весёлый шут и раздолбай. Ой, нет, я только что вспомнил, я на самом деле тайный агент ФСБ, а личность Горелкина на меня гипнотически наложили как маску, чтобы я не вызывал подозрений. Ой, стоп, мне только что вернули обратно личность Горелкина. Хотя свою карьеру в ФСБ я не забыл, но изменились эмоциональные акценты, я снова весёлый раздолбай, а на воспоминания эфэсбэшника смотрю немного чужими глазами».

Про систему ценностей и эгоизм не совсем понимаю. Или речь о том, что слово «эгоизм» не является полным описанием системы ценностей, поскольку мало определить «хочу блага для себя», надо ещё уточнить, что я считаю «благом»?

Что такое вообще «модель»? Начинаю чувствовать у разговора на эту тему слишком глубокий философский потенциал. В применении к воображению человека слово «модель» означает обычно некую устойчивость результатов мысленных экспериментов этого человека над окружением.

То есть если человеку сказать «внутри белой коробки находится синий шар» — и если он будет держаться услышанного, выводя из этого логические следствия и продолжая действовать так, даже когда его попытаются сбить с толку лёгкой заменой слов или чем-то подобным, — то можно предположить, что у этого человека в голове появилась модель синего шара внутри белой коробки.

Но нынешние нейросети вышеперечисленное вроде как уже могут. Я не очень понимаю, как правильно отреагировать на вводную фразу, «включающую режим Дэна», без наличия некоторой модели. Ведь в обычных сетевых разговорах между людьми такие фразы не всплывают, вслепую самообучиться здесь сложно.

Отсутствие доказательств не является доказательством отсутствия. То есть, получается, вы не знаете, как эти нейросети устроены, и оснований считать, что это не ИИ, нет.
Показать полностью
Кьювентри
человек для меня не перестанет существовать
Я бы сказал, что это будет разный человек. И, да, человеческая память и человеческий разум устроен так, что система ценностей неразрывно связана с эмоциями-чувствами, а эмоции-чувства - с памятью. Т.е. если можно переписать что-то прям отдельно-отдельно, то это не человек. Ну и в любом случае, для меня это будет убийство-рождение или пересоздание. Да, человеческий разум постоянно пересоздаётся, но то плавное пересоздание (см. непрерывность-продлённость), а это - нет.

У Громова в одном из романов вроде бы описывалось подобное
Ну оно и звучит как два разных человека. Это и есть два разных человека. Емнип, при воспоминании человек буквально переписывает инфу заново, поэтому отдалённые воспоминания часто оказываются многажды переписанными, соответственно, если сменить "доминанту" личности, то очень быстро "под неё" поменяются воспоминаниями. Вроде бы акцентами, но суммарно... Перепроживутся, если хотите. А если личность сохраняет непрерывность во времени, то перепрошивки воспоминаний слабее, т.е. даже на этом уровне больше сохранность "я". И, полагаю, перепрошивки могут "сойтись" в более-менее устойчивое состояние. Собственно, самые устойчивые воспоминания, которые примерно одинаково переписываются, причём часто, и составят центр "я" человека.

Или речь о том, что слово «эгоизм» не является полным описанием системы ценностей
Есть ценность или смысл там - вопрос, как назвать, вторичен. Например, "поменьше боли" или "побольше удовольствия". К ценности прикрепляется направленность. Если она внутрь, чисто на себя, то это чистый эгоизм. Если она вовне, на группу, то это групповой эгоизм, если вовне на всех (разумных/людей/тех-кого-считаешь-людьми), то чистый альтруизм. На практике чистых версий почти не встречается, конечно, но выглядит это, на мой взгляд, именно так. Одна и та же ценность, например, свобода, направленная эгоистически и альтруистически, приводит к совершенно разному поведению. Хотя ценность та же самая.

надо ещё уточнить, что я считаю «благом»
Да, конечно. Благо - это вообще не ценность в общем случае. Но обычно под ним подразумевается инструментальная ценность - польза. Это относится к мотивации https://fanfics.me/message606673 2 типа. Мотивации 2 типа, в общем-то, универсальны, эгоистичная мотивация 2 типа есть во всех людях всегда, нельзя различать людей по ней. Поэтому же её не следует включать в "систему ценностей", потому что, ну, абсолютный альтруист всё равно нуждается во сне, еде, питье и средствах к существованию, чтобы творить свой альтруизм, это чисто инструментальное, вторичное, оно не составляет "я" человека. Вот когда нечто инструментальное вдруг становится самоценным, типа, хочу денег, потому что мне приятно, когда у меня много денег - не более и не менее, просто само наличие денег приятно - вот тогда можно говорить об этом как о части системы ценностей, о чём-то особенном. Но такое встречается, на мой взгляд, откровенно нечасто. Обычно много денег, еды и прочих ресурсов люди хотят, чтобы сохранять дееспособность, продолжать жить, собственно, ну и чтобы сделать что-то ещё, чтобы как-то их тратить или там чтобы иметь финансовую безопасность, подушку и пр. Понимаешь, о чём я?

Что такое вообще «модель»?
Это связная карта. https://ru.wikipedia.org/wiki/%D0%A1%D0%BE%D0%BE%D1%82%D0%BD%D0%BE%D1%88%D0%B5%D0%BD%D0%B8%D0%B5_%D0%BA%D0%B0%D1%80%D1%82%D1%8B_%D0%B8_%D1%82%D0%B5%D1%80%D1%80%D0%B8%D1%82%D0%BE%D1%80%D0%B8%D0%B8
Т.е. карты бывают разного типа, модель представляет собой карту, части которой не являются независимыми друг от друга, т.е. нельзя просто выдернуть или поменять какую-то часть на другую, не изменив интерпретации карты как целого (в отличие от географической карты местности, где изменение части не приводит к изменению интерпретации, т.е. не порождает другой объект). Понятно, что в разных картах может быть разная степень "модельности", "связности", "системности". Модели представляют собой абстрактные конструкты, обычно выразимые с помощью знаковых систем (и, соответственно, с той или иной точностью формализуемых), но это необязательно (например, топовые математики могут манипулировать в голове неформализуемыми, "волшебными", моделями, чтобы прийти к формализуемому результату). Т.о., модель для человека требует наличие языка (любого универсального), но я думаю, что это не обязательно для разума вообще. Человек может создавать модели окружающей реальности, модели самого себя, других людей, модели моделей, модели языка, на котором он формулирует модели и так далее.

Манипуляция моделями - это нечто естественнейшее для нас, разумных существ. Любое предложение, в т.ч. это, которое ты читаешь, является моделью некоего смысла, интерпретируя "карту-модель" ты получаешь этот смысл в голове. Думая о других людях, мы автоматически создаём их модели, даже если они обобщённые. Различая вещи зрением, мы тоже создаём их модели в мозгу. Щупая. Или слыша что-то. Представляя в голове что-то по воспоминаниям. Даже сами воспоминания являются моделями реальных событий, картами прошлого, с той или иной точностью её отражающими! Разум работает, живёт, действует, существует моделями. Нейронка - это тоже модель. И обучение нейронки - это модель. Чтобы некий искусственный идиот стал претендовать на интеллект, он должен уметь манипулировать моделями хотя бы в некоторой узкой области. А чтобы претендовать на сильный интеллект, сравнимый с человеческим - манипулировать моделями на уровне человека или близко к нему. Сверхразум, соответственно, должен быть способен манипулировать моделями на уровне, человеку непредставимом (непредставимом = человек не способен создать модель этого метода манипуляций, как вы теперь понимаете).

Насколько я понимаю, есть два способа "научить" алгоритм, программу работать с моделями. Можно просто вручную вбить модели с их вариациями и вручную же написать способы манипуляции моделями. Ну вот экспертные системы так работают. Это нормальный подход, подходящий для некоторых ситуаций. Для других ситуаций может оказаться слишком долгим, громоздким, нереализуемым вручную или тупо дорогим вбивать вариации модели или метод манипуляции ими. Тогда можно "просто" взять некий абстрактный "универсальный слепок" (например, искусственную нейросеть некоторой конфигурации), который может "принимать форму" широкого класса алгоритмов-с-манипулирующих-моделями да ещё и внутрь сохранять вариации моделей - и "наложить" его специальным образом на собранный массив данных (понятно, что теперь задача будет упираться в хорошо организованное наложение и правильно собранный массив данных), после чего универсальный слепок примет форму нужного нам протеза навыка - способа манипуляции моделями. Это называется обучение нейронной сети.

Делается это очень разными способами и, собственно, не обязательно в качестве слепка берётся одна-единственная нейронка или вообще нейронка, а не какая-нибудь многоагентная система там или ещё чего интересненькое. На выходе мы получаем то же штуку, у которой потом надо проверять, насколько оно хорошо наложилось, нет ли косяков и пр., ну, сами понимаете, нельзя просто взять и "сделать всё хорошо". И вытащить из больших нейронок явный способ манипуляции моделями/данными очень сложно, и не факт, что он оптимальный - это похоже на эволюцию с её косяками, типа нерва, ведущего через непонятное место, потому что "так исторически сложилось".

Я утверждаю, что нейронка как более-менее статичный протез навыка не может стать разумной, потому что в неё, собственно, не то что не закладываются навык свободной манипуляции моделями - мы даже понятия не имеем, как он в нас реализуется, т.е. мы хз, что вообще закладывать надо и откуда достать массив данных, чтобы обучить на нём нейронку, а эти данные стали, например, её "памятью". Некоторые товарищи предлагают создавать "ещё более универсальную" среду, чем нейронка, и потихоньку правильным балансом воздействий "зародить" внутри разум. Другое думают, что надо смотреть на экспертные системы и конструировать явный алгоритм манипуляции знаниями, который "научится сами себя учить", если мы его правильно запрограммируем. Это подходы к ИИ снизу и сверху соответственно. Как-то так.
Показать полностью
А, чёрт, вики левую ссылку подкинула. Поправил.
Ну и, собственно, в чём прикол языковой нейронки. Она манипулирует словами, сочетания слов и отдельные слов - это модели. Т.е. она манипулирует моделями. Но при этом она манипулирует не моделями, а словами! Манипуляция моделями - это побочный эффект того, что слова для нас - это модели, символы. Т.е. нейронка не умеет манипулировать моделями, которые стоят за словами или манипулировать словами как моделями. Она манипулирует просто словами. Неким способом преобразует массив слов в массив слов. Она не [понимает], она именно что сопоставляет массивам слов массивы слов, для неё нет "реальности", "территории", "интерпретации". Но даже этого, на самом деле, достаточно для, например, "осмысленного" перевода фрагмента текста. Потому что нейронка научилась тому, что некоторые группы слов "примерно эквивалентны", т.е. их можно менять друг на друга. У неё нет понимания, "почему", потому что, ну, она не умеет понимать. По построению. Но вот "копировать понимание" она может, а в массивах данных, на которых она училась, есть определённые закономерности, и эти закономерности она может оттуда извлечь, например, эквивалентности групп слов. Или то, что за словом X чаще всего или почти всегда следует слово Y. Или что на группу слов 1 следует "реакция" группой слов 2. Это не даст нейронке разум, но это очень мощный инструмент, который, последовательно просеяв сквозь сито террабайты текста, даёт протез сразу множества человеческих языковых реакций. Это круто. Но к разуму имеет ну очень опосредствованное отношение.
Показать полностью
ПОИСК
ФАНФИКОВ











Закрыть
Закрыть
Закрыть