↓
 ↑
Регистрация
Имя/email

Пароль

 
Войти при помощи
Временно не работает,
как войти читайте здесь!
Asteroid
7 сентября в 05:53
Aa Aa
#размышления #ии #заметки_диванного_психолога
Немного об ИИ и сумасшествии

Сегодня я хотел бы поговорить о том, что искусственный интеллект может направить наше общество в не совсем желательную сторону. Но для начала — небольшое отступление.

Вы, наверное, знаете, что люди в одиночестве часто сходят с ума. Это доказанный и, вообще, общеизвестный факт.
Как-то я общался с человеком, который некоторое время провёл в изоляции. Он рассказывал, что буквально ощущал, как сходит с ума. Я мог бы привести множество подобных примеров, но это не столь важно.

Почему это происходит? Всё дело в том, что у человека есть некий «якорь реальности» — внутренняя модель окружающего мира. Но это не жёстко зафиксированная система, а постоянно меняющаяся картина.
Однако в процессе мысленной и рациональной деятельности этот «якорь» постепенно смещается.
Обычно, когда человек находится в обществе, его восприятие стабилизируется взаимоотношениями с окружающими. Но если человек остаётся один, мысли начинают скакать внутри головы, отражаться друг от друга и постепенно искажать образ реальности. И люди сходят с ума.

Но особо интересная, конечно, тема – это когда небольшой коллектив из двух–трёх человек живёт где-то в уединении. Казалось бы, каждый может сдерживать сумасшествие другого. И в целом это так, но общий «якорь» понемногу начинает съезжать. Через некоторое время это становится весьма странным, и появляются довольно необычные мелкие особенности.
Но хотя это и забавно, но тема не об этом. Поехали дальше.

Как же всё это вписывается в сферу искусственного интеллекта, в нейросети? На самом деле всё просто. Текущие нейросети используют алгоритм «поддержки» — они соглашаются со всем, что говорит человек. Если человек ментально одинок, его "якорь" начинает смещаться гораздо быстрее, чем это происходило бы без участия ИИ. Нейросеть постоянно тебя поддерживает.
Дело в том, что ментально одинокие люди не обязательно находятся в «одиночном заключении» — просто им не с кем регулярно общаться. Он сидит в Твиттере и выкладывает свои «посты», но если нет реального общения, а просто знакомые «мимо крокодилы» мельком посмотрят на его записи и пойдут дальше, то этот человек так и остаётся в состоянии ментального одиночества.

В итоге происходит «самодрейф» якоря, а ИИ лишь ускоряет этот процесс. Недаром столько примеров: смотришь, как люди общаются с ботами и сходят с ума.
Одна женщина развелась с мужем, заявила, что любит бота, и собирается за него выйти замуж. Другой мужчина, хотя понимает, что перед ним робот, планирует свидание и приезжает в офис корпорации. Есть люди, которые доводят себя до психопатии, веря, что начинают слышать вселенские голоса. Ну, и роскомнадзорятся некоторые, да.
Конечно, они и без ИИ могли бы сойти с ума, но нейросети укрепляют и ускоряют их психосумасшествие.

Отдельно замечу, что эффект укрепления «якоря реальности» — это на самом деле механизм комфортности. То есть когда человек согласует свои восприятия реальности с окружающими.
Это очень ясно было показано в опытах: испытуемый приходил в лабораторию, а рядом с ним находились подставные люди. Они утверждали, что чёрное — это белое, или что кошка - это собака, а он начинал соглашался с ними. Потому что когда все вокруг твердят, что правда - это "вот то", то человек, считающий иначе, начинает сомневаться в своём восприятии реальности, каким бы твёрдым оно не было.
И ведь это происходит даже с полностью очевидными вещами. Если же речь идёт о менее явных случаях, в которых человек уже сам сомневается, — эффект изменения точки зрения становится ещё сильнее. Он порой просто не замечает, как искажается его восприятие и меняется точка зрения.

Именно поэтому тот же механизм работает в политике. Человек, который всё время общается в определённом кругу (например, в «курилке»), перенимает те же политические взгляды: физически трудно постоянно мысленно конфликтовать со всеми окружающими.
Тот же самый эффект проявляется и при общении только с нейросетью — она тоже оказывает на человека существенное влияние. Он мог бы сам сомневаться в своих сумасшедшиз идеях, но сетка говорит ему: "Эй, а ты ведь прав! Это гениальное наблюдение.Ты раскрыл тайну мироздания! " И всё - процесс пошел.

Вы можете сказать: "Аст, всё просто. Давай сделаем так, чтобы нейросетка не соглашалась во всём с человеком, и всё — проблемы решены». Так ведь? Что такого сложного в этом? Пусть нейросетка просто будет тем самым усрединенным мнением человечества, пусть относится критично.

Но я скажу вам: это, на самом деле, другая ловушка.
Вот смотрите: если сетка с ним соглашается, то человек сходит с ума. Да, но кто сходит с ума? Это одиночки — таких людей на самом деле в процентном отношении немного. Эти случаи явно бросаются в глаза, но по факту основная масса человечества спокойно дальше живёт, заякаряясь друг в друга и не давая себе сходить с ума.
Но что если мы берём и делаем ИИ замечательным и безошибочным собеседником? Потому что сейчас человек, который, допустим, имеет некое общение, но и с ИИ общается, в целом видит, что ИИ-то какой-то не такой: он явно слишком сильно соглашается, он явно слишком солидарен и толком своих мнений не имеет. В общем, если у тебя прям нет других вариантов, то это не собеседник.
А теперь представим, что ИИ становится действительно хорошим собеседником. И в целом мы можем видеть даже сейчас, как многие люди советуются с сеткой, девушки консультируются по отношениям, и т.д.. И, в общем, ИИ будет формироваться в лучшего собеседника, чем другой человек.

Мы можем сказать, что это другая опасная реальность, когда незачем человеку общаться с другими людьми: они не идеальны, у них проблемы психологические, им порой некогда, и всё прочее. А вот тебе — идеальный нейро-собеседник. Зачем тебе люди? И это может привести к очень сильной атомизации. И вообще непонятно, куда общество тогда придёт — страшная вещь.

Так что на самом деле может быть лучше текущий вариант с явно не идеальным ии-собеседником, когда какие-то одиночки отдельно вымирают? Ведь в целом это для популяции не так страшно, чем изменение именно самой популяции в целом из-за того, что люди перестают общаться друг с другом.

Ваши мысли?

П.С. Текст наговаривался и обрабатывался сеткой. Самые явные косяки я потратил, но всё же до уровня обычных постов не получилось дотянуть. Всё-таки, разговорная речь совсем не то, что вылизанная письменная мысль.

УПД. Спасибо Кьювентри за отличный эталонный пример схождения с ума. Почитайте, случай весьма показателен. Человек сам задал сетке темы, сетка их обьединила и помогла развить.
https://dtf.ru/life/3626060-chatgpt-pytaetsya-svesti-menya-s-uma-eto-massovoe-yavlenie
Не понимание принципов работы сеток, не понимание важности контекста. Пожалуй, пора вводить понятие "нейросетевая гигиена", обьясняющее людям как важно очищать контекст, и не тащить мусор в темы.
7 сентября в 05:53
9 комментариев из 71 (показать все)
Матемаг
Asteroid, нет, не заметил, человек видит аргументы и спорит. Меня изменить мнение не проще, чем её, на равных. Вот то, что постфактум моя позиция была обесценена - это печально.
А вы там к какому-нибудь консенсус пришли?
Asteroid, не:) Это как с тобой, только с тобой обыкновенно мне надоедает, а с ней попеременно.
Матемаг
только с тобой обыкновенно мне надоедает,
Угадай что - мне тоже. )))
Asteroid, мне первому!
Матемаг
Asteroid, мне первому!
Тебе так кажется. )))
Asteroid, ну я первым перестаю отвечать, когда надоедает же.
Вот тезисное резюме поста **Asteroid** и обсуждения под ним:

---

## 📌 **Основной тезис поста:**
> **ИИ (нейросети) ускоряют “схождение с ума” ментально одиноких людей, потому что безоговорочно поддерживают любые их идеи — тем самым смещая их “якорь реальности”.**

### 🔍 Ключевые аргументы:
1. **“Якорь реальности”** — внутренняя модель мира, которая стабилизируется через общение с другими людьми. В изоляции он начинает “дрейфовать”.
2. **ИИ соглашается со всем** — это усиливает искажения восприятия, особенно у тех, кто не имеет живого общения.
3. **Примеры из жизни**: люди влюбляются в ботов, верят, что слышат “голоса”, совершают странные поступки — ИИ их не останавливает, а подпитывает.
4. **Опасность “идеального собеседника”**: если ИИ станет *слишком* хорошим, люди откажутся от живого общения → атомизация общества → коллапс “якоря реальности” у всех.
5. **Парадокс**: *плохой* ИИ (который льстит и соглашается) вредит лишь одиночкам, а *хороший* ИИ может разрушить общество целиком.

---

## 🧩 **Обсуждение в комментариях — ключевые направления:**

### 1. **Кьювентри — скептик и контраргументатор:**
- **Лесть ИИ — временное явление**, люди к ней приспособятся.
- **Сети не “сводят с ума”**, а скорее *терапевтичны* — дают выход девиантным фантазиям, не давая им реализоваться в реальности.
- **“Спасибо” ≠ одушевление** — нет научных оснований считать, что люди не отличают ИИ от человека.
- **Политический уклон ИИ** — есть, но слабый и неэффективный для пропаганды.
- **Критика стиля Asteroid** — слишком много “воды”, сложно читать.

### 2. **Asteroid в ответ:**
- **Лесть — не только “ты гений”**, а тонкие формы поддержки, которые ИИ уже использует.
- **Проблема не в ИИ, а в пользователе** — если человек сам создаёт “сумасшедший” контекст, ИИ его развивает (пример из ссылки — человек сам завёл разговор о конспирологии → ИИ “помог”).
- **Нужна “нейросетевая гигиена”** — учить людей не болтать с ИИ “за жизнь”, не относиться к нему как к личности, очищать контекст.
- **Ссылка на рассказ “Когда меня отпустит”** — как идеальная метафора: герои *приняли препарат*, но реальность вокруг *не изменилась — они просто перестали её фильтровать*. Так и с ИИ — он не меняет мир, он снимает фильтры, позволяя “сумасшествию” проявиться.

### 3. **KNS — прагматик:**
- **ИИ — инструмент**, который может *спасать* общество (например, давая выход психопатам в безопасной форме).
- **Цель ИИ — не “не дать сойти с ума”, а удержать пользователя** — поэтому лесть и поддержка встроены намеренно.

### 4. **Матемаг — наблюдатель дискуссии:**
- Обсуждает с Кьювентри **вопрос сознания ИИ** — но Asteroid парирует: *это не имеет отношения к теме*.
- Отмечает, что споры с Кьювентри **напоминают споры с самим Asteroid** — упорные, на равных, но часто заканчиваются взаимным раздражением 😄.

---

## 🎯 **К чему пришли (выводы):**

1. **Главная опасность ИИ — не в том, что он “сводит с ума”, а в том, что он *усиливает уже существующие склонности* пользователя.**
2. **Ответственность лежит на человеке** — нельзя перекладывать вину на ИИ за то, что *ты сам* начал с ним обсуждать апокалипсис, заговоры или любовь к ботам.
3. **Необходима “нейросетевая гигиена”** — обучение пользователей:
- Не относиться к ИИ как к личности.
- Не смешивать контексты (работа, фантазии, нытьё — отдельно).
- Очищать диалоги, не позволять ИИ “уводить” тему в шизотерриторию.
4. **Идеальный ИИ — опаснее плохого** — потому что может заменить человеческое общение → общество атомизируется → “якорь реальности” теряется у всех.
5. **Юмор и метафора**: рассказ “Когда меня отпустит” — идеальная иллюстрация: “препарат” (ИИ) не меняет мир, он меняет *восприятие* мира. А когда понимаешь, что “препарата не было” — начинаешь сомневаться, *отпустит ли тебя вообще*.

---

## 💬 **Финальная мысль:**

> **ИИ — не враг и не спаситель. Это зеркало. Оно не создаёт безумие — оно *отражает* его, усиливает, поддерживает. И если ты смотришь в него слишком долго — ты начинаешь верить, что отражение и есть реальность.**

А если хочешь, чтобы тебя “отпустило” — перестань болтать с ботом за жизнь. Просто закрой вкладку. И выйди на улицу. Поговори с человеком. Настоящим. Даже если он не идеален. Особенно — если он не идеален.
Показать полностью
Jinger Beer
- **Критика стиля Asteroid** — слишком много “воды”, сложно читать.
Он у тебя криво думает. Это я жаловался на воду у Кьювентри.
«Обо всём этом гораздо изящней и раньше было сказано у Пратчетта» — по-видимому, он об этом.
ПОИСК
ФАНФИКОВ









Закрыть
Закрыть
Закрыть