↓
 ↑
Регистрация
Имя/email

Пароль

 
Войти при помощи
Asteroid
22 марта в 18:08
Aa Aa
#читательское #размышления #нейросети
Когда-то самым простым способом найти качественный текст на фикбуке было просто взять тексты с наибольшим количеством просмотров и лайками. Спустя некоторое время накрутки стали нормой.
С тех пор единственным более-менее быстрым способом отсева оставались комментарии. Почитаешь их и понимаешь: чем довольны или недовольны люди. И уже примерно понимаешь: зайдет ли и тебе.
Комменты от ботов отфильтровывались сознанием автоматически.

Но теперь можно загнать всю историю в сетку и не только попросить сгенерировать хвалебных комментов с учетом контекста истории, но и устроить горячие обсуждения между ботами.
Не нравятся комментарии? Включаешь ботов, и весь "негатив" смывается в темные глубины наплывом обсуждений, пожелаек и похвальбы.

Если вас пугает эта картина мира, где понять качество текста можно только порядком углубившись в него. (Потому что нейросети-редакторы, и по плохому стилю УГ уже не вычислишь.) То добавьте в мысленную картину тот факт, что большинство людей конформисты, и если текст не совсем плох, то увидев хвалебные комментарии, они, возможно, начнут сомневаться не в тексте, а в себе.

Это было бы действительно страшно для читателя, если бы в двери не стучались нейросети-авторы.
Вот составил я недавно заявку про злую Систему, и тишина. Может быть, вряд ли, но может быть, в течении месяца она кого-то и заинтересует. Но скорее её смоет в глубины фанфикса.
Но даже если талантливый автор возьмется за заявку прямо вчера, то всё равно более-менее приличный кусок текста получится нескоро. А внутренний читатель, стуча руками и ногами, требует читать здесь и сейчас.
И с нейросетями он может её получить. Здесь и сейчас. В любом обьеме. С любыми желаемыми правками.

Приближающаяся эпоха, конечно, страшит. Уже сейчас на том же АТ есть несколько авторов, которые начали в 2023 году серии, и к сегодняшнему дню "написали" уже около пары десятков книг. Один вообще выпускает новую книгу каждые две недели.
Но мы знаем, что автор - это в первую очередь про новые свежие идеи. А нейросеть по определению выдаёт вторсырье.
Так что никакая нейросеть не убьет высокое призвание автора!

"Эй, чатжпт, чекни свежак на АТ, фикбуке, и фанфиксе на наличие новых идей, и включи их в мой онгоинг."
22 марта в 18:08
11 комментариев из 13
Рассуждения Галины Юзефович на тему "Как ИИ изменит литературу": https://www.youtube.com/watch?v=Y0lA3R1PQas 18.03.2024.
Так вот откуда все эти комменты и лайки от тех, кому нравится некачественная литература. А я думала, с людьми что-то не то :)))
нейросети-редакторы, и по плохому стилю УГ уже не вычислишь
Да лан, нейронки обучаются на сетах, получается среднестатистическая хрень. Чего ты, не отличишь средний "шедевр" АТ от хорошего уровня, серьёзно? А на хороший уровень - не обучишь. Потому что сета такого нет, произведений мало. В смысле, произведений, может, и достаточно, но если мешать стили всяких совершенно разных, допустим, классиков (кстати, у классиков тоже встречается говностиль, так-то, порой они классики за смысл, а не стиль), то получится местами даже хуже, чем среднее по какому-нибудь АТ. Нельзя просто сказать нейронке "пиши хорошо" и она будет писать хорошо. Мусор на входе - мусор на выходе, правило всё то же. Только в данном случае вход - обучающий сет, а выход - генерящая тексты нейронка.
Я уж не говорю о том, что сама структура GPT, основанная на предсказании следующего слова, как бы не подразумевает макроструктуры. Нужна не простая GPT, а очень дорогая система из нейронок и обычных программ, которые будут выполнять весь набор писательской работы (строчить строчки норм стилем - это вообще не писательство ещё, так же, как кодить код норм стилем - не программирование). Что-то вроде альфастар-бота для игры в старкрафт, только ещё сложнее и тоньше. И стоить доступ к такой штуке будет очень, очень много. Если она вообще будет окупаться хотя бы в проекте и потому появится, хех. Я уж не говорю о том, что на русском языке её не будет точно.
Матемаг
Потому что сета такого нет, произведений мало.
Например, чатжпт4 может перейти на общение на олбанском после пары абзацев примера. Некоторым нейросетям, копирующим голос, достаточно пары минут образца для более менее приличного подражания.
Так что специализирующейся на стилях нейросети хватит одной книги для настройки.
Матемаг
уж не говорю о том, что на русском языке её не будет точно.
Это точно заблуждение.

сама структура GPT, основанная на предсказании следующего слова, как бы не подразумевает макроструктуры
Щас с компа зайду, скину тебе ссылку на статью. Дело в том, что сейчас модели учат генерировать внутри себя симуляцию мира.
Понимаешь, да? Я даю заявку, модель генерирует по ней мир, а затем я прошу написать историю про попаданца, который ничего не знает об этом мире.
Если мне не нравится глава, я прошу переписать с нужными правками. И я всегда могу сказать "а пусть в следующей главе герой пойдет поступать в маг. академию".
Asteroid
может перейти на общение на олбанском после пары абзацев примера
Потому что в сете он был, ну. Прям с высокой вероятностью был.

Так что специализирующейся на стилях нейросети хватит одной книги для настройки
Не согласен.

сейчас модели учат генерировать внутри себя симуляцию мира
А ну да, конечно. Вот как раз в этому мнению я не доверяю. Не, посмотрим, что в будущем будет, конечно - но. А пока сама структура не такая, чтобы.
Матемаг
вот статья:
https://habr.com/ru/articles/794566/

е согласен.
Смысл создания подобной нейросети именно в том, чтобы она могла быстро улавливать стиль и могла обучиться ему на небольшом наборе данных.
Asteroid
Ну, сколько-нибудь веских доказательств там нет (кажется, я уже пробегал по ней глазами когда-то), а самостоятельно вытащить из нейронок такого размера что-то удобоваримое... Я продолжу придерживаться мысли о выдёргивании довольно хаотично закономерностей между словами. Что в простых случаях очень сильно похоже на модель (собственно, это отражение того, что говорят люди, что уже позволяет многое), но не модель. Разница между моделью и отражением, я думаю, понятна. Ну и, напоследок, ещё один важный аспект: даже если как-то научатся отражение выхолащивать именно в модель (я не удивлюсь, но пока, думаю, нет), то это будет модель, составленная на основе слов в интернетах, а не способность генерировать модели, какие тебе нужны для, например, книги.

Смысл создания подобной нейросети именно в том, чтобы она могла быстро улавливать стиль и могла обучиться ему на небольшом наборе данных.
Если это возможно.
Показать полностью
Матемаг
Разница между моделью и отражением, я думаю, понятна
Нет. Ещё Тльич говорил, что-то про то, что наше сознание рождается из отражения мира.
Искать лень.

Если прочтешь статью, там будут примеры, когда чатжпт решала логические задачи, аналогов которых не было в обучающей выборке. Особенн это смешно смотрелось, когда один из создателей ставил эту задачу как пример того, что у нейросети нет модели. А нейросеть взяла и решила задачу.
ReFeRy
Смотри, вот это уже здесь. До симуляции приключений героя в заданном мире осталось, конечно, не один шаг, но и не так далеко.
Развлечение на субботу:
Симулятор выдуманных миров на базе LLM

Описываете вселенную которую хотите создать и Claude 3 ее создает чтобы вы с ней повзаимодействовали в виде текста.

На скрине: я подключился через текстовый браузер Lynx к Google 2040 года, а там вовсю несется AI-кризис 🔍

Ну и дальше, передаете команды в эту выдуманную вселенную – в моем примере можно продолжить гуглить в 2040 году какие-то вещи, открыть википедию будущего и тп.

Ссылка:
https://worldsim.nousresearch.com

Сайт работает на промпт инъекции о которой я расскажу чуть позже, промпт у меня тоже есть.

Интересно, наш мир тоже всего-лишь симуляция и нейрон в гигантской нейронке будущего?
ПОИСК
ФАНФИКОВ







Закрыть
Закрыть
Закрыть