↓
 ↑
Регистрация
Имя/email

Пароль

 
Войти при помощи
Временно не работает,
как войти читайте здесь!
palen
2 июня 2024
Aa Aa
#нейросети #вопрос #фанфикс_знает_все
Раньше посты о нейросетях просматривала по диагонали, нооо жизнь меняется. И посему назрел вопрос: мне нужно скомпелировать текст, НЕ художественный, достаточно большое, примерно 80 000 знаков. Я могу и сама, но может есть возможность для этого использовать нейросеть? Текст потом "будет обрабатываться напильником" в любом случае (или вообще не буду использовать). Я в этом (нейросетях) ни бум-бум, буду рада любым отзывам-советам-размышлениям.
Язык - исключительно русский, тема - условно - психология.
2 июня 2024
10 комментариев из 21
Home Orchid
Я не студент)
И мне нужна именно , эм, как основа.

alexina
Мне не нужна достоверность. Я б не рискнула суваться с чем-то действительно серьезным и с тем, что я лично не могла бы отсортировать по степени как минимум бредовости.
palen, я дополню, что нейронки экстраполируют инфу. Т.е. у них порой получается бред в самых неожиданных местах, но это будет очень логичный на вид бред, потому что по форме он буквально скатан с других подобных мест. Нет у нейронки инфы о какой-нибудь температуре выращивания дождевых червей (потому что в обучающих материала как раз эта статья не затесалась) - она выдумает. Часто - даже угадает. А иногда не угадает. И так с любыми фактами. Или накатал в сети кто-то убедительную бредостатью ради лулзов, но оформил серьёзно - нейронка на ней научилась тоже, приняла за чистую воду, потому что по форме оно похоже на другие серьёзные статьи. И т.п. Никогда не угадаешь, в каком месте у нейронки лакуна и она "додумала". И правильно ли додумала.
Матемаг
Я отдаю себе в этом отчет.
Вы мне скажите, как попробовать?
Чат GPT неплохо перефразирует, но чем меньше специальной терминологии, тем лучше.
https://chatgpt.com
Я бы предложила что-то в духе:
1. Разбить текст на условные небольшие фрагменты, в которых не предполагается особо специальной терминологии.
2. Закидывать куски текста, из которых нужно сложить фрагмент.
3. Разбавлять получившиеся фрагменты определениями.
4. Обработать топором, а потом напильником.
Навия
Спасибо.
Но я так понимаю - исходники надо искать самой?
Все равно буду пробовать. надо ж учиться(
palen, с рерайтом у неё неплохо дела идут)
palen
Навия
Спасибо.
Но я так понимаю - исходники надо искать самой?
Все равно буду пробовать. надо ж учиться(
Крайне желательно. А то слишком забористо перепроверять факты. Нейросеть - это ж не мозги, она не думает и даже не ищет чаще всего (если в неё/она не встроена в поисковик). Иногда на выходе получится что-то в духе "Расскажите...о собаках! - Собака - это такое животное. На собаках живут блохи! Блохи..."
Навия
Эх, плоха. Как раз искать заранее всего.

alexina
palen, с рерайтом у неё неплохо дела идут)
С ним и у меня неплохо.
llama-3-8b - 1000000 токенов контекстного окна.
GPT4o - 128000 токенов.
128k токенов, это две копии книги «Великого Гетсби» примерно – столько она может держать «в уме» работая с данными
ПОИСК
ФАНФИКОВ











Закрыть
Закрыть
Закрыть