Коллекции загружаются
#нейросети #вопрос #фанфикс_знает_все
Раньше посты о нейросетях просматривала по диагонали, нооо жизнь меняется. И посему назрел вопрос: мне нужно скомпелировать текст, НЕ художественный, достаточно большое, примерно 80 000 знаков. Я могу и сама, но может есть возможность для этого использовать нейросеть? Текст потом "будет обрабатываться напильником" в любом случае (или вообще не буду использовать). Я в этом (нейросетях) ни бум-бум, буду рада любым отзывам-советам-размышлениям. Язык - исключительно русский, тема - условно - психология. 2 июня в 15:04
2 |
Пока нет. Они путаются в обычных бытовых вопросах, а в специальной терминологии будет просто яичница.
2 |
Торговец твилечками
Эх. жль. И как люди с помощью нейросетей только курсовики и дипломы пишут?( Матемаг Да вот как раз я наделась, что нейросеть может сама найти источники и из них "выжить" самое нужное-подходящее. Дальше-то проще, а вот на поиск нужно иногда уходит дикое количество времени. |
alexina
Нейросеть ещё обучать нужно, чтобы она понимала, что именно ты хочешь. В чат gpt вроде бы можно сейчас файлы загружать. (но это не точно) Плюс 80000 - это много, лучше разбить на более мелкие подтемы и писать на них промты. Разбить можно. Есть план, достаточно подробный.Промты - это что-как? Я реально ни бум-бум, но пора, видимо учится |
я точно не знаю, но она вроде не выдает источники
|
Savakka
суть в том,ч то мне - в идеале надо - не чтобы я ей дала 10 источников иона их причесала, а чтоб она мне нашла информацию в сети - максимально мне подходящую и расставила в нужном порядке, а уж причесать я и сама могу. Это не научная работа и ссылаться в ней на источники мне не надо. |
Savakka
Там такая тема, что сразу станет понятно, плюс не сильно критично. Вообще - как раз сложилась ситуация, что на ней хотелось бы потренироваться. |
palen, промт - это запрос.
чтоб она мне нашла информацию в сети - максимально мне подходящую и расставила в нужном порядке, а уж причесать я и сама могу. Примерно так она и делает, но нейронка не может проверить достоверность информации. Всегда остается вероятность, что напишет красиво, но полный бред.Вот пример промта (в голубой рамке) и ответа Яндекс жпт. Я не знаю насколько достоверная информация, но написано так, что веришь, но расплывчато очень)) |
Сейчас при проверке на плагиат у студентов программа выдает, если написано ИИ. ИИ сам себя и ловит.
|
Home Orchid
Я не студент) И мне нужна именно , эм, как основа. alexina Мне не нужна достоверность. Я б не рискнула суваться с чем-то действительно серьезным и с тем, что я лично не могла бы отсортировать по степени как минимум бредовости. 1 |
palen, я дополню, что нейронки экстраполируют инфу. Т.е. у них порой получается бред в самых неожиданных местах, но это будет очень логичный на вид бред, потому что по форме он буквально скатан с других подобных мест. Нет у нейронки инфы о какой-нибудь температуре выращивания дождевых червей (потому что в обучающих материала как раз эта статья не затесалась) - она выдумает. Часто - даже угадает. А иногда не угадает. И так с любыми фактами. Или накатал в сети кто-то убедительную бредостатью ради лулзов, но оформил серьёзно - нейронка на ней научилась тоже, приняла за чистую воду, потому что по форме оно похоже на другие серьёзные статьи. И т.п. Никогда не угадаешь, в каком месте у нейронки лакуна и она "додумала". И правильно ли додумала.
1 |
Чат GPT неплохо перефразирует, но чем меньше специальной терминологии, тем лучше.
https://chatgpt.com Я бы предложила что-то в духе: 1. Разбить текст на условные небольшие фрагменты, в которых не предполагается особо специальной терминологии. 2. Закидывать куски текста, из которых нужно сложить фрагмент. 3. Разбавлять получившиеся фрагменты определениями. 4. Обработать топором, а потом напильником. 1 |
Навия
Спасибо. Но я так понимаю - исходники надо искать самой? Все равно буду пробовать. надо ж учиться( |
palen, с рерайтом у неё неплохо дела идут)
|
palen
Навия Крайне желательно. А то слишком забористо перепроверять факты. Нейросеть - это ж не мозги, она не думает и даже не ищет чаще всего (если в неё/она не встроена в поисковик). Иногда на выходе получится что-то в духе "Расскажите...о собаках! - Собака - это такое животное. На собаках живут блохи! Блохи..."Спасибо. Но я так понимаю - исходники надо искать самой? Все равно буду пробовать. надо ж учиться( |
llama-3-8b - 1000000 токенов контекстного окна.
GPT4o - 128000 токенов. |
128k токенов, это две копии книги «Великого Гетсби» примерно – столько она может держать «в уме» работая с данными
|