↓
 ↑
Регистрация
Имя/email

Пароль

 
Войти при помощи
Временно не работает,
как войти читайте здесь!
Кьювентри
7 февраля в 07:44
Aa Aa
#вкалывают_роботы #нейросети #изображения

Не понимаю, почему на большинстве изученных мной сайтов с нейросетями-художниками нет толковой системы оценивания. Их, конечно, не так много пока, я не эксперт, но мне не встречалось ни одного сайта, где бы автор промпта мог оценивать успешность работы нейросети по шкале от 1 до 10. На neural.love можно ставить лайки, но это такое себе — оценка в диапазоне от 0 до 1. Какое к чёрту самообучение, если нейросеть не получает от юзера обратной связи?

Или они боятся, что нейросети благодаря игре в «тепло-холодно» слишком быстро научатся рисовать непристойные картинки по одному только намёку юзера? Но кого это волнует? Мне-то хотелось верить, что те-от-кого-что-то-зависит только прикидываются моралфагами, а на самом деле за вещества и свободную любовь.

Раз уж это ГП-сайт, вброшу кое-какие намыленные мною рисунки:
«дамбигад»;
«дамбигад, злой Дамблдор, плохой Дамблдор, присягнувший тёмной стороне Дамблдор»;
«злой Дамблдор, плохой Дамблдор, присягнувший тёмной стороне Дамблдор».
И не ГП-шное:
«Хомяки, держащие Землю» (не дословно);
«Луна, красивая как лиса»более кучерявый вариант).
7 февраля в 07:44
9 комментариев из 13
Кьювентри
Средний вес одного чекпоинта - 6Гб и насчитывает он в среднем 15К шагов обучения (согласно Civitai Models). А теперь представьте, что хранить на сервере придётся не десять-пятнадцать таких моделей, а МИЛЛИОНЫ, на каждого отдельного пользователя. И не важно в процессе (это будет бешенный расход оперативной памяти, у меня одна только генерация 12 Гб жрёт) или в памяти (террабайты памяти для картиночек, на SSD-шнике, иначе долго грузить будет)
Fytase
Хранить процесс приноровления системы К КАЖДОМУ ОТДЕЛЬНОМУ ПОЛЬЗОВАТЕЛЮ — эта возможность мной не рассматривалась (хотя втайне хотелось). Можно было бы приноровить её под оценки всех сразу.
Кроме того, если речь идёт не об обучении системы новым возможностям, а скорее о выработке предпочтений при использовании старых, это разве не сократит размер?
Нет, это будет либо модификацией чекпоинта и прочими вытекающими, либо придётся создавать отдельный доп модуль, конкретно под вас. И опять же его где-то хранить. И придумать, куда его вставлять. Да, это тоже проблема, что-угодно и куда-угодно нейросетка не даёт. Стесняюсь спросить, а весовые коэффициенты вы не пробовали при запросе? Или заготовить текстовый файл с готовыми пресетами?
Матемаг Онлайн
Кьювентри
почему нельзя использовать полученную в промежутке между чекпоинтами обратную связь от пользователей
А почему ты считаешь, что её нет? Другое дело, что делается это внутри компании во время процедуры обучения специально нанятыми людьми. Которые не играться с картинками будут, а постараются за денюжку дать корректную оценку по какой-то чёткой методике.

на основании каких-то признаков
Например, эти признаки можно запихнуть в нейронку, которая обучалась на сайтах, где юзеры могут ставить оценки. Очень удобно. И фильтрует все статфлуктуации типа тролльских оценок, имхи вроде моего "не нравится много красного цвета" и т.п.

Речь о том, чтобы указать нейронке, что из её уже имеющихся навыков более любезно пользователю
У нейронки нет "разных" навыков. Это один большой навык "рисования", который по-разному активируется в зависимости от входного вектора. И, да, я слышал, что его докорректируют порой (но это, опять же, не к работе нейронки, а к обёртке вокруг неё). Саму нейронку дообучают, но это процесс, повторюсь, требующий, денег, времени, вычмощности. Берёшь нейронку, загружаешь обратно в тот кластер компов, где ты её обучал (или, вернее, она там уже есть) и делаешь затратную операцию. Не на основании каждой оценки юзеров же это делать? Дорого. Это делается, когда компания-поставщик нейронки теряет деньги или репутацию на каких-то нейронковых (систематических) глюках и/или ошибках, допущенных при обучении (в смысле бизнес-ошибках - ну как одна из первых визуальных нейронок рисовала исключительно негров - обучили, блин).

Указания такого рода могли бы помочь ориентироваться нейросети в уже имеющемся пространстве возможностей
Это так не работает. В нейронке нет интеллекта, она не может свободно манипулировать моделями. Это, обыкновенно, вообще статичная штука. Продвинутые, которые, обёрнуты другими нейронками, обычным ПО и пр. с коррекцией запросов, но основной "генератор картинок" всё тот же. Там некуда запихать "пространство возможностей" и "ориентироваться".
Показать полностью
Fytase
Там вставляются обычные текстовые промпты на человеческом языке. Можно ли вставлять каббалистические формулы, я не знаю.
Матемаг Онлайн
Кьювентри
Можно было бы приноровить её под оценки всех сразу
Для этого оценки-всех-сразу сначала извлекаются с других сайтов в оценивающую нейронку... а потом оказывается, что зачем пилить себе оценки, если ты уже у других слямзил?:)
Кьювентри
Модели поддерживают весовые коэффициенты от -1 до 2, чем больше, тем "более настойчиво" вы требуете конкретное описание или его часть. Синтаксис простой, пример(из моих пресетов): ((fangs, sharp fangs, vampire, pale-white skin, glowing eyes, gothic, high detailed fangs, high detailed eyes:1.3))
То есть промпт берётся в двойные скобки, ставится двоеточие и коэффициент. Сразу скажу, что изменение идёт на десятые(1,1/1,2) и сотые(1,11/1,12) доли
Есть ещё указание "конкретных" уточнений. Не везде, но есть. Для этого уточнение ставится в \( )\ скобки. То есть, если вы запросите "звезда", сеть будет лепить её куда угодно, а если указать star \(ornament)\, то он будет пытаться делать именно украшение в форме звезды
Проблема в том, что современные нейросетки очень... Легкомысленно, если смотреть глобально, относятся к качеству и глубине обработки обучающих выборок.
Так сложилось.
В современной венчурной идеологии и текущей модели развития Сети оказалось, что вот скормить много-много данных даёт финансово осмысленный эффект принципиально быстрее, чем оптимизации и уж тем более что-то совсем глубокое. Подбирать "качественные крошки" в виде оценки пользователя пока что не выгодно и не интересно...
ПОИСК
ФАНФИКОВ











Закрыть
Закрыть
Закрыть