![]() #вкалывают_роботы #нейросети #изображения
Не понимаю, почему на большинстве изученных мной сайтов с нейросетями-художниками нет толковой системы оценивания. Их, конечно, не так много пока, я не эксперт, но мне не встречалось ни одного сайта, где бы автор промпта мог оценивать успешность работы нейросети по шкале от 1 до 10. На neural.love можно ставить лайки, но это такое себе — оценка в диапазоне от 0 до 1. Какое к чёрту самообучение, если нейросеть не получает от юзера обратной связи? Или они боятся, что нейросети благодаря игре в «тепло-холодно» слишком быстро научатся рисовать непристойные картинки по одному только намёку юзера? Но кого это волнует? Мне-то хотелось верить, что те-от-кого-что-то-зависит только прикидываются моралфагами, а на самом деле за вещества и свободную любовь. Раз уж это ГП-сайт, вброшу кое-какие намыленные мною рисунки: — «дамбигад»; — «дамбигад, злой Дамблдор, плохой Дамблдор, присягнувший тёмной стороне Дамблдор»; — «злой Дамблдор, плохой Дамблдор, присягнувший тёмной стороне Дамблдор». И не ГП-шное: — «Хомяки, держащие Землю» (не дословно); — «Луна, красивая как лиса» (и более кучерявый вариант). 7 февраля в 07:44
1 |
![]() |
|
Кьювентри
Можно было бы приноровить её под оценки всех сразу Для этого оценки-всех-сразу сначала извлекаются с других сайтов в оценивающую нейронку... а потом оказывается, что зачем пилить себе оценки, если ты уже у других слямзил?:) |
![]() |
|
Кьювентри
Модели поддерживают весовые коэффициенты от -1 до 2, чем больше, тем "более настойчиво" вы требуете конкретное описание или его часть. Синтаксис простой, пример(из моих пресетов): ((fangs, sharp fangs, vampire, pale-white skin, glowing eyes, gothic, high detailed fangs, high detailed eyes:1.3)) То есть промпт берётся в двойные скобки, ставится двоеточие и коэффициент. Сразу скажу, что изменение идёт на десятые(1,1/1,2) и сотые(1,11/1,12) доли |
![]() |
Marlagram Онлайн
|
Проблема в том, что современные нейросетки очень... Легкомысленно, если смотреть глобально, относятся к качеству и глубине обработки обучающих выборок.
Так сложилось. В современной венчурной идеологии и текущей модели развития Сети оказалось, что вот скормить много-много данных даёт финансово осмысленный эффект принципиально быстрее, чем оптимизации и уж тем более что-то совсем глубокое. Подбирать "качественные крошки" в виде оценки пользователя пока что не выгодно и не интересно... |