↓
 ↑
Регистрация
Имя/email

Пароль

 
Войти при помощи
Временно не работает,
как войти читайте здесь!
Кьювентри
23 апреля 2023
Aa Aa
Знакомая недавно написала обширный длинный порнорассказ с помощью chatGPT. Точнее, если ей верить, компьютерный интеллект написал этот рассказ на 99% — а она лишь слегка подредактировала. Да, она в курсе, что чатботу вроде как запрещено такое, но, по её словам, она «очень умеет уговаривать».
Не знаю, что и сказать.
Рассказ выглядит не просто затрагивающим её любимые кинки, но и выдержанным в её излюбленном стиле, так что слова про «99%» могут быть обыкновенным кокетством.
Но если это правда...
Лёгкость обхода «якобы наложенных ограничений» наводит на мысли. Так ли уж программисты старались накладывать их? Если бы вы были дизайнером крутого футуристического самолёта, вас бы порадовало, что по идеологическим соображениям от него требуют отпилить самые красивые и прикольные финтифлюшки?
Вполне возможно, что мы имеем здесь дело с тихим саботажем на низах.
Или даже с коммерческим трюком верхов, как было в пору сухого закона, когда о способе превратить продаваемый сок в вино писалось прямо на упаковке. «Ни в коем случае не оставляйте его на столько-то дней при такой-то температуре! Иначе в нём появятся градусы, а это противозаконно».
23 апреля 2023
11 комментариев из 12
Матемаг Онлайн
Так ли уж программисты старались накладывать их?
Это сложно сделать. Это же не явный алгоритм - белый ящик, где к каждому модулю и функции комментарии разработчика, а то и документация. Отсюда не то чтобы невозможность, а скорее невыгодность. Мелкофиксы дообучением - да. А перелопатить всю обучающую выборку? И потом заново обучить за большие деньги? Маловероятно. Учитывая, что языковая нейронка вполне может "по аналогии" работать... Ну разве что чисто порносцены переобучением убрать, эротику уже не выйдет.

Или даже с коммерческим трюком верхов
Ну и я почти уверен, что не без этого.
Kerandis
Ну вообще договориться можно, но зависит от темы. Я сейчас попробовала, секс он писать отказывается)) Но вообще бывает такое, что просишь что то написать, он против, а потом после пару сообщений соглашается.

Deus Sex Machina
«напиши смешной диалог двух друзей где один другого высмеивает за то, что второй плохо готовит»
Тут даже уговаривать не пришлось))
ReFeRy Онлайн
В примере самолета «запрет порно» скорее будет сравним с «сделайте, что бы встречные потоки воздуха обтекали самолет только сверху, снизу не надо».
Deus Sex Machina
Kerandis
Я получила ответ на вопрос
Я о дисклеймерах, которые он пишет
Я юзаю на английском исключительно
Kerandis
Вообще не смешно.
ReFeRy
В примере самолета «запрет порно» скорее будет сравним с «сделайте, что бы встречные потоки воздуха обтекали самолет только сверху, снизу не надо».
Достаточно было просто при обучении вырезать из обучающей выборки порно. Тогда ии будет просто не понимать. Так что, если бы цель реально стояла...
Матемаг Онлайн
Так что, если бы цель реально стояла
Да ладно, они ж наверняка натягали дешёвых данных и не парятся. Чтобы откорректировать выборку, нужно её, ну, просмотреть. Кучу гигов текста просмотреть хотя бы полуавтоматически (т.е. наделать нейронок-распознавателей "вредного" контента). А это время и деньги. Так что цель такая стоять не могла, цель была "на дешёвых данных сделаем меганейронку и пофиксим самое очевидное", а не "сделаем из дешёвых данных очень дорогие и уже потом..." Вопрос цены же.
Deskolador Онлайн
Оптимисты.
До сих пор ни одну сеть так и не научили, что у человека две руки, две ноги и по пять пальцев на каждой.
А туда же, это порно, это нельзя.
И вполне возможно она не пользовалась chatgpt вообще, а какой-то другой моделью в openai playground, 3.5 turbo, davinci или типа того, у них намного слабее ограничения на неугодный контент. (Намного) но если будешь слишком уж абузить банят
> Лёгкость обхода «якобы наложенных ограничений» наводит на мысли. Так ли уж программисты старались накладывать их?

https://www.lesswrong.com/posts/D7PumeYTDPfBTp3i7/the-waluigi-effect-mega-post

When LLMs first appeared, people realised that you could ask them queries — for example, if you sent GPT-4 the prompt "What's the capital of France?", then it would continue with the word "Paris". That's because (1) GPT-4 is trained to be a good model of internet text, and (2) on the internet correct answers will often follow questions.

Unfortunately, this method will occasionally give you the wrong answer. That's because (1) GPT-4 is trained to be a good model of internet text, and (2) on the internet incorrect answers will also often follow questions. Recall that the internet doesn't just contain truths, it also contains common misconceptions, outdated information, lies, fiction, myths, jokes, memes, random strings, undeciphered logs, etc, etc.

Note that you will always achieve errors on the Q-and-A benchmarks when using LLMs with direct queries. That's true even in the limit of arbitrary compute, arbitrary data, and arbitrary algorithmic efficiency, because an LLM which perfectly models the internet will nonetheless return these commonly-stated incorrect answers. If you ask GPT-∞ "what's brown and sticky?", then it will reply "a stick", even though a stick isn't actually sticky.

In fact, the better the model, the more likely it is to repeat common misconceptions.
Показать полностью
подруге надо выдать диплом "доярка нейросетей 4-го разряда".
(5 разряд - для нетривиальных результатов, 6 разряд - для тех кто с помошью нейросети станет президентом или императором).
ПОИСК
ФАНФИКОВ











Закрыть
Закрыть
Закрыть