![]() Знакомая недавно написала обширный длинный порнорассказ с помощью chatGPT. Точнее, если ей верить, компьютерный интеллект написал этот рассказ на 99% — а она лишь слегка подредактировала. Да, она в курсе, что чатботу вроде как запрещено такое, но, по её словам, она «очень умеет уговаривать».
Не знаю, что и сказать. Рассказ выглядит не просто затрагивающим её любимые кинки, но и выдержанным в её излюбленном стиле, так что слова про «99%» могут быть обыкновенным кокетством. Но если это правда... Лёгкость обхода «якобы наложенных ограничений» наводит на мысли. Так ли уж программисты старались накладывать их? Если бы вы были дизайнером крутого футуристического самолёта, вас бы порадовало, что по идеологическим соображениям от него требуют отпилить самые красивые и прикольные финтифлюшки? Вполне возможно, что мы имеем здесь дело с тихим саботажем на низах. Или даже с коммерческим трюком верхов, как было в пору сухого закона, когда о способе превратить продаваемый сок в вино писалось прямо на упаковке. «Ни в коем случае не оставляйте его на столько-то дней при такой-то температуре! Иначе в нём появятся градусы, а это противозаконно». 23 апреля 2023
6 |
![]() |
ReFeRy Онлайн
|
В примере самолета «запрет порно» скорее будет сравним с «сделайте, что бы встречные потоки воздуха обтекали самолет только сверху, снизу не надо».
2 |
![]() |
Deus Sex Machina
|
Kerandis
Я получила ответ на вопрос Я о дисклеймерах, которые он пишет Я юзаю на английском исключительно |
![]() |
|
Kerandis
Вообще не смешно. |
![]() |
|
ReFeRy
В примере самолета «запрет порно» скорее будет сравним с «сделайте, что бы встречные потоки воздуха обтекали самолет только сверху, снизу не надо». Достаточно было просто при обучении вырезать из обучающей выборки порно. Тогда ии будет просто не понимать. Так что, если бы цель реально стояла...1 |
![]() |
|
Оптимисты.
До сих пор ни одну сеть так и не научили, что у человека две руки, две ноги и по пять пальцев на каждой. А туда же, это порно, это нельзя. 1 |
![]() |
|
> Лёгкость обхода «якобы наложенных ограничений» наводит на мысли. Так ли уж программисты старались накладывать их?
Показать полностью
https://www.lesswrong.com/posts/D7PumeYTDPfBTp3i7/the-waluigi-effect-mega-post When LLMs first appeared, people realised that you could ask them queries — for example, if you sent GPT-4 the prompt "What's the capital of France?", then it would continue with the word "Paris". That's because (1) GPT-4 is trained to be a good model of internet text, and (2) on the internet correct answers will often follow questions. Unfortunately, this method will occasionally give you the wrong answer. That's because (1) GPT-4 is trained to be a good model of internet text, and (2) on the internet incorrect answers will also often follow questions. Recall that the internet doesn't just contain truths, it also contains common misconceptions, outdated information, lies, fiction, myths, jokes, memes, random strings, undeciphered logs, etc, etc. Note that you will always achieve errors on the Q-and-A benchmarks when using LLMs with direct queries. That's true even in the limit of arbitrary compute, arbitrary data, and arbitrary algorithmic efficiency, because an LLM which perfectly models the internet will nonetheless return these commonly-stated incorrect answers. If you ask GPT-∞ "what's brown and sticky?", then it will reply "a stick", even though a stick isn't actually sticky. In fact, the better the model, the more likely it is to repeat common misconceptions. 1 |
![]() |
|
подруге надо выдать диплом "доярка нейросетей 4-го разряда".
(5 разряд - для нетривиальных результатов, 6 разряд - для тех кто с помошью нейросети станет президентом или императором). |