![]() #сырне_отаке #скандалы_интриги_расследования
Когда недавно китайцы выкатили нейросеть среднего уровня DeepSeek и заявлениями о её соотношении цена/качество обрушили западный рынок IT-акций (от Нвидии до OpenAI), руководство OpenAI немедленно выступило с заявлением: дескать, китайцы просто переобучили скопированное у них ядро ChatGPT. Ну как обычно, "сами же китайцы могут только воровать у Белых-то Господ". На основании того, что якобы результаты выдачи DeepSeek при определённых промптах подозрительно похожи и/или содержат самоидентификацию как ChatGPT. Чтобы притормозить падение фондового рынка и показать всем, как именно Белые Господа-то могут правильно, пару дней назад OpenAI представили свой вариант нейросети средне-малого уровня, ChatGPT o3-mini, примерно для тех же задач и той же мощности. Однако зрада подкралась откуда не ждали: пользователи обнаружили, что даже при полностью англоязычных промптах и контексте o3-mini в ответах почему-то спорадически переходит на китайский язык. ![]() В свете чего вопрос "а всё-таки, кто же у кого своровал технологию" заиграл гораздо более яркими и интересными гранями. 3 февраля в 10:17
23 |
![]() |
Матемаг Онлайн
|
Kristall star
тотальный тыринг и пылесосинг всего, что попадается. Во славу копилефта. Не вижу в этом ничего ужасного. В смысле, ничем не хуже благородного пиратства.2 |
![]() |
|
Матемаг
Там проблема даже не в авторских правах тех же художников, а а том, что оно жрёт вот буквально всё, и потому сначала качество может вырасти, а после - упс, и проблемы насчёт проглоченного контента будут далеко не в том, что оно пыжится вотемарки ставить, так как 70 процентов базы спёрто с условного девиант-арта, где юзеры специально пилили вотерки поверх рисунков, чтобы испортить ненасытную нейронку. Но и то, что оно сожрёт приватные фото/видео, личную переписку и коль дотянется - секретные материалы, и всё это радостно переварив, кусками вывалит в виде картинки/текста. А когда в пул контента для обучения попадают результаты самой нейронки или других, то чем дальше и чем больше нейтронного контента нейронкой собрано, тем она выдаёт результаты хуже... Вой о пиратстве - это лишь часть проблемы. 2 |
![]() |
Матемаг Онлайн
|
Kristall star
А когда в пул контента для обучения попадают результаты самой нейронки или других, то чем дальше и чем больше нейтронного контента нейронкой собрано, тем она выдаёт результаты хуже Я думаю, круг уже замкнулся, и нейронки уже учатся на своих же работах. Да, это плохо, но... если честно, мне ни капли не жалко. Ну испортятся нейронки - и? Туда им и дорога. Может, следующие будут учить на нормально отобранном датасете. Дороже, но, опять же, если пропадут гптшки из общего доступа и станут стоить по 10000 долларов в месяц - мир хуже не станет. Скорее лучше.3 |
![]() |
|
DeepSeek так-то реально обдумывает, тогда как новая нейронка от Опенов лишь имитирует бурную деятельность.
|
![]() |
|
Матемаг
> Я думаю, круг уже замкнулся, и нейронки уже учатся на своих же работах Круг замкнулся, когда для нейронок придумали и реализовали соревновательное обучение. Т.е. например, одна учится рисовать, а другая учится оценивать нарисованное первой, и выхлопы взаимно скармливаются друг другу как весовые функции. |
![]() |
|
одна учится рисовать, а другая учится оценивать Без этого невозможны отрицательные запросы, вроде бы? |