↓
 ↑
Регистрация
Имя/email

Пароль

 
Войти при помощи
Временно не работает,
как войти читайте здесь!
C17H19NO3
3 февраля в 10:17
Aa Aa
#сырне_отаке #скандалы_интриги_расследования

Когда недавно китайцы выкатили нейросеть среднего уровня DeepSeek и заявлениями о её соотношении цена/качество обрушили западный рынок IT-акций (от Нвидии до OpenAI), руководство OpenAI немедленно выступило с заявлением: дескать, китайцы просто переобучили скопированное у них ядро ChatGPT. Ну как обычно, "сами же китайцы могут только воровать у Белых-то Господ".

На основании того, что якобы результаты выдачи DeepSeek при определённых промптах подозрительно похожи и/или содержат самоидентификацию как ChatGPT.

Чтобы притормозить падение фондового рынка и показать всем, как именно Белые Господа-то могут правильно, пару дней назад OpenAI представили свой вариант нейросети средне-малого уровня, ChatGPT o3-mini, примерно для тех же задач и той же мощности.

Однако зрада подкралась откуда не ждали: пользователи обнаружили, что даже при полностью англоязычных промптах и контексте o3-mini в ответах почему-то спорадически переходит на китайский язык.



В свете чего вопрос "а всё-таки, кто же у кого своровал технологию" заиграл гораздо более яркими и интересными гранями.
3 февраля в 10:17
7 комментариев
При этом, если вспомнить срачи у артеров на тему нейронок (как минимум год назад) - как как раз и видно по базе обучения, что в ней очень и очень много подозрительно явно не спрошенных для этого использования картинок.
И основная их проблема даже не в том, что это "бездушное", "забирает работу", "пиздит как не в себя", а тотальный тыринг и пылесосинг всего, что попадается. И контента для обучения. И самих алгоритмов нейронок.
Матемаг Онлайн
Kristall star
тотальный тыринг и пылесосинг всего, что попадается.
Во славу копилефта. Не вижу в этом ничего ужасного. В смысле, ничем не хуже благородного пиратства.
Матемаг
Там проблема даже не в авторских правах тех же художников, а а том, что оно жрёт вот буквально всё, и потому сначала качество может вырасти, а после - упс, и проблемы насчёт проглоченного контента будут далеко не в том, что оно пыжится вотемарки ставить, так как 70 процентов базы спёрто с условного девиант-арта, где юзеры специально пилили вотерки поверх рисунков, чтобы испортить ненасытную нейронку. Но и то, что оно сожрёт приватные фото/видео, личную переписку и коль дотянется - секретные материалы, и всё это радостно переварив, кусками вывалит в виде картинки/текста. А когда в пул контента для обучения попадают результаты самой нейронки или других, то чем дальше и чем больше нейтронного контента нейронкой собрано, тем она выдаёт результаты хуже...
Вой о пиратстве - это лишь часть проблемы.
Матемаг Онлайн
Kristall star
А когда в пул контента для обучения попадают результаты самой нейронки или других, то чем дальше и чем больше нейтронного контента нейронкой собрано, тем она выдаёт результаты хуже
Я думаю, круг уже замкнулся, и нейронки уже учатся на своих же работах. Да, это плохо, но... если честно, мне ни капли не жалко. Ну испортятся нейронки - и? Туда им и дорога. Может, следующие будут учить на нормально отобранном датасете. Дороже, но, опять же, если пропадут гптшки из общего доступа и станут стоить по 10000 долларов в месяц - мир хуже не станет. Скорее лучше.
DeepSeek так-то реально обдумывает, тогда как новая нейронка от Опенов лишь имитирует бурную деятельность.
Матемаг
> Я думаю, круг уже замкнулся, и нейронки уже учатся на своих же работах

Круг замкнулся, когда для нейронок придумали и реализовали соревновательное обучение. Т.е. например, одна учится рисовать, а другая учится оценивать нарисованное первой, и выхлопы взаимно скармливаются друг другу как весовые функции.
одна учится рисовать, а другая учится оценивать
Без этого невозможны отрицательные запросы, вроде бы?
ПОИСК
ФАНФИКОВ









Закрыть
Закрыть
Закрыть