↓
 ↑
Регистрация
Имя/email

Пароль

 
Войти при помощи
Временно не работает,
как войти читайте здесь!

Комментарий к сообщению


сегодня в 09:08
Есть один любопытный факт. Обучающие нейросети компании либо уже исчерпали доступные текстовые данные из всего интернета (вероятно, включая и Дзен, и все-все-все) для обучения, либо вот-вот это сделают. Количество данных это один из нескольких параметров, которые прямо определяют качество результата (для актуальных архитектур нейросетей). То есть механически наращивать качество уже больше не выйдет. Кроме того, не очень понятны дальнейшие перспективы. В экспериментах качество на выходе нейросети при подмешивании сгенерированных данных заметно падает. А интернет уже наполнен такими данными. И чем дальше, тем их больше, тем сложнее будет отделить их от "чистых". Что с этим делать, сейчас, кажется, никому не ясно.

Если кому это все интересно, советую вот эту статью про последние успехи и ближайшие перспективы:
https://habr.com/ru/articles/873110/

Статья не относится к совсем простым, но и глубоко в математику не ныряет. И ещё в ней упомянуты модели o1 и o3 от OpenAI. Эти модели относятся к тому же классу "рассуждающих", что и та, которая сгенерировала приведенные в этом посте тексты.
ПОИСК
ФАНФИКОВ









Закрыть
Закрыть
Закрыть