↓
 ↑
Регистрация
Имя/email

Пароль

 
Войти при помощи
Временно не работает,
как войти читайте здесь!
Marlagram Онлайн
28 октября 2021
Aa Aa
К вопросу о дроидостроении, пожалуй. Ну и о границах прогресса.
Отдача от глубокого обучения снижается. Что с этим делать
...
К 2018 году другая модель, NASNet-A, наполовину сократила количество допускаемых ошибок по сравнению с AlexNet, но потребовавшийся для этого объем вычислительных ресурсов оказался более чем в 1000 раз значительнее.

Анализ этого феномена также позволил оценить, как эти результаты сочетаются с теоретическими ожиданиями. Теоретически вычисления должны масштабироваться как минимум в четвертой степени относительно фактического повышения производительности. На практике же для этого требовалось масштабирование как минимум в девятой степени.

Данная девятая степень означает, что для уменьшения показателя ошибок наполовину следует ожидать, что вам потребуется более чем в 500 раз нарастить вычислительные ресурсы. Это сокрушительно высокая цена. Правда, здесь есть и луч надежды: такая пропасть между теоретическими прогнозами и практическими результатами может означать, что до сих пор остаются неоткрытые варианты оптимизации алгоритмов, которые позволили бы радикально повысить эффективность глубокого обучения.

Как отмечалось выше, закон Мура и другие показатели совершенствования аппаратного обеспечения позволили невероятно повысить производительность чипов. Означает ли это, что постоянная эскалация требований к вычислительным мощностям непринципиальна? К сожалению, нет. Из 1000-кратной разницы в вычислениях между AlexNet и NASNet-A, лишь шестикратное увеличение было достигнуто на уровне улучшения оборудования. Вся остальная разница была достигнута наращиванием количества процессоров и все более длительным их использованием, а все это влечет дополнительные издержки.
...
OpenAI, важный аналитический центр, занимающийся изучением машинного обучения, недавно спроектировал и натренировал весьма прославленную языковую систему глубокого обучения GPT-3, потратив на это более 4 миллионов долларов. Хотя они и допустили ошибку при реализации системы, эту ошибку не исправляли, пояснив это в приложении к своей научной статье так: "в силу стоимости обучения, не представлялось возможным переобучить модель."
...
Т. е. продолжая старую тему (реконструкция и достройка, фанон конечно) про "почему не сделать умных дроидов" - да, в Далёкой-Далёкой могут в чёрный ящик настоящего автономного ИИ с ИЛ. Но вот обеспечить контролируемость или хотя бы предсказуемость действий таких машин на достаточно долгих промежутках времени - нет (поэтому периодически обнуляют). А сделать виртин - "умного тупого дроида" - это слишком дорого и сложно в общем случае, а возможно и долго.

Заодно вот такая вот печальная зависимость убивает шансы на "ИИ из гаража" (популярные в нонешней кинофантастике и боевиках) - сделать ИИ (хотя бы уровня Старковского Джарвиса), похоже, слишком ресурсоёмкая задача в масштабах не то что отдельного изобретателя или там корпорации - вероятно, планеты и цивилизации в целом, если брать сравнимый с нашим техуровень.

А масштабы того, что делают шарды технарей в Worm'е надо переоценить в сторону увеличения. Не только прорва энергии, не только фокусы с пространством...

#хабр #starwars
28 октября 2021
1 комментариев из 4
Кстати вполне возможно что еще просто нет некого "ядра" для ии, на основе которого можно было бы consistently собирать ии раз за разом для разных целей. Вполне возможно что оно и не появится вообще, или появится слишком поздно, когда уже сильные ии будут в каждом утюге.

Но можно представить мир в котором оно появилось и не надо каждый раз заводить этот движок универсального распознавания логики в системе в виде диплернинга, а как-то по умному ставить цели и развивать нужное тебе поведение
ПОИСК
ФАНФИКОВ







Закрыть
Закрыть
Закрыть