↓
 ↑
Регистрация
Имя/email

Пароль

 
Войти при помощи
Marlagram
28 октября 2021
Aa Aa
К вопросу о дроидостроении, пожалуй. Ну и о границах прогресса.
Отдача от глубокого обучения снижается. Что с этим делать
...
К 2018 году другая модель, NASNet-A, наполовину сократила количество допускаемых ошибок по сравнению с AlexNet, но потребовавшийся для этого объем вычислительных ресурсов оказался более чем в 1000 раз значительнее.

Анализ этого феномена также позволил оценить, как эти результаты сочетаются с теоретическими ожиданиями. Теоретически вычисления должны масштабироваться как минимум в четвертой степени относительно фактического повышения производительности. На практике же для этого требовалось масштабирование как минимум в девятой степени.

Данная девятая степень означает, что для уменьшения показателя ошибок наполовину следует ожидать, что вам потребуется более чем в 500 раз нарастить вычислительные ресурсы. Это сокрушительно высокая цена. Правда, здесь есть и луч надежды: такая пропасть между теоретическими прогнозами и практическими результатами может означать, что до сих пор остаются неоткрытые варианты оптимизации алгоритмов, которые позволили бы радикально повысить эффективность глубокого обучения.

Как отмечалось выше, закон Мура и другие показатели совершенствования аппаратного обеспечения позволили невероятно повысить производительность чипов. Означает ли это, что постоянная эскалация требований к вычислительным мощностям непринципиальна? К сожалению, нет. Из 1000-кратной разницы в вычислениях между AlexNet и NASNet-A, лишь шестикратное увеличение было достигнуто на уровне улучшения оборудования. Вся остальная разница была достигнута наращиванием количества процессоров и все более длительным их использованием, а все это влечет дополнительные издержки.
...
OpenAI, важный аналитический центр, занимающийся изучением машинного обучения, недавно спроектировал и натренировал весьма прославленную языковую систему глубокого обучения GPT-3, потратив на это более 4 миллионов долларов. Хотя они и допустили ошибку при реализации системы, эту ошибку не исправляли, пояснив это в приложении к своей научной статье так: "в силу стоимости обучения, не представлялось возможным переобучить модель."
...
Т. е. продолжая старую тему (реконструкция и достройка, фанон конечно) про "почему не сделать умных дроидов" - да, в Далёкой-Далёкой могут в чёрный ящик настоящего автономного ИИ с ИЛ. Но вот обеспечить контролируемость или хотя бы предсказуемость действий таких машин на достаточно долгих промежутках времени - нет (поэтому периодически обнуляют). А сделать виртин - "умного тупого дроида" - это слишком дорого и сложно в общем случае, а возможно и долго.

Заодно вот такая вот печальная зависимость убивает шансы на "ИИ из гаража" (популярные в нонешней кинофантастике и боевиках) - сделать ИИ (хотя бы уровня Старковского Джарвиса), похоже, слишком ресурсоёмкая задача в масштабах не то что отдельного изобретателя или там корпорации - вероятно, планеты и цивилизации в целом, если брать сравнимый с нашим техуровень.

А масштабы того, что делают шарды технарей в Worm'е надо переоценить в сторону увеличения. Не только прорва энергии, не только фокусы с пространством...

#хабр #starwars
28 октября 2021
4 комментария
Уже год-два назад об этом писали умные люди, и с каждым годом будет все заметнее.
Что ж, если люди правильно поймут месседж и начнут вкладывать много денег равномерно в разных теоретиков, может и найдут способы обойти ограничение.
ну так то 5 лямов это не так уж и много
Кстати вполне возможно что еще просто нет некого "ядра" для ии, на основе которого можно было бы consistently собирать ии раз за разом для разных целей. Вполне возможно что оно и не появится вообще, или появится слишком поздно, когда уже сильные ии будут в каждом утюге.

Но можно представить мир в котором оно появилось и не надо каждый раз заводить этот движок универсального распознавания логики в системе в виде диплернинга, а как-то по умному ставить цели и развивать нужное тебе поведение
ПОИСК
ФАНФИКОВ











Закрыть
Закрыть
Закрыть