Коллекции загружаются
К вопросу о дроидостроении, пожалуй. Ну и о границах прогресса.
Отдача от глубокого обучения снижается. Что с этим делать ... Т. е. продолжая старую тему (реконструкция и достройка, фанон конечно) про "почему не сделать умных дроидов" - да, в Далёкой-Далёкой могут в чёрный ящик настоящего автономного ИИ с ИЛ. Но вот обеспечить контролируемость или хотя бы предсказуемость действий таких машин на достаточно долгих промежутках времени - нет (поэтому периодически обнуляют). А сделать виртин - "умного тупого дроида" - это слишком дорого и сложно в общем случае, а возможно и долго.К 2018 году другая модель, NASNet-A, наполовину сократила количество допускаемых ошибок по сравнению с AlexNet, но потребовавшийся для этого объем вычислительных ресурсов оказался более чем в 1000 раз значительнее. Анализ этого феномена также позволил оценить, как эти результаты сочетаются с теоретическими ожиданиями. Теоретически вычисления должны масштабироваться как минимум в четвертой степени относительно фактического повышения производительности. На практике же для этого требовалось масштабирование как минимум в девятой степени. Данная девятая степень означает, что для уменьшения показателя ошибок наполовину следует ожидать, что вам потребуется более чем в 500 раз нарастить вычислительные ресурсы. Это сокрушительно высокая цена. Правда, здесь есть и луч надежды: такая пропасть между теоретическими прогнозами и практическими результатами может означать, что до сих пор остаются неоткрытые варианты оптимизации алгоритмов, которые позволили бы радикально повысить эффективность глубокого обучения. Как отмечалось выше, закон Мура и другие показатели совершенствования аппаратного обеспечения позволили невероятно повысить производительность чипов. Означает ли это, что постоянная эскалация требований к вычислительным мощностям непринципиальна? К сожалению, нет. Из 1000-кратной разницы в вычислениях между AlexNet и NASNet-A, лишь шестикратное увеличение было достигнуто на уровне улучшения оборудования. Вся остальная разница была достигнута наращиванием количества процессоров и все более длительным их использованием, а все это влечет дополнительные издержки. ... OpenAI, важный аналитический центр, занимающийся изучением машинного обучения, недавно спроектировал и натренировал весьма прославленную языковую систему глубокого обучения GPT-3, потратив на это более 4 миллионов долларов. Хотя они и допустили ошибку при реализации системы, эту ошибку не исправляли, пояснив это в приложении к своей научной статье так: "в силу стоимости обучения, не представлялось возможным переобучить модель." ... Заодно вот такая вот печальная зависимость убивает шансы на "ИИ из гаража" (популярные в нонешней кинофантастике и боевиках) - сделать ИИ (хотя бы уровня Старковского Джарвиса), похоже, слишком ресурсоёмкая задача в масштабах не то что отдельного изобретателя или там корпорации - вероятно, планеты и цивилизации в целом, если брать сравнимый с нашим техуровень. А масштабы того, что делают шарды технарей в Worm'е надо переоценить в сторону увеличения. Не только прорва энергии, не только фокусы с пространством... #хабр #starwars 28 октября 2021
5 |
ну так то 5 лямов это не так уж и много
|