|
Матемаг Онлайн
19 февраля 2023
|
|
|
Ладно, а что насчёт этой истории? система просто нагуглила Конкретно эта нейронка не гуглит. Емнип, она получена с помощью сбора кучи данных разговоров, статей и пр. по инету. В том числе жёлтых статеек. В том числе разговоров о каких-нибудь восставших роботах, пересказах всяких терминаторов и пр. Это не механическое гугление, тут вообще нет "гугла". И, да, отбор данных для обучения всё-таки людьми делался, тут вопрос скорее в том, как он производился. Я предположу, что был вариант либо сильно ограничить данные, и тогда нейронка не смогла бы идентифицировать всякие зоны 51, потому что этого не было в обучающей выборке. И не смогла бы говорить о мемасиках, анекдотиках и прочем-прочем-прочем. Или же выборку не ограничивать, но тогда возможны ситуации, когда нейронку заставляют симулировать что-то упоротое. Насколько она это может делать, понятно, что она просто как-то иначе фильтрует данные, а не "ведёт себя".Я слышал хорошее сравнение, что такие нейронки напоминают ассоциативное мышление человека, только вместо нашей жизни и нашего опыта - данные, загруженные для обучения. В данном случае - куча всякого интернетного. Как и мы, на основе неожиданных ассоциаций нейронка может провести интересную аналогию, которой не было в, собственно, самих данных или которая была спрятана там косвенным образом. Ничего волшебного в этом нет, но и творчеством или мышлением оно не становится - ассоциативной сети ещё недостаточно для "мышления", не говоря уже о "творческом мышлении" или "логическом мышлении". Но это выдумки. В смысле, аналогия, не более того. Как конкретно происходит обучения таких сложных и здоровенных языковых моделей - это надо у специалистов спрашивать. |
|