↓
 ↑
Регистрация
Имя/email

Пароль

 
Войти при помощи
Временно не работает,
как войти читайте здесь!

Комментарий к сообщению


24 мая в 22:08
Правила должны быть эдак в миллион раз сложнее.
Какие правила? У вас буквально есть много много информации связной. На основании этой информации ИИ обучают делать выводы что для 2+2 правильный ответ 4, что для последовательности 1-2-3 дальше логично воткнуть 4, а для 1-3-5 - 7. И более того, есть вся информация доступная, _почему это так_. У вас большой массив информации, которая пересекается во многих местах, и ИИ учат совпадать в вопросе-ответе, т.е. это главная цель - выудить из всей этой информации необходимый минимум, чтобы на вопросы давать ответы. Чтобы на входной сигнал давать корректный выходной. Причём это в целом черный ящик, никому особо не интересно как именно ИИ сохранил у себя внутри информацию. Обучаете на одной информации - получаете одну нейронку с одним опытом, на другой - другую.
А потом сверху ещё наворачивают "случайности", потому что почти всегда нет одного универсального ответа на вопрос.
А потом сверху добавляют контекст, чтобы не просто спрашивать 2+2, но ещё учитывать что это например не в десятичной системе счисления.

Правил нет. Сверху потом ещё добавляют различные проверки что "это не о знаменитостях, не о создании биологического оружия" и прочее. Уже потом, вручную, поверх ИИ. Потому что невозможно в текущем подходе сделать это заранее - невозможно почистить входной опыт\информацию от всего этого дела. А если почистить, возможно потеряется полезная информация.

И вот сеточка, которую годами учили что 2+2 = 4 (и любые другие шаблонные комбинации) в комбинации с возможностью делать случайные выводы, а не самые вероятностные, на больших объемах _внезапно_ смогла давать хорошие ответы на многие темы. Просто у людей обычно ограниченный вход-выход, т.е. невозможно физически услышать\прочитать столько же, сколько ИИ, а потом ещё это запомнить хотя бы в каком то виде, чтобы уметь обсуждать эту тему. И как человек умудряется иногда неправильно что-то запомнить или интерпретировать - ИИ делает то же самое, потому что он потерял исходную информацию, он её сохранил в каком-то виде _достаточном_ для проверяющих.

И нигде нет моделирования человека чтобы ему ответить. Это было бы дорого, а дорого это плохо для тех кто это разрабатывает. Моделировать надо минимум самый - вопрос, предыдущий контекст (по тому же чату обычно), некоторые особенности конкретного обучения сеточки.

Может ли сеточка моделировать человека? Может, если её попросить. Если не просить - она не будет этого делать. Поэтому есть удобные способы сделать ответы сеточки лучше - всякие "подумай где тут легко ошибиться" или "продумай плохие сценарии" например. Это дороже с точки зрения нейросеточек и тупо даже электричества\оборудования, поэтому по умолчанию сеточка даёт максимально простой ответ не вникая в детали.
ПОИСК
ФАНФИКОВ







Закрыть
Закрыть
Закрыть