Какие правила? У вас буквально есть много много информации связной. На основании этой информации ИИ обучают делать выводы что для 2+2 правильный ответ 4, что для последовательности 1-2-3 дальше логично воткнуть 4, а для 1-3-5 - 7. И более того, есть вся информация доступная, _почему это так_. У вас большой массив информации, которая пересекается во многих местах, и ИИ учат совпадать в вопросе-ответе, т.е. это главная цель - выудить из всей этой информации необходимый минимум, чтобы на вопросы давать ответы. Чтобы на входной сигнал давать корректный выходной. Причём это в целом черный ящик, никому особо не интересно как именно ИИ сохранил у себя внутри информацию. Обучаете на одной информации - получаете одну нейронку с одним опытом, на другой - другую.
А потом сверху ещё наворачивают "случайности", потому что почти всегда нет одного универсального ответа на вопрос.
А потом сверху добавляют контекст, чтобы не просто спрашивать 2+2, но ещё учитывать что это например не в десятичной системе счисления.
Правил нет. Сверху потом ещё добавляют различные проверки что "это не о знаменитостях, не о создании биологического оружия" и прочее. Уже потом, вручную, поверх ИИ. Потому что невозможно в текущем подходе сделать это заранее - невозможно почистить входной опыт\информацию от всего этого дела. А если почистить, возможно потеряется полезная информация.
И вот сеточка, которую годами учили что 2+2 = 4 (и любые другие шаблонные комбинации) в комбинации с возможностью делать случайные выводы, а не самые вероятностные, на больших объемах _внезапно_ смогла давать хорошие ответы на многие темы. Просто у людей обычно ограниченный вход-выход, т.е. невозможно физически услышать\прочитать столько же, сколько ИИ, а потом ещё это запомнить хотя бы в каком то виде, чтобы уметь обсуждать эту тему. И как человек умудряется иногда неправильно что-то запомнить или интерпретировать - ИИ делает то же самое, потому что он потерял исходную информацию, он её сохранил в каком-то виде _достаточном_ для проверяющих.
И нигде нет моделирования человека чтобы ему ответить. Это было бы дорого, а дорого это плохо для тех кто это разрабатывает. Моделировать надо минимум самый - вопрос, предыдущий контекст (по тому же чату обычно), некоторые особенности конкретного обучения сеточки.
Может ли сеточка моделировать человека? Может, если её попросить. Если не просить - она не будет этого делать. Поэтому есть удобные способы сделать ответы сеточки лучше - всякие "подумай где тут легко ошибиться" или "продумай плохие сценарии" например. Это дороже с точки зрения нейросеточек и тупо даже электричества\оборудования, поэтому по умолчанию сеточка даёт максимально простой ответ не вникая в детали.