Как физик, я на всю эту техноересь движуху с повальным внедрением ИИ-алгоритмов в математику смотрю с известным скепсисом. Ещё в начале десятых, когда я заканчивал вуз и начинал работать с моделями верхней атмосферы, мне довелось поработать с одним именитым числовиком, который обожал использовать градиентный спуск для приближённого сведения дифференциальных уравнений к системам линейных алгебраических. Разумеется, для сравнительно скромной системы дифур второго порядка магнитогазодинамики получалась система из тысяч, а то и десятков тысяч линейных алгебраических уравнений.
Числовик успешно защитил докторскую, показав, что разработанный им метод на сколько-то точнее ранее использовавшегося, но все физики, когда-либо работавшие с ним, только плевались от его моделей. Потому что они представляли собой натуральные чёрные ящики, каждое промежуточное состояние которых между вводом начально-краевых условий и получением готового решения было абсолютно неинформативным. Да, в ряде случаев полученное численное решение получалось действительно отличным, но всякая возникшая расходимость или очевидная нефизичность решения (а такое у сыроватых моделей случалось сплошь и рядом) требовала внесения совершенно неочевидных изменений в процесс генерации, которых никто, кроме автора сего математического шедевра, произвести не мог.
Понятно, что в вашем посте речь про куда более совершенные генеративные нейросети, способные создавать проверяемые человеком решения. Правильно ли я понимаю, что впечатляющий (пусть и непонятный мне как непрофессионалу) пример с кривыми является успешной компиляцией проверяемого решения из огромного множества доступных методов и способов? То есть нейронка просто быстрее докопалась до правильной последовательности применения известных алгоритмов решения, чем это могла бы сделать группа исследователей-людей?
Приятно видеть, что тэг "астрономическое" захватывает ленту фанфикса, но IOAA – всё-таки олимпиада для школьников. Занимательно, что LLM может успешно решать "человеко-ориентированные" задачи, но гораздо важнее, как по мне, что она успешно решает заведомо человеко-нерешаемые задачи, в первую очередь, в больших данных. В той же астрономии обработка петабайт данных от "Хаббла", "Уэбба" или радиоинтерферометров с целью выборки редких явлений определённой природы из задачи для научного коллектива на ближайший год превратилась в задачу для локально развёрнутой LLM на пару дней. Да и то ключевым ограничением для скорости её решения будет ширина канала обмена данными с соответствующими базами. На мой взгляд, это куда как круче способности воспроизвести рассуждения одарённого школьника.