↓
 ↑
Регистрация
Имя/email

Пароль

 
Войти при помощи
Временно не работает,
как войти читайте здесь!
Теmр
16 октября в 05:28
Aa Aa
#реал #нейросетевое #математическое #длиннопост

Пока народ негодует из-за брайнрот контента, который захватывает цифровое пространство, есть энтузиасты, которые тестируют нейросетями научные границы дозволенного.

Мне часто попадаются посты/статьи, где с помощью условного GPT-5 (это могут быть и другие сети), что-то улучшили, уточнили или решили из математических задач.

Инженер из OpenAI рассказал о том, как скормил модели статью с нерешенной мат.проблемой и модель, порассуждав 17 минут, смогла улучшить решение ученых.

Речь идет об этой статье. Она относительно свежая и в ней изучается такой вопрос: при каких условиях на размер шага eta в градиентном спуске в гладкой выпуклой оптимизации кривая, определяемая значением функции итераций, будет выпуклой?

Люди смогли доказать, что при eta меньше 1/L кривая выпукла, а при eta больше 1,75/L – нет. Что происходит в диапазоне [1/L, 1,75/L] – осталось открытым вопросов.

Так вот GPT-5 всего за 17 минут удалось улучшить границу и показать, что кривая выпукла при eta меньше 1.5/L. То есть да, разрыв устранен не полностью, но модель сократила его в три раза, при этом приведя полностью прозрачное и правильное доказательство своего утверждения.

Так же нет-нет, да в моём инфополе проскакиевает, что под предводительством DeepMind собирают большую команду учёных, которые вообще решили посягнуть на святое - найти точное решение уравнений Навье-Стокса с помощью нейросеток.

В DeepMind целая команда из 20 человек уже три года тайно работает над задачей Навье - Стокса. Это одна из семи математических задач, удостоенных звания проблемы тысячелетия. За ее решение положена премия в 1 миллион долларов (ну и вечная слава).

До сих пор инженеры работали полностью конфиденциально. Впервые публично об «операции» заговорил сегодня испанский математик Гомес Серрано, с которым Google собираются объединиться для того, чтобы дорешать задачу.

Проблема уходит корнями еще в 19 век. Тогда два математика – Анри Навье и Джордж Стокс – независимо друг от друга опубликовали дифференциальные уравнения, описывающие движение жидкостей и воздуха. И вот, спустя два века, до сих пор не существует общего аналитического решения этой системы.

Если бы оно нашлось, люди смогли бы предсказывать турбулентность и цунами, точнее прогнозировать погоду, лучше понимать кровообращение и даже улучшить современные двигатели. Решение станет настоящим прорывом в физике и математике.

Сейчас в мире за решение конкурируют три группы ученых. В составе одной из них как раз и был Гомес Серрано. Его группа отличалась тем, что они еще несколько лет назад пытались применять ИИ для решения задачи.

Теперь же Гомес объединяется с той самой секретной командой из DeepMind. Они надеятся, что вместе и с помощью ИИ (видимо, имеется в виду AlphaEvolve) они продвинутся в решении уже до конца этого года.

И уже, вроде как (не могу в полной мере оценить ибо не специалист в этом) есть какие-то подвижки.

Странно, наверно читать от меня пост с тегом #астрономическое
Но просто мне захотелось поделиться занимательной инфой.

Еще одна медалька в копилку ИИ: GPT-5 и Gemini 2.5 Pro выиграли золото на Международной Олимпиаде по астрономии и астрофизике (IOAA) (почитать можно тут)

Чтобы понимать сложность олимпиады, учтите, что это даже не просто решение задач по физике и математике. Каждое задание требует многошаговых расчетов, сверки с данными и атласами, глубоких знаний по астрономии и орбитальной механике, построения графиков на небесной сфере и тд.

Но Gemini 2.5 Pro и GPT-5 показали почти идеальные результаты – 85–86%. Это золотая медаль и более того: это уровень топ-2 среди 200–300 участников последних лет.

Больным местом, ожидаемо, оказалось геометрическое и пространственное мышление + анализ данных. Так что несмотря на такой результат, до уровня даже слабенького исследователя в этой области ИИ пока не дотягивает.
16 октября в 05:28
11 комментариев
Как физик, я на всю эту техноересь движуху с повальным внедрением ИИ-алгоритмов в математику смотрю с известным скепсисом. Ещё в начале десятых, когда я заканчивал вуз и начинал работать с моделями верхней атмосферы, мне довелось поработать с одним именитым числовиком, который обожал использовать градиентный спуск для приближённого сведения дифференциальных уравнений к системам линейных алгебраических. Разумеется, для сравнительно скромной системы дифур второго порядка магнитогазодинамики получалась система из тысяч, а то и десятков тысяч линейных алгебраических уравнений.

Числовик успешно защитил докторскую, показав, что разработанный им метод на сколько-то точнее ранее использовавшегося, но все физики, когда-либо работавшие с ним, только плевались от его моделей. Потому что они представляли собой натуральные чёрные ящики, каждое промежуточное состояние которых между вводом начально-краевых условий и получением готового решения было абсолютно неинформативным. Да, в ряде случаев полученное численное решение получалось действительно отличным, но всякая возникшая расходимость или очевидная нефизичность решения (а такое у сыроватых моделей случалось сплошь и рядом) требовала внесения совершенно неочевидных изменений в процесс генерации, которых никто, кроме автора сего математического шедевра, произвести не мог.

Понятно, что в вашем посте речь про куда более совершенные генеративные нейросети, способные создавать проверяемые человеком решения. Правильно ли я понимаю, что впечатляющий (пусть и непонятный мне как непрофессионалу) пример с кривыми является успешной компиляцией проверяемого решения из огромного множества доступных методов и способов? То есть нейронка просто быстрее докопалась до правильной последовательности применения известных алгоритмов решения, чем это могла бы сделать группа исследователей-людей?

Приятно видеть, что тэг "астрономическое" захватывает ленту фанфикса, но IOAA – всё-таки олимпиада для школьников. Занимательно, что LLM может успешно решать "человеко-ориентированные" задачи, но гораздо важнее, как по мне, что она успешно решает заведомо человеко-нерешаемые задачи, в первую очередь, в больших данных. В той же астрономии обработка петабайт данных от "Хаббла", "Уэбба" или радиоинтерферометров с целью выборки редких явлений определённой природы из задачи для научного коллектива на ближайший год превратилась в задачу для локально развёрнутой LLM на пару дней. Да и то ключевым ограничением для скорости её решения будет ширина канала обмена данными с соответствующими базами. На мой взгляд, это куда как круче способности воспроизвести рассуждения одарённого школьника.
Показать полностью
ReznoVV
Там не черный ящик, там математические выкладки, то, как бы это доказывал человек. Ну и скорее всего да, она перебрала весь тот пласт аксиоматики и прочей теории, на которой это всё базируется и именно с математической точки зрения уточнила эту границу, сдвинув её с 1,75L до 1,5L. Просто как и в вашем примере по работе с обработкой данных с астрономической техники для сетки это пара дней, а для людей год. Она могла прогнать 100 тыс. вариантов, а что будет если вот так и вот так. Выдвижение и проверка гипотез в этом случае просто ускорились, только и всего. Вероятно, научное сообщество само бы когда-нибудь до этого дошло. Я думаю такого рода акселерацию отлично иллюстрирует анекдот:
-Поручик Ржевский, как вам удается быстро налаживать контакт с
девушками?
- А я приглашаю их на танец и сразу задаю вопрос: Разрешите вам
впендюрить!
- Так-ведь можно и по морде получить, поручик!
- Согласен, можно... но можно и впендюрить!

Человек подумал, а сетка уже прогнала сотни симуляций.

Такое тоже всё-равно впечатляет.
Теmр
Там не черный ящик, там математические выкладки, то, как бы это доказывал человек
Это на выходе. А "внутри" чёрный ящик как был чёрным, так и остался. Как LLM к этим выкладкам пришла-то? Прямым перебором всех возможных вариантов методов, каким-то внутренним алгоритмом отбора на основании анализа обучающих дата-сетов или ещё как? Снаружи оно не видно. Но проверяемость, конечно, у аналитических решений хорошая, это я понимаю.

Очень сильно сомневаюсь, что золотую корову Навье-Стокса в принципе можно решить аналитически, но если получится – это будет, конечно, прорыв. В прикладном смысле в первую очередь, те же горячие части турбореактивных двигателей с лопатками хитрых форм считать с аналитическим решением будет песней, а не мучением. Очень-очень интересно!
ReznoVV
Теmр
Это на выходе. А "внутри" чёрный ящик как был чёрным, так и остался. Как LLM к этим выкладкам пришла-то? Прямым перебором всех возможных вариантов методов, каким-то внутренним алгоритмом отбора на основании анализа обучающих дата-сетов или ещё как?
Сейчас у сеток можно и помимо решения запросить цепочку рассуждений КАКИМ образом она пришла именно к такому решению. Но в целом да, это всё еще черный ящик. Но, если говорить и о человеческом мозге, он тоже как бы нифига не изи интепритируемый)
Китайская комната наступает.

Теmр
ReznoVV
Сейчас у сеток можно и помимо решения запросить цепочку рассуждений КАКИМ образом она пришла именно к такому решению. Но в целом да, это всё еще черный ящик. Но, если говорить и о человеческом мозге, он тоже как бы нифига не изи интепритируемый)
Я сомневаюсь, что цепочка рассуждений это именно то, "каким образом" нейросеть пришла к итогу. Насколько я понимаю, цепочка генерируется LLM примерно так же, как и ответ, а потом подаётся на вход, как дополнение к изначальному промпту. Но что там в промежутке происходит, нейросеть не осознает. В принципе, как и человек не понимает, как именно он приходит к какой-то мысли, хотя и может записать цепочку рассуждений и формализовать ее. Но потом.
То, что язык (а математика - это язык) сам по себе позволяет сделать очень много - это давно известный факт.

Можно сказать, наш разум - порождён языком. Т.е. рекурсивная последовательность - предки человека создали примитивный язык, применение которого позволило им научиться мыслить и создать более эффективные языки.

Да, системы автоматического доказательства теорем существуют, и довольно давно.

Преимущества компьютеров тут в том, что они могут запомнить все промежуточные леммы и теоремы - что человек сделать физически не может.

При этом совершенно нет необходимости использовать именно нейросеть - обычный переборный алгоритм вполне справляется.
ae_der
То, что язык (а математика - это язык) сам по себе позволяет сделать очень много
Теорема Геделя о неполноте. Устанавливает заметные ограничения на то "многое", что может сделать математика, записанная на символическом языке. Впрочем, хотя концептуально ограничения существенные, но на практике это, вроде бы, не очень заметно.
Заяц
Теорема Геделя о неполноте. Устанавливает заметные ограничения на то "многое", что может сделать математика, записанная на символическом языке
Нет. Теорема Гёделя о неполноте повествует исключительно об арифметиках, причём достаточно сильных. Например, аксиоматика действительных чисел полная. И теорема Гёделя к ней неприменима. Ага.
Матемаг
А вторая теорема Геделя о неполноте?
Заяц
Если формальная арифметика S непротиворечива, то в ней невыводима формула, содержательно утверждающая непротиворечивость S
Что не так со второй теоремой? Хорошая теорема о классе аксиоматических систем под названием "формальные арифметики".
...я уж не говорю о том, что через всякие теории моделей можно выводить утверждения о непротиворечивости ВНЕ данной формальной системы - с помощью другой, например. Формальные системы часто ограничены, но мы не обязаны использовать саму систему для доказательства утверждений в ней, можно использовать другую или другие. Математика знает много гитик!
Матемаг
Ой-большое(всё).
ПОИСК
ФАНФИКОВ









Закрыть
Закрыть
Закрыть