↓
 ↑
Регистрация
Имя/email

Пароль

 
Войти при помощи
Временно не работает,
как войти читайте здесь!
Lost-in-TARDIS
15 ноября 2025
Aa Aa
#интересность

В моменты возникающей уверенности в том, что LLM умна, языкаста, знает все и не ошибается, рекомендую к просмотру следующий сайт.
https://clocks.brianmoore.com/
Раз в минуту отправляют запросы девяти моделям с задачей написать HTML/CSS код для веб-часов. Результаты... помогут справиться с этой уверенностью.
15 ноября 2025
3 комментариев из 15
Asteroid
Одна точка со все ещё не конкретизированными условиями ничего не доказывает.
Так и гомеопатию можно доказать, а если не все способны научиться правильно её принимать - это их проблемы.
Asteroid
Да, надо сказать, я не поняла, какую концепцию вы доказываете-то? Я показываю, что нейросетки ошибаются и не нужно считать, что они всегда, молодцы, знают все и не ошибаются, что не нужно слепо их принимать на веру.
А какой у вас тезис?
Lost-in-TARDIS
я не поняла, какую концепцию вы доказываете-то?
Очевидно, что то, что нейросети сильно ускоряют работу. И их ошибки не особо мешают.
Как бы, человек и сам склонен ошибаться, и надо проводить тестирование. Нейросети ничего особо в этом плане не меняют. Да, они тоже ошибаются, но плюсы больше минусов.
ПОИСК
ФАНФИКОВ













Закрыть
Закрыть
Закрыть