↓
 ↑
Регистрация
Имя/email

Пароль

 
Войти при помощи
Временно не работает,
как войти читайте здесь!

Блог » Поиск

До даты
Для ориентира.
... Сколько стоит развертывание ИИ мощностей?

Достаточно противоречивые оценки в зависимости от источника, но Хуанг и операционный директор OpenAI склоняются к $50 млрд и выше в расчете на 1 ГВт мощности.

Решил оценить распределение расходов и понять, что включено в стоимость. Расчеты очень приблизительные, но позволяют оценить структуру распределения стоимости.

Сейчас рыночная цена одного вычислительного кластера на базе самого современного чипа Blackwell GB300 стоит около 4.5 млн долларов, где стоимость самих чипов и NVlink около 3.5 млн, а остальное – сетевая, энергетическая и инфраструктурная «обвязка».

Система включает 72 GPU Blackwell (36 суперчипов GB200, каждый с 2 GPU), 36 CPU Grace и инфраструктуру NVLink для соединения всех компонентов, сетевое оборудование InfiniBand, коммутаторы Spectrum-X800, DPU BlueField-3, кабельная система и блоки питания, система охлаждения, компоненты самой стойки и распределительных энергосистем с учетом мониторинга и систем защиты, далее система маршрутизации, виртуализации и хранения данных.

Каждая такая система весит около 1.5 тонн минимум с учетом вспомогательного оборудования и нормализованное потребление с постоянной нагрузкой около 120-132 кВт.

Производительность одного вычислительного кластера 360 петафлопс FP16, 5800 терафлопс FP32 и 2900 терафлопс FP64.

Если сравнить с игровой видеокартой RTX 5090 по цене 2 тыс баксов, по FP32 и FP64 производительность кластера выше всего в 55 раз, однако в специализированных ИИ вычислениях и тензорной производительности разница в среднем в 500 раз, а пропуская способность NVlink выше в 1000 раз.

В сопоставимой ИИ производительности система на базе RTX 5090 обойдется примерно в 2 млн долларов, но проиграет по площади развертывания и главное – по межядерному взаимодействию.

Напрямую сравнить нельзя. Во-первых, память у кластера 13.4 ТБ HBM3e и 576 ТБ/с у NVL72 против 32 ГБ и 1.8 ТБ/с у RTX 5090, т.е. разрыв свыше 320 раз в пользу кластера.

Интерконнект NVL72 у вычислительного кластера имеет пропускную способность в 130 ТБ/с, а масштабирование игрового GPU ограничено PCIe и NVLink-мостами прошлых поколений, что несопоставимо.

Слабое архитектурное звено гражданских RTX 5090 – память и межчиповое взаимодействие через интерконнект NVlink, что приведет к тому, что вычислительный чип будет простаивать, ожидая отклика в обмене данных, снижая КПД системы.

Для LLM-нагрузок определяющими будут не производительность в FP32-64, как в экосистеме Windows/Linux совместимых приложений, а FP8/FP4 Tensor (в основном для инференса), при обучении LLM доминируют BF16/FP16 и FP8 в смешанных схемах, имеют значение пропускная способность между GPU и HBM памятью.

Поэтому при реальных ИИ-задачах разрыв между кластерами и RTX 5090 обычно сотни раз и растет с размером модели.

В ИИ фабрике в расчете на 1 ГВт входной мощности на вычислительные кластеры с учетом систем хранения данных приходится примерно 75-77% потребления всей энергии, еще 15% идет на работу систем охлаждения, кондиционирование и обеспечение насосных станция для водоснабжения, 5% - системы питания, а 2-3% - освещение, административный корпус, мониторинг и управление.

Получается, что в расчете на 1 ГВт мощности (по собственным оценкам):

• Около 6100-6300 вычислительных кластеров стоимостью от $28 млрд + 5 млрд обслуживающее ИТ оборудование.

• Подготовка земли, разработка проекта, сертификация – $0.5-1 млрд в зависимости от места.

• Полный комплекс всех сооружений, модулей и корпусов ИИ фабрики, в том числе инженерная инфраструктура ЦОД (здание, электрика, UPS, охлаждение) с учетом особого уровня ИТ оборудования для «капризных» ИИ кластеров стоимостью около $8-12 млрд в зависимости от сложности и места проекта.

• Электростанция (ТЭЦ) с учетом электроподстанций, трансформаторов, электросетей, сопряженной энергоинфраструктуры и подсоединения к сетям около $3 млрд в расчете на 1 Гвт мощности.

• Внешняя промышленная инфраструктура – водные резервуары, телеком магистрали, резервы топлива, транспортная инфраструктура еще около $1-2 млрд.

Продолжение следует...
Отсюда

При этом срок эксплуатации этих самых кластеров оценивается в 2-4 года. С одной стороны, (моральное) устаревание, а с другой - довольно быстрая деградация собственно электроники и характерная форма графика роста частоты отказов от срока эксплуатации.

Эх, капексы не бьются...

#ai #заклёпки #ии #цитаты #экономика_спгс
Свернуть сообщение
-
Показать полностью
К вопросу о сомнительном прогрессе.

Эксперимент: смогут ли бесплатные чат-боты написать Sci-Fi роман, достойный публикации на Литресе
... На старте у меня был документ с описанием будущей книги и модели с базовыми тарифами: ChatGPT, DeepSeek, Claude и Алиса.
...
Я с удовольствием наблюдал, как мои идеи буквально материализуются. Книга больше не была абстрактными мыслями, которые витают только в моей голове — вот содержание всего романа, вот очень конкретные, хоть и краткие истории. Кроме эмоциональной составляющей этот шаг принёс очень прикладную пользу: я смог оценить книгу «взглядом с вертолёта», увидеть полную картинку
...
Так, Claude предложил любопытный сюжет, но сам рассказ сделал затянутым; DeepSeek написал откровенно слабую главу, но подытожил её вдохновляющим блоком; Алиса с ChatGPT генерировали интересные отдельные абзацы, которые вписывались практически в любой черновик.
...
Работа с промптами, этапность, сравнение разных LLM... Но...
Мне грустно. Похоже, уровень "текстов от йашек" и первых романов такая методика позволяет превзойти уже в ближайшей перспективе, и даже замахнуться на нижний уровень коммерческого писева. Но вот навыки, необходимые для более продвинутых художественных текстов - ... Вытеснение джунов, ага. И очередной этап великого усреднения.

#хабр #ии #нейросетевое #ai
Свернуть сообщение
-
Показать полностью
Показать 1 комментарий
Промпт для GPT-4o: Как превратить текст в «человеческий» и обойти AI-детекторы
...
Система, решающая эту задачу, условно называется «Humanizer» (от англ. humanize – очеловечивать). В данном отчёте рассматриваются методы создания такой системы и обеспечения того, чтобы выходной текст выглядел как написанный человеком, оставаясь при этом этичным и законным.
...
Одной из ключевых стратегий Humanizer-системы является лингвистическая вариативность – то есть умение перефразировать исходный ИИ-сгенерированный текст множеством разных способов, избегая шаблонности и избыточно правильного, «машинного» языка. ИИ-модели часто повторяют устойчивые обороты и поддерживают единообразный стиль изложения, что выдаёт их природу. Humanizer должен разнообразить лексику и синтаксис: заменять слова синонимами, пересоставлять предложения, менять залог (активный/пассивный) и порядок слов, дробить длинные предложения или, наоборот, объединять короткие. Эти приёмы разбивают монотонность текста и устраняют шаблоны, присущие ИИ.
...
Синонимическая замена и перефразирование уничтожают очевидные повторы и делают текст уникальным. Инструменты-парафразеры вроде Quillbot уже давно применяют такие техники для улучшения слога. В исследовании Pangram Labs перечислены популярные сегодня сервисы, умеющие «очеловечивать» или перефразировать текст: от классических парафразеров (Grammarly, Quillbot) до специальных «AI humanizer»-платформ (Bypass GPT, HumanizeAI, StealthWriter.AI, Undetectable AI, WriteHuman.ai и др.).
...
Чтобы текст казался написанным человеком, недостаточно варьировать лексику – полезно имитировать некоторые человеческие когнитивные черты, которые почти отсутствуют в выверенном ИИ-тексте. К ним относятся: случайные ошибки, внезапные сдвиги мысли, колебания в логике изложения, эмоциональные или субъективные вкрапления. Умеренное внедрение таких элементов делает слог более человечным, ведь реальные люди не пишут как идеальные автоматы.
...
Имитация когнитивных сдвигов может заключаться в том, чтобы вставить внезапное замечание или вопрос от первого лица.
...
Добавление фраз, выражающих личное мнение или сомнение («мне кажется», «я не совсем уверен»), также придаёт тексту человеческий облик. Машинные тексты часто звучат излишне уверенно и категорично; человеческий же текст может содержать оговорки, условности, субъективные оценки.
...
например, добавить предложение, которое не несет новой информации, но служит эмоциональной реакцией («Честно говоря, это весьма неожиданно.»), или включить небольшой оффтопик-пример. Такие элементы отражают человеческую спонтанность мысли.
...
У каждого человека свой почерк: кто-то злоупотребляет скобками (репликами в скобках), кто-то ставит многоточия, кто-то использует разговорные слова-паразиты («в общем», «как бы», «значит»). Такие черты обычно отсутствуют в гладком тексте от ИИ. Поэтому внедрение стилистических особенностей личности – ещё один уровень очеловечивания.
...
Программа GPTZero, например, стала знаменитой использованием метрик «перплексии и равномерности» (см. далее) – грубо говоря, она ищет слишком упорядоченный, предсказуемый текст.
...
Предсказуемость текста – главный враг «незаметности». Современные детекторы анализируют статистические свойства, такие как перплексность (perplexity) и «рывистость» текста (burstiness), чтобы отличить ИИ-стиль от человеческого. В общих чертах, ИИ стремится генерировать наиболее вероятные по модели слова и строить гладкие предложения средней длины. Человек же часто выбирает менее ожидаемые слова и чередует короткие и длинные фразы.
...
Использование разных типов предложений: повествовательные разбавлять вопросительными или восклицательными (если уместно). Например: «Многие задаются вопросом – а что же будет дальше?» – подобная фраза в середине анализа неожиданна, но в живом тексте встречается.

Менять структуру: иногда начинать с обстоятельства («По этой причине мы...») или с подлежащего, иногда использовать диалоги или цитаты. ИИ часто придерживается одной схемы, а человек свободнее перестраивает фразу.
...
Лучшие коммерческие детекторы достигали ~84% точности, а бесплатные – около 68%, и это в идеальных условиях.
...
Отметим, что уже существуют инструменты, сочетающие проверку текста и его «очеловечивание» под потребности пользователя. Например, сервис Humbot.ai заявляет: «мы поможем очеловечить текст ИИ и обойти распространённые детекторы (Originality.ai, ZeroGPT и др.)».
...
Современные генеративные модели могут оставлять в тексте едва уловимую «подпись» – статистический или даже криптографический признак, по которому можно распознать искусственное происхождение. Подпись может появляться неумышленно (как итог особенностей обучения модели) или быть целенаправленно встроенной разработчиками (водяной знак). Задача Humanizer – обнаружить и стереть эти метки, то есть выполнить signature scrubbing (очистку от подписи).
...
Например, может оказаться, что язык модели GPT всегда чуть чаще употребляет редкое слово X, чем это делают люди. Детекторы могут ловить такие тонкие стилистические отличия. Поэтому Humanizer должен по возможности сгладить статистический профиль текста, приблизив его к среднестатистическому человеческому. Для этого используются описанные выше методы вариативности – они как раз устраняют типичные паттерны модели. Кроме того, есть подход кросс-модельного преобразования: когда текст, сгенерированный одной нейросетью, пропускают через другую модель с иным стилем. В результате смешиваются стили, и исходная «fingerprint» первой модели размывается.
...
Другой пример – система SynthID от Google DeepMind, которая помечает текст на уровне скрытых признаков вероятностей токенов. Идея в том, что зная ключ или паттерн, можно проверять, есть ли в тексте этот отпечаток.

Humanizer должен уметь обнаруживать и убирать подобные водяные знаки. Чаще всего это достигается опять-таки перефразированием.
...
разработчики детекторов тоже не стоят на месте: уже появляются алгоритмы, натренированные распознавать «очеловеченный» текст. Так, исследователи Pangram Labs специально обучили детектор на выборке текстов, прошедших через популярные humanizer-инструменты, и добились того, что их модель стала успешно различать даже парафразированный ИИ-текст.
...
В краткосрочной перспективе (2025–2026 гг.) мы увидим эскалацию противоборства: детекторы будут улучшаться (учитывать парафразирование, обучаться на adversarial примерах), а Humanizer-инструменты – усложнять методы (многошаговые трансформации, глубокая персонализация). Возможно появление гибридных решений: например, сервис, который сначала определяет вероятный алгоритм генерации (GPT/Claude и пр.), а потом применяет оптимизированный под него профиль перефраза.
...
Небольшая ликбезная статья на весьма актуальную тему.

Предсказуемость для художественного текста... Эхм. Сложный вопрос, штампы подтвердят.
Но например попытки писать разными нейросетками с специально разными дополнениями промптов за разных персонажей уже даже не новость кое-где...

#ai #дзен
Свернуть сообщение
-
Показать полностью
Показать 2 комментария
#вброс #ai

По мотивам этого опроса и некоторых комментариев в недавних обсуждениях.

На мой взгляд, вставлять портянки ответов ИИ-чатботов как свои комментарии - позор и даже в какой-то мере чистый зашквар. Как цитату, с указанием происхождения - несколько невежливо, но к сожалению уже приемлемо.
Мусорные ответы с откровенными ошибками, замаскированными многословием, апломбом и подгоном под (лингвистическое) правдоподобие...
Показать 12 комментариев
ПОИСК
ФАНФИКОВ









Закрыть
Закрыть
Закрыть