
Nvidia представила свой второй настольный суперкомпьютер ИИ, DGX Station. Компьютер предназначен для разработчиков ИИ, исследователей и специалистов по данным, чтобы создавать и запускать свои большие языковые модели ИИ (LLM) и проекты локально.
Искусственный интеллект преобразовал все уровни вычислительного стека. Вполне логично появление нового класса компьютеров, созданных для разработчиков в сфере ИИ, а также используемых для запуска ИИ-приложений. С новыми персональными ИИ-компьютерами DGX искусственный интеллект может распространиться как на облачные сервисы, так и на десктопные и периферийные приложения, — считает основатель и гендиректор Nvidia Дженсен Хуанг.
DGX Station гораздо мощнее, чем меньший DGX Spark, ранее называвшийся Project DIGITS, который способен локально запускать модели с 200 миллиардами параметров благодаря своему GB300 Grace Blackwell Ultra Desktop Superchip. Superchip имеет доступ к 496 ГБ LPDDR5X памяти ЦП и 288 ГБ HBM3e памяти ГП.
Superchip — это 72-ядерный процессор Grace, подключенный с помощью NVLink-C2C к графическому процессору Blackwell Ultra. Межсоединение NVLink-C2C обеспечивает в семь раз большую пропускную способность, чем PCIe Gen 5, или 900 ГБ/с. Графический процессор Blackwell Ultra обеспечивает до 1,5 раз больше AI FLOPS, чем графический процессор Blackwell, и оптимизирован для работы с моделями FP4, что повышает производительность обработки AI за счет снижения нагрузки на память и вычисления.
В мини-ПК установлен M.2 NVMe SSD вместимостью 1 или 4 Тбайт с шифрованием информации. Применяется сетевой адаптер NVIDIA ConnectX-7 SmartNIC. Кроме того, присутствуют контроллеры Wi-Fi 7 и Bluetooth 5.3.
В набор интерфейсов входят четыре порта USB 4 Type-C (до 40 Гбит/с), коннектор RJ45 для сетевого кабеля (10GbE), разъём HDMI 2.1a. Заявленное энергопотребление составляет 170 Вт. Компьютер функционирует под управлением NVIDIA DGX OS — модификации Ubuntu, адаптированной для работы с ИИ. Это позволяет перемещать модели LLM AI из локальной разработки в облако для легкого выпуска и масштабирования. Станция будет выпущена позднее в 2025 году сторонними производителями компьютеров.
Кому требуется разработка LLM ИИ, могут приобрести Nvidia 5090 для запуска моделей с примерно 30 миллиардами параметров, но карты 5090 в настоящее время продаются намного выше рекомендованной розничной цены — более чем за 4000 долларов. Даже 4060 Ti 16 ГБ, который может запускать модели с примерно 14 миллиардами LLM, стоит слишком дорого, но его можно приобрести менее чем за 1000 долларов.
Дайте два! Буду играть в третьих героев с другом по сети!
кс го потянет фул хд и 1000 фпс?
Если ИИ умный, то заблочит запуск
На кой?
для нейронок. В целом и всё. Ровно как и новую видюху 6000 которую выпустили. Вот где на кой ей почти 100 гб. думаю и так ясно зачем.
Эмулятор 3 Соньки пойдет?
Потянет сталкер без статеров?
Нет конечно. Ждите 9090
вы это тоже видите: уже не считают сколько хешей а считают сколько LLM . Хуангу нужно оскар вручить, то как надо народ раздевать
А где-то Switch 2 смотрит на своего родственика с восхищением. Все-таки и GPU от нвидиа и CPU от нее же на базе ARM Cortex как и во всех Switch.
экзы есть?
Круче только тучи!?)
Даже nvm3e переводчик перевел на русский)))
скорее всего на эту штуку цены тоже будут завышены, т.к. это похоже на желанный товар для компаний желающих себе забабахать "ИИ".
А так 3 или даже 4 тыщи долларов не кажутся плохой ценой за столько памяти под нейронки с учетом цены на 5090 раздутой до тех же 3тыщ.
подобные тесла компы стоили в более жирные года около милиона рублей. сейчас эту цену надо умножить на 4 как минмум.