Compusemble протестировал технологию RTX Neural Texture Compression (NTC) от Nvidia в двух режимах: «NTC, транскодированный в BCn» и «Inference on Sample».
Первый режим транскодирует текстуры в BCn при загрузке, тогда как второй только распаковывает отдельные текселы, необходимые для рендеринга определенного вида, что еще больше уменьшает размер памяти текстур.
В разрешении 1440p с включенным масштабированием DLSS режим «NTC transcoded to BCn» уменьшил объем памяти текстур тестового приложения на 64% — с 272 МБ до 98 МБ. Однако режим «NTC inference on sample» значительно уменьшил размер текстуры — всего до 11,37 МБ. Это на 95,8% меньше используемой памяти по сравнению с ненейронным сжатием и на 88% меньше по сравнению с предыдущим режимом нейронного сжатия.
Тестирование Compusemble показали, что производительность немного падает при включении RTX Neural Texture Compression. Однако бенчмаркер запускал это бета-ПО на предыдущем поколении RTX 4090, а не на текущем поколении RTX 5090, поэтому вполне возможно, что это снижение производительности может уменьшиться с новой архитектурой.
В режиме «NTC transcoded to BCn» незначительное снижение среднего FPS по сравнению с выключенным NTC, хотя 1% минимумов FPS были заметно лучше, чем обычное сжатие текстур с выключенным NTC. Режим «NTC inference on sample» понес наибольший урон, перейдя с середины диапазона 1600 FPS до середины диапазона 1500 FPS. 1% минимумов значительно упали до диапазона 840 FPS.

Сокращение объема памяти такое же при 1440p с TAA-сглаживанием вместо DLSS-масштабирования, но поведение производительности GPU отличается. Все три режима работали значительно быстрее, чем DLSS, работая на частоте почти 2000 FPS. 1% минимумов в режиме «NTC inference on sample» работали в середине диапазона 1300 FPS, что является большим скачком по сравнению с 840 FPS.
Повышение разрешения до 4K значительно снижает производительность. Включенное масштабирование DLSS показывает средний FPS в диапазоне 1100 FPS в режиме «NTC transcoded to BCn» и чуть менее 1000 FPS в среднем в режиме «NTC inference on sample». Минимум 1% для обоих режимов был в диапазоне 500 FPS.
Отключение DLSS в пользу собственного разрешения со сглаживанием TAA показывает средний прирост FPS в диапазоне 1700 FPS в режиме «NTC transcoded to BCn» и средний FPS в диапазоне 1500 FPS в режиме «NTC inference on sample». Минимум 1% для первого режима NTC был чуть менее 1100 FPS, в то время как минимум 1% для второго режима был чуть менее 800 FPS.
ща обкатают и куртка в 6 серии будет 3гб видеорам ставить :)
Скорее наоборот все забьют на оптимизацию и компрессию текстур и будут в минималках указывать 50-60 серию)
Все и так забили отдавший шакальному BCn работающему в реальном времени.
Это будет длсс 5, чисто фишка для 6й серии.)
Мне для работы теперь вообще придётся не обновляется
длсс 5 мультиген x5 и мб новая фича аи улучшалка) что еще можно придумать ?) Пока будут допиливать мультиген пару поколений до идеала) а там уже и кристалы лучше будут и нанометры поменьше)
Курта всё что угодно придумает лижбы пару лишних гб не докидывать видюхам.
Ну с коммерческой точки зрения он делает все правильно. Лишние гб стоят реальных денег, а технологию прокачивают отделы, которые и так сидят на зп. В итоге он сможет не платить за чипы памяти, а карты все равно будут актуальны на рынке
lokdogg или Хуанг?) На счёт первого сомневаюсь.
А что докладывать то, если прогрессивные качественные технологии у НВ во всем. Все просчитано, у лидеров рынка (по итогу 2024 года 90% видеокарт на руках), и 8гб у НВ до сих пор нормально хватает без лаг в 99% любых игр на максах в 1080р, 12гб хватает в 1440р, а 16гб для 4к. Причем тот же UE5 потребляет в пределах 8-10гб в большинстве игр. А при последней обнове длсс и генераторе, потребление видеопамяти ими НВ еще оптимизировано, уменьшено.
Чел фул hd для меня закончилось в 2020, теперь минимум 2к.
8 гиговые карточки с нами еще лет на 10?
Нет, будет 7,5 + 0,5, как в свое время поступили с 970-ой) И 7,5 будут просто заглушкой))
Разрабы уже пытаются от них избавится. В Год оф варе на пк разрабы поставили лок на 6 гб видюхи. Хорошо что модеры есть, и убрали эту ахинею
ну так с ртх 3070 таже чухня как только память переваливает за 7.5+ начинаютса просадки=)
потому что виндовс потребляет 0,5+. Потому и получается свободных 7,5 а то и меньше.
Лок они поставили не на 6гб, которые щас почти золотой минимум, а на 4гб видюхи, но потом сами и убрали после того как модеры убрали и все работало, но опять же возможно это сделано чтобы не было каких-то артефактов или прочего после чего бы ныли что игра плохо оптимизирована
Вместо того что бы добавить памяти, зелёные экономят на "семечках" и придумывают новые технологии что бы сократить потребление памяти, да видимо новая технология стоит дешевле чем новая память на которой они уже второе поколение экономят. видимо думают что 8 много, и нужно ещё сильней уменьшать, анпример 4.
Факт. От хорошего "архиватора" текстур конечно будет польза, но в данном случае Хуанг делает то, что делали создатели жлобских репаков игр - пытаясь сэкономить 1-2Гб объёма, увеличивали время установки и требуемые мощности процессора до заоблачных высот.
Ну и сомнительно, что сделанная с нуля технология будет стоить дешевле чипов памяти, которые активно дешевеют из года в год, не зря же Куртка впаривает студёные былины про "энтузиастов".
И я того же мнения, насчёт дороговизны технологии, но вот сжатие текстур не может происходить "за счёт вохдуха" потому что на сжатие нужны ресурсы, например того же процессора или видяхи. И в этом случае для сжатия сначала будут расходоваться ресурсы карты или проца, а потом нам покажут что игра стала меньше кушать видеопамяти, но я думаю что для этого как минимум увеличится время загрузки игры, что бы сжать загруженные с HDD или SSD текстуры. А в репаках частенько не 1 - 2 а целых 10 - 20 уменьшают за счёт сжатия, и требуют не проц, а оперативную память, я репаки редко ставлю, но заметил что сильно сжатые, расходуют по 16 гигов памяти если не больше, был момент когда такая игра написала что у меня памяти мало(у меня 32) оказалось что она схавала свободную, и упёрлась в нехватку потомуц что у меня был запущен браузер, стим, телега, пришлось выгрузить браузер и стим.
Фитгёл такая:
Это эксклюзив для карт Нвидиа или это общедоступная технология?
Вроде как там приставка RTX приписана была.
RTX 60)
Почему у меня ощущение что это не "новое Мегачудо" а прога тупо текстурки в ОЗУ перегружает?
Технология многообещающая, качество при таком сжатии падает минимально, а на фпс с таким тестом смотреть смысла нет, нужно ждать реализацию в играх.
И да, текстуры ниже максимальных и так в текущих играх сжимаются (а не рисуются отдельно под каждое качество), только не эффективным методом.
Реализация в играх будет только там, где Нвидиа доплатят за использование по или сама Нвидиа проплатит. Это же не открытая технология, а помимо зелёных карт есть ещё и красные, и синие. А Интел пока ещё не собирается сдавать позиции на рынке ГПУ.
Круто, Кэп. В чем проблема для юзеров гпу Куртки, которых подавляющее большинство?
Что технология там обещает то? Текстуры уже давно не жрут много фпс. Нвидия только и делает, что пытается удешевить видеокарты. Будешь сидеть с тем же количеством памяти, только она будет забита лучами и нарисованными кадрами.
Не жрут - если не выходят за буфер. 16 памяти сейчас это оптимальный вариант, когда как самые ходовые гпу имеют 12 и 8 гигов, что несколько маловато. Не жрут лучики и нарисованные кадры столько памяти.
И игр большинство выходит тоже с технологиями Нвидиа или только определённые проекты..? Большинство это не значит, что они все сидят на серии 40хх и тем более покупают 50хх... Статистика Стим по железу в помощь. На консолях в общем технологии АМД, так что можно подумать, какой адский процесс всё пилить потом под Нвидиа ведь открытых технологий у них нет, как у АМД или может даже Интел.
Теперь объемы памяти на видеокартах будут уменьшаться пропорционально роста цены)
До 640 килобайт хватит всем ))
Билл как в воду глядел))
Не понимаю зачем на относительно мощных видеокартах DLSS.. На старых видюхах полезная вещь, но старые не поддерживают эту технологию :\
Вот в этом то и проблема, что они лишь относительно мощные.
У меня 4к телик, и 4060ти. Чтоб получить приемлимое изображение и 60фпс, в современных играх, нужно включать длсс на макс производительность. Это лучше чем уменьшение разрешения даже на 1440р. А на 1080р - вообще мрак.
Так флагманы, которые выходили в один год с игрой, никогда не могли тянуть максималки в этой игре больше 60 фпс, и то со скрипом добивались этих 60 кадров. А сейчас ты можешь в 2к на 3060 играть в киберпанк с ртх и не снижать настройки графики благодаря апскейлу ценой небольшого мыла, которое итак любое сглаживание давало, кроме разре что ssaa
Получается покупатель безальтернативно будет платить Хуангу за технологию которая может быть, а может и не быть в игре, а не производителю чипов памяти ради большего объёма - хитёр бобёр.
не особо понимаю что присходит ну и ладно.
будущее все равно либо за запроцедурным тектурингом либо его гибриде либо за здровенными несжатыми камнями где можно рассматривать гранитную крошку на 200 метровом куске карты.
опять таки вопрос как это будет работать когда много текстур или используется прозрачность. так же тоу е уверен что все данные можно сжимать и качесво пбр возможно будет сильно страдать не говоря уже о каких то технически важных данных.
размер текстуры падает при минимальных потерях, либо сильно падает и более высоких, но это дает возможность снизить потребление в играх, тогда и для 4к будет хватать 6 гб
проблема будет в том обработать много текстур таким образом, котрые требуют немедленного доступа каждый кадр.
что пока кажется сомнительным или на будущее заделом. нарасчивать видеопамять просто дешевле кажется даже если эта память будет с низким бестродейсвием и вконечном итоге просто не будет успевать читать и писать а чип обрабатывать скажем 64+гб врам.
Ну так и сводиться к тому, что она весит меньше и но идет потеря, на видео там под 1500к фпс
Теперь 4060 8 Гб точно хватит на все, в том числе и на RT ультра! 😆
Чудес не бывает, для качественных текстур требуется достаточное количество памяти.
для 4к 16гигов это вприцепи норма, но для fullHD 12 гигов потребления это перебор...
Так там резервирование памяти идёт, она не потребляет столько по факту, что доказывает практически идентичной потребление в 3 разрешениях. Я фигею с "ламеров" и псевдотехноблогеров, которые не разбираются в технических особенностях игровых движков, но при этом во всю несут ахинею, дизинформируют людей, а те в свою очередь несут ахинею дальше.
Если бы это было просто резервирование, то при нехватке VRAM игра бы продолжала работать без проблем. Но в реальности, если у карты не хватает памяти, начинаются фризы, подгрузки текстур и падение FPS. Ты сам посмотри на тесты: в 1080p игра запрашивает 12 ГБ, и если у тебя, например, 8 ГБ VRAM, то системе придётся выгружать данные в оперативку или вовсе на SSD, что резко снижает производительность. Да, резервирование есть, но если игра требует больше, чем у тебя есть, значит, будут лаги и артефакты. Это не "ахинея", а реальность современных игр.
Ты не прав, присутствие фризов не является взаимоисключающим. Тебе записать тесты, неподкупные? У меня 3060ti на 8 гб есть, так что будет честно. Кэширование видеопамяти происходит, и это факт, от того такая загрузка на графиках. Но современные движки сами оптимизируют подгруздку текстур и шейдеров в зависимости от железа, ухудшая например детализацию ту же самую. Фризы могут могут быть если игра задействует недостающую память из файла подкачки (оперативы). И то, не всегда.
Ну вот! А вы жалуетесь, что в новых видеокартах мало оперативы :) Она ведь не нужна!
640кб хватит всем!
В общем видеокарту размером с батарею можно не покупать , а поставить какую нибудь мелкую пипку и применить технологию из новости.
Значит мне пока рано уходить с gtx 1650?
чувак тебе надо было с нее уходить лет 8 назад уже
Она в продаже только 6 лет назад появилась)
Деградация во всём. Под видом прогресса лохам впаривают фичи, ухудшающие изображение. А всё из-за того, что рост производительности железа остановился.
Сжатие и так повсеместно используется, только сжатие которое сейчас используется приводит к куда более худшему результату. Апскейлы намного превосходят старое доступное буквально везде масштабирование под экран.
Апскейлы это всё равно обман. И никакой апскейл не сравнится с нативным изображением.
Полностью согласен, нативные 720p, и уж тем более еще более низкое нативное разрешение и близко рядом не стоят с длсс. Кто в здравом уме вообще будет использовать устаревшее масштабирование?
Тут 4 скрина, (150% рендер с TAA, 100% рендер с TAA, 150% рендер с FXAA и 50% (производительность) рендер с DLSS), какой из 4-ех скринов Вы считаете наиболее красивым и детализированным?
В динамике надо смотреть. DLSS и DLAA часто портит объекты в движении.
Например, в Forza Horizon 5 с включенным DLAA портятся провода. В других играх искажаются текстуры.
Съедается детализация. Те, кто играли в RDR2 c включенным DLSS, и не видели никогда, как красиво может выглядеть эта игра.
Вообще, поклонники апскейла пытаются доказать недоказуемую вещь. А именно то, что изображение в пониженном разрешении может выглядеть так же хорошо, как и нормальное. Что апскейл 720p до 1080p это одно и то же. Или 1080p до 2К.
Да не будет оно выглядеть хорошо! Реалистичные лица в RDR2 c DLSS превращаются в пластиковые морды. И в других играх аналогично.
Бойкотирую Nvidia
На бумаге звучит неплохо - линейно перепаковывать все данные или подгружать только то, что будет перед глазами игрока. Но сдаётся мне, в ближайшие лет 5 толку от технологии не будет, как не было и от ранних ДЛСС, ведь в игры играть - это не одну модельку шапки бенчмарить.
А как ты думаешь сейчас реализована настройка текстур меньшая чем максимальная?
от длсс был толк но в том смысле чтобы снизить фактическое разрешение рендендернга потому что даже 1080р мог бы стать проблемой. с другой стороны если бы были мощные мульти гпу сборки они могли бы претендовать на высокие разрешения при умеренных фепасах. но длсс позиционировась как сглаживание и само по себе это компромисное решение. не особо важно как оно там работает тк детали теряются.
от генератов фреймов уже в теории толку меньше так они в теории должны быть устроенны сильно сложнее. они обрели смысл смысл толко в основновном потому что у современных мониторов большие герцовки и 60 герц хорошего монитора уже не найти.
у текстурного сжатия по средсвам каких то сложных алгоритмов тк ддс тоже сжатый формат и чтоб его превратить в рабочую информацию для гпу тоже нужет апи, какие то вычислительные затраты и определенная версия шейдеров даже тоу возможно для всяких алготмов типа бк6-7. вспоминается разве что игра РАГЕ где был добавлен гпу траскод на куде и вроде как он снижал качево текстуры все равно. только в какм то подобном направлении его вероятно можно использовать и в играх где обновление возможно делать непостоянно по типу виртуальных текстур в уе4-5 и все равно не избежна потеря деталей вероятно. так что довольно сомнительная область примененения технологий.
Распаковать только отдельные пикселы, но все равно равно распаковывать, а любая деархивация уже требует затрат ресурсов, и долбится это все будет в процессор, и даже если мощности будет хватать падение производительности пусть небольшое, но тут ведь не об процессоре речь, а о загруженности контролера шины, а учитывая, что выбором того какие пиксели должен видеть игрок будет заниматься все тот же И.И. -- здравствуйте артефакты.
Глядя на то как долго и медленно внедряется dlss с fsr хочется предположить что пройдет ещё 3-30 лет пока появится что нибудь похожее
Типо мало игор выходит?)
Хуанг первый эту кашу заварил!А не лохи ее теперь расхлебывают за тысячи долларов:)
Такая технология бы пригодилась для 20 и 30 серии которые страдают из-за нехватки памяти. А не 40 или 50.
на 4070 ноутбук 8гб памяти
Хорошая новость.Наверно не просто её писать.) Теперь главное чтобы заработала быстрей во всех играх и желательно на всех RTX
ваууууууу, какой информативный видик, какая-то моделька хрен знает где, и собственноручно написанный текст, верьте нам на слово, угу, верим-верим, ещё с анонса лучей верим.
у демки открытый исходный код, чел...
во-первых: и чё? мне взять курсы программиста и что-то посмотреть в коде? при чём тут исходный код, чел?
во-вторых: какая демка? в чём проблема наглядно показать в какой-то программе по 3d моделированию, или на крайняк вывести показатели в реал тайме прямо на видео? моделисты программированием не занимаются, чтобы в открытом исходном коде копаться. чел.
Чел, это твоя проблема и лишь твоя. Даже ламер должен понимать, что в игровых компаниях кодом занимаются программисты. Что демо способно открывается юзером вообще без знаний кода.
молодцы нвидиа - по сути компания из будущего, мы в сравнении с ними индейцы бегающие с луками перед пришельцами с космического корабля, охлос должен на коленях ползать перед курткой и лизать ему ноги чтобы он сделал видеокарту очередную, захочет сделает 3000 штук а не захочет сделает 1000, молитесь на него ущербы
Опять курта всех обыграл, радионщики еще сильнее теперь забегают с криками в кошмаре со своими затычками с бесполезными гигабайтами теперь.
Хоть Хуанг и поднял ценик на карты 5000x серии, но новые технологии воистину великолепны у Nvidia. Этакая стратегия кнута и пряника. Хитёр бобёр) // New Show
Очередной гвоздь в крышку гроба Radeon (не процессоров). Это действительно может дать новую жизнь картам с 8 гб видеопамяти в 1440p через пару лет, когда 8 гб станут минимумом даже для 1080p. Так что красавчики, Nvidia. Для меня причин брать Radeon ещё меньше становится.
Брать красных никогда не было причин. Ни единого преимущества перед курткой - начиная с цены и заканчивая софтом.
В регионе моего проживания в данный момент карточки и процессоры от AMD ещё и стоят в разы больше чем Intel|Nvidia. И их найти так же трудно, потому что почти в продаже нет. Либо не завозят, либо спроса нет.
Брать зеленых никогда не было причин. Ни единого преимущества перед госпожой - начиная с цены и заканчивая софтом.
Ты уже впритык к этой отметке.
Красавчики сейчас залочат технологию только для новых карт и будешь сидеть у разбитого корыта.