Хотя GeForce RTX 4070 от Nvidia еще не вышла, о ней было много утечек, включая вероятность того, что она будет иметь 12 ГБ VRAM GDDR6X. Но поскольку некоторые новейшие игры потребляют много памяти (особенно в 4K), AMD использует возможность перед выпуском 4070, чтобы уколоть Nvidia и подчеркнуть более щедрые объемы VRAM, которые она предлагает.
В сообщении в блоге под названием "Вы энтузиаст?", менеджер по маркетингу продукции AMD Мэтью Хаммел подчеркивает экстремальные объемы VRAM, используемые в топовых спецификациях при 4K в таких играх, как ремейк Resident Evil 4, недавний (ужасный) порт The Last of Us Part I и Hogwarts Legacy. Краткая версия: AMD утверждает, что для каждой из этих игр в разрешении 1080p она рекомендует серию 6600 с 8 ГБ оперативной памяти; в разрешении 1440p - серию 6700 с 12 ГБ оперативной памяти; а в разрешении 4K - серию 6800/69xx с 16 ГБ. (Это исключает RTX 7900 XT с 20 ГБ VRAM и 7900 XTX с 24 ГБ).
Не слишком тонкий подтекст? Вам нужно больше 12 ГБ оперативной памяти, чтобы действительно играть в 4K, особенно с трассировкой лучей. Возможно, еще менее тонкий? AMD упоминает о том, что предлагает графические процессоры с 16 ГБ VRAM по цене от 499 долларов.
В попытке доказать свою точку зрения AMD предоставила несколько собственных сравнений с чипами Nvidia, сравнив RX 6800 XT с RTX 3070 Ti от Nvidia, RX 6950 XT с RTX 3080, 7900 XT с RTX 4070 Ti, а RX 7900 XTX с RTX 4080. В каждой из них было 32 "избранные игры" в разрешении 4K. Неудивительно для бенчмарков, опубликованных AMD, что графические процессоры Radeon победили в большинстве случаев. Вы можете увидеть их в галерее ниже:
Мы не будем знать наверняка, как RTX 4070 от Nvidia покажет себя в сравнении с любым из этих GPU, пока не появятся обзоры, но AMD дает понять, что она более щедра на VRAM (хотя, похоже, она не делает различий между GDDR6, которую она использует, и GDDR6X от Nvidia).
Стоит также отметить, что варианты объема VRAM напрямую связаны с размером шины памяти, или количеством каналов. Как и Navi 22 от AMD, максимальный размер которой составляет 192-битный 6-канальный интерфейс (см. RX 6700 XT и RX 6750 XT), AD104 от Nvidia (RTX 4070 Ti и грядущая RTX 4070) поддерживает до 192-битной шины. Для чипов это означает, что Nvidia может использовать только 12 ГБ — удвоение до 24 ГБ также возможно при использовании памяти в режиме "clamshell" на обеих сторонах печатной платы, но это дорогой подход, который обычно используется только в продуктах halo (например, RTX 3090) и профессиональных GPU (RTX 6000 Ada Generation).
Насмешки AMD также поднимают важный вопрос: Что именно AMD планирует делать с графическими процессорами нижнего уровня серии RX 7000? В RX 7900 XT стоимостью $800-$900 объем памяти составляет 20 ГБ. 16 ГБ для гипотетической RX 7800 XT звучит правдоподобно... что приведет к 12 ГБ для гипотетической RX 7700 XT. Конечно, мы все еще беспокоимся о том, куда Nvidia может пойти с будущими RTX 4060 и RTX 4050, которые в итоге могут получить 128-битную шину памяти.
Кроме того, есть много других факторов, помимо объема памяти, таких как размер кэша и другие архитектурные особенности. Предыдущее поколение AMD серии RX 6000 предлагало 16 ГБ в четырех лучших моделях (RX 6950 XT, RX 6900 XT, RX 6800 XT и RX 6800), но это не GPU последнего поколения, а конкурирующие предложения Nvidia серии RTX 30 в целом не отставали в играх, предлагая более совершенное оборудование для трассировки лучей и такие улучшения, как DLSS, а также повышая производительность AI в таких вещах, как Stable Diffusion.
В конечном итоге, объем памяти может быть важен, но это лишь один из аспектов современных видеокарт.




Я в свое время купил 1060 3 гиговую и намучался с ней, сейчас 3060 у меня и я не пойму как новые и более мощные карты имеют такой, сравнительно не большой объем памяти. Железо стоит огромнейших денег, но там экономят буквально на всем.
А что не так было 1060? я вот до сих пор на ней (правда 6г) удивляюсь как эта карта тянет современные игры - не на ультрах конечно но все равно почет и уважение этой карте
в том то и дело что у тебя 6 гигов..
тянет и плавный геймплей в 60 фпс+ это разные вещи, у меня был монитор с 60 гц и 60 фпс было норм, сейчас 165гц и 60 фпс это как лагающий шлак, минумум надо 80-90 кадров, а лучше 120. А чтобы играть в 30 фпс надо быть мазохистом как минимум
"AMD использует возможность перед выпуском 4070, чтобы уколоть Nvidia и подчеркнуть более щедрые объемы VRAM, которые она предлагает."
Вместо того, чтобы самим научится делать быстрые видяйки с кучей качественно работающих игровых технологий, лузеры из AMD, чей процент рынка видеокарт справедливо находится чуть ниже плинтуса, продолжают подкалывать, очернять более успешного конкурента, это так низко и жалко …… просто пипец.
“По улицам Слона водили, Как видно напоказ - Известно, что Слоны в диковинку у нас - Так за Слоном толпы зевак ходили. Отколе ни возьмись, навстречу Моська им. Увидевши Слона, ну на него метаться, И лаять, и визжать, и рваться, Ну, так и лезет в драку с ним. "Соседка, перестань срамиться,- Ей шавка говорит,- тебе ль с Слоном возиться? Смотри, уж ты хрипишь, а он себе идет Вперед И лаю твоего совсем не примечает".- "Эх, эх! - ей Моська отвечает,- Вот то-то мне и духу придает, Что я, совсем без драки, Могу попасть в большие забияки. Пускай же говорят собаки: "Ай, Моська! знать она сильна, Что лает на Слона!"
©️ И. А. Крылов
Тебя ща амдшники заклюют и в промежутках между слетанием профилей и краша драйвера будут аргументировать, что ты не шаришь, а пока мониторят авито в поисках новых видеочипов, ибо дефицит, а качество "и так сойдет".
Минусят на фанатики амуде, а люди с iq >80
Зелёные, как и интел, выдают свой товар, иногда порезанный как здесь, за оверпрайс, а качество не всегда выше, чем у красных. Красные всё для народа делают, по крайне мере сейчас.
ну да если бы nvidia могла в свои же запушенные технологии, dlss 3 мусор на экране вместо картинки, все потуги в лучи=18fps mode, вау подняли заливку пикселей, на которую забили болт начиная с 20хх видеокарт, когда сделали ставку на трату времени ввиде DLSS1-2, реально давно бы уже все соснули если не страдали херней и транзиторный бюджет не выделали под бесполезные в геймерском сегменте блоки работы с таблицами, про "лучевые ядра" вообще вспоминать стыдно, лучше бы больше текстурников и ропов или на тот же бюджет кэша л1-л2 добавили.
слышь АМД, а где ретрейсинг с нормальным фпс а? чо с лицом то, а АМД?
ну лучи в которых зелёные были первыми это пока не основа, а так дополнение, ведь кто знает сколько лет у зелёных ушло чтоб сделать длсс и ядра для лучей до первого их появления в 20 серии зелёных, они могли многг лет потратить, а красным пришлось за ограниченное время сделать чтоб выйти в 6000 серии с лучами, догоняющему всегда сложней, ему нужно подстраиватся, а зелёные диктуют, а так да обидно за красных, чёт они задерживаются с развитием лучей, либо что то готовят, либо у них проблемы, и намечается полная монополия зелёных на рынке видеокарт с лучами.
Посмотрел rx7900xt vs rtx4070ti и в режиме лучей нвидиа обгоняла радеон всего на 10, максимум 15 кадров. А если без лучей, то часто радеон был впереди. Сам всегда был фанатом зеленых, но в последнее время красные очень неплохо прибавили.
кому лучи нужны если вся врам в оперу свопается и всё действо в игре превращается в кисель и без того с низким фпс с ртх ?
Ну так правильно,нужно больше видеопамяти .Раньше текстурки были маленькие 32х32.. 512х512 , для 4к сейчас 4096х4096 ,а это больше 20 мб на одну штуку... а потом как начнут забивать на оптимизон и засовывать сразу 8192х8192..и всё..тапки..Такие текстурки некоторые графические процессоры вообще не поддерживают .
...начнут?
Уже давно забивают болтик на оптимизон )
На самом деле - все и всегда забивали на оптимизон.
У завсегдатаев этого сайта народная 1060 так что им такие цифры только во влажных снах приснятся =хыч хыч=
Ну ты разумист, карлик
Я думаю некоторые завсегдатые вообще с телефона пишут!
Ну чтож, как показывает статистика стима трон 1060 наконец передала по наследству 3060. Так что как то так у завсегдаев. Даже забавно 1 место 3060, второе 2060, третье 1060 🤗
На самом деле всё правильно говорят, кроме графиков с потреблением видеопамяти... там всё сильно меньше, но сути дела не меняет - 8 гигов той же 3070 даже для FullHD было впритык на старте (сброс настроек в минимум не учитываем, только ультра), причем в некоторых играх часа через 2 геймплея с забитой видеопамятью фпс падал в 0, либо вываливался драйвер, а пофиксить помогал только ребут 😁
Поэтому, когда стала заманчивой цена заменил 3070 на 3090ti, не дожидаясь выхода аналогичной по мощности и цене 4070ti которая хоть и жрёт сильно меньше, но имеет всего 12 гигов видео... маловато будет особенно с массовым переходом всех на 5 анриал и моим ультрашироким разрешением 3440х1440
Хд, ты летом в бане.
Я после 1060, перешёл на 2060 супер и вижу разницу в температурах в комнате. 100 ватт было, теперь 185.
Друг взял 3080, ели как уговорил не брать 3070 на 8гб, но и 10 гиговая выглядит так себе, если честно. Найти на 12 не получилось.
Так вот, говорит форточку приходится открывать.Не представляю, как тебе весело с 3090). Хд. И это кстати весомый аргумент отказываться от топов. Они реально печки.
Но если взял в первый раз, то простительно. Я все, больше так ошибаться не буду в выборе, максимум 4070, 4060 или 3060,3070. Остальное это уже печка галимая, тем более щас все печи считай стало.
Мне моей 470гтх хватило в свое время, 225/235ватт
Летом то норм (не самые жаркие края), а вот зимой центральное отопление даёт о себе знать, это в принципе решаемо без больших вложений было бы желание... и дело не только в видяхе, но и R7 5800x который даже с даунвольтом спокойно нагревает 360 радиатор водянки 😁 После замены разницы даже не заметил, хоть и видяха теперь в пике 82 градуса выдаёт вместо 65 на ядре...
В любом случае приходится идти на какие то компромисы, а терпеть низкую производительность мне уже надоело 😁 Температура окружения такое... я бы не сказал что у меня хоть сколько то поменялась от железа за всё время проживания в текущей квартире, главное системник в ноги не ставить... было в этой квартире i3 3220 + gts 250 -> i3 3220 + gtx 270 -> i3 3220 + R9 270 -> Ноут MSI i7 7700hq + 1060 3gb -> R7 5800x + Palit RTX3070 GamingPro -> R7 5800x + Colorful RTX3090ti BattleAx
i3 3220 + gts 250 потом R7 5800x + Colorful RTX3090ti BattleAx
Смешные энтузиасты ! Которые начинали с хлама ))))
Nvidia что-то мудрят с картами 4000 серии. То Битность низкая, то видео памяти мало - напоминает цыганское мошенничество!
Один чип памяти имеет 32 бита шину. Поэтому у 12 гигов (6 чипов по 2 гб) кроме 192 битной шины ты другую не сделаешь. 256 будет только у 16гб.
Ну и 192 бита не мешает 4070ти быть на уровне 3090 у которой шина 384.
12 гиговая 3080 с 384 битной шиной передает привет.
Правильно, мочите этих жлобов из Nvidia.
Почему жлобы, вон видеокарт Нвидиа в каждом магазине полно, а АМД почему-то мало, так кто жлобы, я например не могу купить какую нибудь RX 7800 XT, или RX 7700 XT. А Нвидиа уже 4-ю модель в продажу выпускает!
12:11 Заскочил я сейчас на сайт ДНС, и посмотрел количество продаваемых карт Нвидиа, ну поехали RTX 4090 - 11 моделей, RTX 4080 - 25 моделей, RTX 4070 Ti - 25 моделей!
Тааак, а сколько же АМД карт, поехали: RX 7900XTX - 8 моделей, RX 7900 XT - 6 моделей!
Ой, а кто меньше всех продаёт видеокарт, неужели Нвидиа жлобиться и продаёт так мало видеокарт?
в днс не все вендоры и модели есть,которые есть за рубежом.
Жлобы даже 4070TI стоит дороже у меня чем RX7900 20gb ! Потому нах эти огрызки по памяти ))))
Так это стратегия нвидии с древних времён, если в современные карты закладывать памяти ровно столько, сколько нужно, то через пару поколений их придётся менять из-за её нехватки, даже если мощности чипа хватает. Проблем с памятью у них не было разве что у самых топовых карт, так что ничего личного, это просто бизнес.
У 10 серии было норм памяти.
У 10 серии была 1060 с 3гб, они поняли, что переборщили на остальных и решили отыграться на ней.
Да какая разница. Бала с 6. 1070 вообще 8гб, и это 2016 год.
Ну и на самом деле это вина производителей памяти в том числе, 2 гигабайтные модули появились не так давно. Даже 3090 набрана из 24 чипов с двух сторон платы. Плюс чип 32 бита, и битность ещё подобрать надо.
у AMD сотни гигабайтов VRAM но лагает будто на встройке лол, а жрёт как будто майню лол
Ну вот это не надо тут. Амд карты в 3000й против 6000го поколения жрали сильно меньше чем нвидиа.
покажи мне амд который жрет меньше чем 4070-4080 по той же мощности
4070 ещё не вышла же. ти может? Ну а аналога 4080 как бы и нет) Ну типа 7900хтх аналог, но хз-хз. Ну вот в целом разница не велика 267 и 283 ват. у 4070ти и 7900хт. При этом фпс 50 и 58... Да-да с лучами 7900 откиниться без фср, но и 4070 ти без длсс там не играбельные 42 даст, так что смысла так сравнивать и нет. А так 58 кадров в самом честном 4к.
А вот что 7900 хтх жрущая не обращал внимание:
Но я писал про прошлые поколения. Там вин был на красными по энергоэффективности.
К примеру 271 ват 6800хт против 345 тут 3080 на 12.