AMD выпустила новое видео для Godfall, в котором Counterplay Games подробно описывает его ключевые технические особенности. И, по словам разработчиков, Godfall потребуется 12 ГБ видеопамяти в разрешении 4K/Ultra для плавной игры.
Как вы все знаете, NVIDIA GeForce RTX3080 поставляется с 10 ГБ видеопамяти. NVIDIA заявила, что этого количества VRAM достаточно для игр как текущего, так и следующего поколения. Таким образом, будет интересно посмотреть, удастся ли RTX3080 достичь каких-либо ограничений VRAM в Godfall при разрешении 4K/Ultra.
Counterplay Games будет использовать DXR - через DirectX 12 Ultimate - для добавления поддержки трассировки лучей. Команда будет использовать трассировку лучей, чтобы улучшить тени в игре. Это будет единственное, что будет улучшено с помощью RT, поэтому не ожидайте лучших эффектов Reflections, Ambient Occlusion или Global Illumination.
Godfall также будет поддерживать AMD Infinity Cache, а также шейдинг с переменной скоростью. Он также будет поддерживать FidelityFX Sharpening на всех графических процессорах. Геймеры на ПК смогут использовать эту технику для повышения резкости графики игры (которая может быть размытой из-за технологии TAA, которую будет использовать Godfall).
Godfall выйдет 12 ноября на PS5 и будет временным эксклюзивом в Epic Games Store на ПК. В игре также не будет автономного режима, и для игры потребуется подключение к Интернету.
Игра выглядит на 2010, топ карт 2020 не хватает, вот он некстген ужасный и беспощадный.
Это Хуанг виноват. Выпускать в 2020 году обрубленный топ с 10 гигами. Он небось ещё скоро тишку выкатит, нет бы сразу вывалить норм видяхи а он дичью занимается.
У Nvidia приступы жадности, последние несколько лет. Надеюсь, AMD удастся привести её в чувства
А куда он 3090 денет? Я думаю будет 3080 с той же производительностью, только с увеличенным буфером. Хотя может просто сольет 3090, вот рофл будет для тех кто купил за 2.5к :D
Тут были слухи типа 12 гигов и чуть мощнее. Но не такая как 3090.
Да мне кажется 3080 тишки 100% будут. И было бы хорошо, если они будут на 20 гигов, а не на 12
Ахах, что и требовалось доказать. Мертворожденная 3080. Кто-то накануне в комментариях мне пытался усиленно доказывать что 10 гб видео это даже запас на будущее)
Попаны и писали)))
АМД конечно накидывает, ведь 2 гига можно сгрузить в оперативку. Но тем не менее 3080 днище с 10 гигами.
Согласен, можно выкрутиться, но большинство юзеров ставят карты и ничего не настраювают. Жадный Кожаный Хуанг во всей красе)) у меня 480 радеон с 8гб, а тут предтоп с 10гб - курам насмех. Хотя обычному российскому геймеру такие карточки вряд ли нужны и вряд ли он сможет их позволить себе купить, курс рубля падает все глубже, смотришь на цены и как-то уже не до 4к гейминга.
Хз, у нас 3080 раскупают почти все которые в магазы попадают. Даже 3090 за 150к уходят прямо на глазах. Покупали по 60к купят и за 80.
Разве подобное не замедлит работу видеокарты или она выбирает, что скидывать в оперативку, а что у себя оставить?
Вам везет. У нас в Беларуси 3090 - 3000$ стоит.(
2 гига обычно не играют роль и не замедляет ни чего. Есть предел после которого начинаются тормоза, но не знаю сколько, гига 4 наверно если не хватит тогда лагать будет.
А как же "10 гб хватит всем" ?)
8 гб для фул хд достаточно говорили они. 96 дизов влепили они. (Щас найдется кто скажет это для 4к да да как же). Давайте давайте извеняйтесь
для низких и средних наверно будет достаточно если экстраполировать современные консоли половину их рам на карты того времени и это отношение сейчас.
а так для нормальной графини понятно что нада подяка 16гб в ближайшие 4 года
В комментах что-то все гонят на карточки, но по трейлерам (в том числе и геймплейным) можно было понять, что играя полное уг
Какая разница уг или нет, тут чисто техническую сторону обсуждают. Тем более эта игра первая ласточка и дальше подобных будет много. Просто как показатель, ты же покупая видюху не вкусовщиной руководствуешься?
"Первая ласточка" в плане?
Ну типа это игра чисто под некстген, самая первая только на ПК и пс5. Другие такие же должны быть так же прожорливые или около того. Усреднённый показатель к чему готовиться.
Ха ну для этого надо будет постараться так обгадить движок UE4 что бы он работал на картах NV хуже чем на AMD... Unreal engine всегда лучше работал на картах Nvidia.
UE затачивался под консоли. Во всех больших консолях всегда было железо от AMD (процессоры и видеокарты). UE3 делался с большим расчётом под XBOX360 чем под архитектуру PS3, вспомните Gears of War, Arkham Asylum, MK.
На ПК у UE было факультативное соглашение с NVIDIA, можно вспомнить логотипы NVIDIA в старых играх и Phys-X, но это всё осталось в прошлом.
за деньги и не такое сделают)
Все понастольгировал ? В итоге то че ? Она лучше работает на картах NV чем на AMD а консолей и подавно.
Ну Хуанг по факту обкакался знатно, сначала памяти не доложил, конденсаторы левые поставил, дефицит на рынке устроил, надо наказывать чинг-чонга деньгой.
8гб будет достаточно для игор текущего поколения пек-пек
amd тут лучше, там лучше нвидиа с....ет, а по факту что мы имеем? да нвидиа обосрались с наличием товара на полках, но у них есть реальные тесты от пользователей, а что есть у AMD красивые графики показанные на сцене сделанные со слов разработчиков и много обещанного как и всегда с каждым новым анонсом, вот если бы они дали ее по тестить разработчикам игр, пользователям, ну хотя бы блогерам кто делает тех обзоры, вот тогда можно было сказать что AMD в чем то преуспели а пока все на воде вилами писано. Ну а про нвидиа хоть что бы не говорили а цены растут наверно потому что спрос есть несмотря на все поливания грязью.
Обязательно дадут.