на главную
об игре
Godfall 12.11.2020

NVIDIA GeForce RTX3080 может иметь проблемы с Godfall в 4K/Ultra, требуя 12 ГБ видеопамяти по словам разработчиков

AMD выпустила новое видео для Godfall, в котором Counterplay Games подробно описывает его ключевые технические особенности. И, по словам разработчиков, Godfall потребуется 12 ГБ видеопамяти в разрешении 4K/Ultra для плавной игры.

Как вы все знаете, NVIDIA GeForce RTX3080 поставляется с 10 ГБ видеопамяти. NVIDIA заявила, что этого количества VRAM достаточно для игр как текущего, так и следующего поколения. Таким образом, будет интересно посмотреть, удастся ли RTX3080 достичь каких-либо ограничений VRAM в Godfall при разрешении 4K/Ultra.

Counterplay Games будет использовать DXR - через DirectX 12 Ultimate - для добавления поддержки трассировки лучей. Команда будет использовать трассировку лучей, чтобы улучшить тени в игре. Это будет единственное, что будет улучшено с помощью RT, поэтому не ожидайте лучших эффектов Reflections, Ambient Occlusion или Global Illumination.

Godfall также будет поддерживать AMD Infinity Cache, а также шейдинг с переменной скоростью. Он также будет поддерживать FidelityFX Sharpening на всех графических процессорах. Геймеры на ПК смогут использовать эту технику для повышения резкости графики игры (которая может быть размытой из-за технологии TAA, которую будет использовать Godfall).

Godfall выйдет 12 ноября на PS5 и будет временным эксклюзивом в Epic Games Store на ПК. В игре также не будет автономного режима, и для игры потребуется подключение к Интернету.

Комментарии: 37
Ваш комментарий

Игра выглядит на 2010, топ карт 2020 не хватает, вот он некстген ужасный и беспощадный.

13

Это Хуанг виноват. Выпускать в 2020 году обрубленный топ с 10 гигами. Он небось ещё скоро тишку выкатит, нет бы сразу вывалить норм видяхи а он дичью занимается.

-15

У Nvidia приступы жадности, последние несколько лет. Надеюсь, AMD удастся привести её в чувства

2

А куда он 3090 денет? Я думаю будет 3080 с той же производительностью, только с увеличенным буфером. Хотя может просто сольет 3090, вот рофл будет для тех кто купил за 2.5к :D

0

Тут были слухи типа 12 гигов и чуть мощнее. Но не такая как 3090.

0

Да мне кажется 3080 тишки 100% будут. И было бы хорошо, если они будут на 20 гигов, а не на 12

0

Ахах, что и требовалось доказать. Мертворожденная 3080. Кто-то накануне в комментариях мне пытался усиленно доказывать что 10 гб видео это даже запас на будущее)

7

АМД конечно накидывает, ведь 2 гига можно сгрузить в оперативку. Но тем не менее 3080 днище с 10 гигами.

5

Согласен, можно выкрутиться, но большинство юзеров ставят карты и ничего не настраювают. Жадный Кожаный Хуанг во всей красе)) у меня 480 радеон с 8гб, а тут предтоп с 10гб - курам насмех. Хотя обычному российскому геймеру такие карточки вряд ли нужны и вряд ли он сможет их позволить себе купить, курс рубля падает все глубже, смотришь на цены и как-то уже не до 4к гейминга.

2

Хз, у нас 3080 раскупают почти все которые в магазы попадают. Даже 3090 за 150к уходят прямо на глазах. Покупали по 60к купят и за 80.

-1
2 гига можно сгрузить в оперативку

Разве подобное не замедлит работу видеокарты или она выбирает, что скидывать в оперативку, а что у себя оставить?

1

Вам везет. У нас в Беларуси 3090 - 3000$ стоит.(

1

2 гига обычно не играют роль и не замедляет ни чего. Есть предел после которого начинаются тормоза, но не знаю сколько, гига 4 наверно если не хватит тогда лагать будет.

1

А как же "10 гб хватит всем" ?)

3

8 гб для фул хд достаточно говорили они. 96 дизов влепили они. (Щас найдется кто скажет это для 4к да да как же). Давайте давайте извеняйтесь

2

для низких и средних наверно будет достаточно если экстраполировать современные консоли половину их рам на карты того времени и это отношение сейчас.

а так для нормальной графини понятно что нада подяка 16гб в ближайшие 4 года

-1

В комментах что-то все гонят на карточки, но по трейлерам (в том числе и геймплейным) можно было понять, что играя полное уг

1

Какая разница уг или нет, тут чисто техническую сторону обсуждают. Тем более эта игра первая ласточка и дальше подобных будет много. Просто как показатель, ты же покупая видюху не вкусовщиной руководствуешься?

0

Ну типа это игра чисто под некстген, самая первая только на ПК и пс5. Другие такие же должны быть так же прожорливые или около того. Усреднённый показатель к чему готовиться.

-2

Ха ну для этого надо будет постараться так обгадить движок UE4 что бы он работал на картах NV хуже чем на AMD... Unreal engine всегда лучше работал на картах Nvidia.

1

UE затачивался под консоли. Во всех больших консолях всегда было железо от AMD (процессоры и видеокарты). UE3 делался с большим расчётом под XBOX360 чем под архитектуру PS3, вспомните Gears of War, Arkham Asylum, MK.

На ПК у UE было факультативное соглашение с NVIDIA, можно вспомнить логотипы NVIDIA в старых играх и Phys-X, но это всё осталось в прошлом.

0

за деньги и не такое сделают)

0

Все понастольгировал ? В итоге то че ? Она лучше работает на картах NV чем на AMD а консолей и подавно.

-1

Ну Хуанг по факту обкакался знатно, сначала памяти не доложил, конденсаторы левые поставил, дефицит на рынке устроил, надо наказывать чинг-чонга деньгой.

1

8гб будет достаточно для игор текущего поколения пек-пек

0

amd тут лучше, там лучше нвидиа с....ет, а по факту что мы имеем? да нвидиа обосрались с наличием товара на полках, но у них есть реальные тесты от пользователей, а что есть у AMD красивые графики показанные на сцене сделанные со слов разработчиков и много обещанного как и всегда с каждым новым анонсом, вот если бы они дали ее по тестить разработчикам игр, пользователям, ну хотя бы блогерам кто делает тех обзоры, вот тогда можно было сказать что AMD в чем то преуспели а пока все на воде вилами писано. Ну а про нвидиа хоть что бы не говорили а цены растут наверно потому что спрос есть несмотря на все поливания грязью.

-1