HD4850 X2 будет производительнее GTX280?

Согласно AMD, ее новая бюджетная версия R700 с DDR3 памятью сможет легко разделаться с флагманом NVIDIA, GeForce GTX280. По заявлению компании, ее грозное детище способно опередить по производительности GTX280 на 8-34%. Цена HD4850 X2 составит $399, на ее борту будут два чипа с частотой 625MHz и 2GB памяти DDR3. Звучит просто превосходно, отменное соотношение цена/производительность, на что и делает ставку AMD в последнее время. В будущем некоторые производители могут выпустить и HD4850 X2 с 1GB памяти, что должно сказаться на их цене в лучшую сторону.
Проверить угрозы AMD потребители смогут лишь в сентябре, даже во второй его половине, когда карты пойдут в розничную продажу.

Комментарии: 97
Ваш комментарий

I'm number one !!! Наконецто ))))))))))))))

0

увидим.смерть любителям нахов

0

Что то не верится.4870Х2 еле уделывает 280,а тут бюджетная модель...Посмотрим) З.Ы. Смерть нахам!

0

лучше бы нормальную одночиповую карту сделали, ответ NVIDIA думаю будет достойным, так как даже старую 9800gtx перевели на новый техпроцесс:)

0

сомневаюсь что лучше брать... 4870 или 4850х2...

0

2Sanderland NVIDIA намучалась из-за одного чипа, слишком много транзистеров. Так что будущее за 2 чипами. Это как 2ядерки сменили 1ядерки

0

В ближайшее время и GeForce может выпустить GTX280 х2, там уж АМД точн пролетит, правд не факт что карта изначально с приемлемой ценой будет...

0

2 Alex_Cra2y как говориться, поживем увидим, но молчание со стороны NVIDIA об будущей линейке карт заставляет задуматься...думаю выкатят на рынок лидирующий флагман.

0

и цена будит огого!по мне так лучше АМД взять

0

2 Domini[on] 2Gb это для мажоров :D А вообщем молодцы! Вот только пока обе компании упёрлись в потолок и выход только в многоядерности, SLI и Crossfire но это далеко не дёшево а потому и не популярно. А вот абсолютным лидером станет тот кто совершит мягко сказать революцию :)

0

да AMD рулит! пойду куплю Radeon 9600!

0

А Радик 9600 выпустила еще ATI до поглащения ее AMD))))

0

Молодцы сравниваете 2 ядра против 1 ну тогда поставьте ТРИ GTX280 в SLI и сравнивайте на здоровье

0

Че вы мудрите купите HD4850 за 5к и не мучайтесь а ещё лучше две что б кроссфайр был

0

Полная чушь. GeForce непобедим.

0

Полная чушь. GeForce непобедим. ОДОБРЯЮ

0

Классные у вас аргументы: "непобедим и все тут". Многие ведущие в прошлом компании тоже когда-то были непобедимы, сейчас процессоры для мобилок клепают

0

У меня были Нвидии всю сознательную жизнь но теперь у меня РАДИОН!!!!!!!

0

Да это не важно. Сколько из нас смогут поставить себе дорогущие GTX280 и 4870x2? 1 из 50 наверно. Так какой смысл, если большинство будет ставить Radeon4850 или GF9800 за 5 штук

0

Хм.. моя 8800 GTX стоила также как сейчас 280. Смог бы наверное :)

0

нвидия сасет ненагибаясь :-))

0

Кто ещё в танке, и не представляет, что такое 4870х2 и с чём её едят вот хороший обзор. http://www.guru3d.com/article/radeon-hd-4870-x2-preview/1 песдетс.. 2.4 терафлопсов :) Ну, хотя это только в теории.

0

Но это просто супер,а то у нвидии за аццкие цены.

0

тут нельза сравнивать одно ядро... два... три... тут идёт сравнение в цена\производительность!

0

Radeon 4870 X2 (R700) # of transistors 965 million x2 Stream Processing Units 800x2 Clock speed 750 MHz Memory Clock 3600 MHz GDDR5 (effective) Math processing rate (Multiply Add) 2400 GigaFLOPS Texture Units 40x2 Render back-ends 16x2 Memory 1024 GDDR5 x2 Memory interface 256-bit x2 Fabrication process 55nm Power Consumption (peak) ~300W Опять сливают по текстурникам. Узнать бы ещё про охлаждение и его шум. Пиковая мощность тоже песдёж, готовте мимнимум 700-750 ваттник. Надеюсь у вас есть блок с 8-pin отводами питания? At idle you'll hardly hear the card, the FAN RPM is pretty low and results in an overall DBA level of less that 40 which is great actually. The minute though the GPUs start to heat up, the RPM of the fan will increase and you can expect roughly 43-46 DBa when the GPU is fully stressed for both cards. So you'll definitely hear the fan blowing during gaming. Они опять обломались с охлаждением. 86 градусов в простое. Все любят жарить сосиски? Ну, по крайней мере вам не будет холодно зимой.

0

Эээ у меня до сих пор был блок на 200 ватт (может быть поэтому когда присоединил новый 22" монитор моя 8500 приказала долго жить?), а вот вчера купил на 450 ватт и что? Уже слышу что надо 700-750 - а скока это стоит? Мой 400 ваттник стоил 1207 руб.

0

Мой 600 ваттник залмановский с PCF 93% стоил 3100 :) И то, в ультре. Меня больше всего допирает, что x2 сливает crossfir'у.

0

это скорее всего пока баг дров, тк сливать кросу он не должен, даже более того он должен быть быстрее

0

Тут многие не понимают, что 2 ядра никогда не работают ровно: в одной игре это +50% производительности, в другой +20%, в третьей вообще ноль! Это все фуфло. Лучше поставить одну мощную видяху, чем какой-то двуядерник.

0

надо просто чтоб сейчас сами разработчики оптимизировали игры для 2х видях

0

каталист 8.6.. и правда старьё.

0

Если выйдет 280gtx x2, то тогда можно забыть о батарее) Она будет как мини теплоэлектростанция)

0

Блин гонщики,вы че Забыли скока стоила Х280 (Рекомендованная Цена ) 640 Баков, Щас 400 с гаком,Бля Дебилы Нвидиа Фаны Убейтесь об Стенку,если б не АМД Щас Бы Покупали Свои 9800ГТХ по 300 Баков(Которая Щас стоит 200),дятлы,Нужна конкуренция,без Конкуренции Лидер зажрется,ироды вы Бестолковые,Три Поколения подряд у меня Были Видюхи Нвидиа,т.к.Тогда когда я их Покупал они были лучше по соотношению Цена Качество,Щас у меня Радик 4850,потому что он тупо Лучше и все тут............

0

ну одну gtx280 по крайней мере печью не назовешь:) 2 карты в SLI или CrossFire, в любом случае будут топкой, если в настройках дров над кулерами не пошаманить. конкуренция это хорошо, но там, например где я живу топы от NVIDIA редко стоили дешевле 16000 когда линейка была актуальна, а в первые месяцы так вообще под 20000 были, на эти цены аналоги ATI не сильно влияли.

0

Nvidia делает двухголовую 280х2 - вот это будет настоящий монстр, на хоботе кажисть инфа

0

Все такие знатаки :) Скажу просто: P4 3.2Ghz 2mb 2GB оперативы 8600GTS 256mb При таком раскладе про DX10 молчу конечно..но все игры даже самые свежие на высших настройках для DX9.0c если не сказать, что летают то уж идут не напрягаясь, это точно! И не удивлюсь если и подлагивает местами то это из-за проца..устарел :) Так, что пока и не задумываюсь грейдить. А по теме, конечно конкуренция сдоровая нужна! Она облагораживает рынок и является движителем прогресса! Надеюсь ATI и дальше будет лихо топтать пятки NVIDIA ..)

0

Ха! У меня Athlon 3600+, 1 Гб оперативы и Radeon 2600 XT и все игры тоже идут не напрягаясь (: Убейтесь все нвидияФаны))) 4870Х2 будет круче) А когда НВ выпустит что получше, АТИ утрет ей нос каким-нить 5870 Ы)) И, что самое главное - лучшая игра, которая когда-либо выходила на ПК требует совсем мало: The Elder Scrolls III Morrowind.

0

Flion Как минимум 1 игра поставит такой конфиг на колени) Ати с линейкой HD4*** очень хорошо подтянула свое положение. Впервые за последнее время она составляет конкуренцию нвидии, причем не слабую. 4870 уступает 280 гтикс всего 13% в играх, а стоит почти в два раза дешевле)

0

И, что самое главное - лучшая игра, которая когда-либо выходила на ПК требует совсем мало: The Elder Scrolls III Morrowind. Добавь ИМХО)))))))

0

Это истина высшей инстанции )) После TES3 игры делать разучились. Готика3? Отстой. Дум3? Лажа. Кризис? Фигня. Добавилась лишь красивая оболочка к полному бреду.

0

Это твоё ИМХО и его никто не оспаривает но всё таки это ИМХО и не более. У меня тоже имхо что лучшая игра это УТ99 но я своё мнение другим не навязываю и приписываю ИМХО

0

Shinobu спс за сцылку)) 4850x2 действительно монстр будет) но я уже заказал себе 4870, и не жалею... т.к. от ATI только через пол года выйдет новый монолитный GPU который будет на 20% сильнее и на 50% холоднее...

0

Shinobu спасибо за сцылку.Эту видюху не кто не порвёт.

0

Skaary ЫЫ точно перефразирую - то что вышло позже 2002 года, все шлак.

0

там не совсем 4850х2, там 4870х2, но можно предположить, что это одного поля ягоды, т.к. х2 сливает кросфаеру, то получается, что там тестят кое-что покруче, т.е. кросс 4850 :)

0

NY GAMER, а если сравнить 3x 4870X2 Crossfire c 3X SLI GeForce GTX280? Победа очевидна - AMD!!!

0

а понту с этих Х2, Х3, Х-бля-41 .!???? ИГР-ТО НА РС ПОЧТИ НЕТ...

0

Shinobu, "86 градусов в простое" Ничего подобного, внимательнее читай. В простое (idle) - 63-65 градусов. А 86-87 градусов - это под макс. нагрузкой.

0

GlamKilla oO КАК НЕТ игр на ПК?! Да ПК - самая игровая платформа в мире!

0

Krevedishe В том и дело что имхо все что ты сказал) Вышла Халфа 2, вышел Фар край, вышел Фаренгейт, вышел ведьмак, вампиры, котор. И это часть из действительно хитов и оригинальных игр в своем плане. И это только 1\3 списка) Зы - единственое когда не вышло стоящих игр - это 2006 год - очень слабый год в этом плане. GlamKilla Игр на пк не меньше чем на консолях;) Это я о хороших) Если считать все - то тут пк очевидно впереди) NY GAMER И вызывай пожарных для своей системы с тремя 280gtx на борту) Ибо пока одна эта карточка самая энергопотребляемая и самая *теплая* из всех) SkaFaNDr С тремя 4870x2 - также вызывай пожарных как и NY GAMER -)

0

Н-да.. Скорей бы.. Хотя одна из любимых игр Герои 3 и на 8800 норм идет)

0

АМЖ вечно в жопе, вечно они опаздывают. GTX280 можно уже СЕГОДНЯ использовать, а ту мол ждите в сентябре. Угу, конечно, аля "1-ый выпускает на пол года раньше, 2-ой на полгоде позже, зато сильнее карту", ну блять а чему тут удивлятся? Конечно те кто позже чуть сильнее будет, но это не говорит о крутости, ибо АТИ это унылое и глючное говно

0

Relice факты где? Чисто Фанат?

0

Relice ты глупый или прикидываешься?? ATI уже недели 2 назад запустила 4870x2... а 4850x2 только к сентябрю... это nVidia сейчас в ж..е очнись если руки из ж...ы растут то и Intel будет глючить.. и Windows и ATI и nVidia http://www.guru3d.com/article/radeon-hd-4870-x2-preview/1 еще раз ссылка... смотри что твою печь которая потребляет гораздо больше... она ровна по производительности 4870... а 4870x2 и 4850x2 ее в мясо уделывают... по поводу GTX280x2 ну, у нее есть шансы.. только если цена будет ниже 1400р)) а пока мы видем одноголовую за такую цену...

0

Пистец... как уже задрали кретины... со своими криками "Нвидиа рулит" пишут что Ати гомно... без конкуренции небудет вам ни новых 280 х2 ни тому подобных... а если и будут... то из всей этой шары... кто коментил новость... купить её смогут человек 5... Очень смешно было слышать типо а давайте сравним 4850 х2 с 3 SLI 280GTX... это конешно всё очень хорошо... но... я живу в Киеве у нас 280GTX стоит 600$ я сомневаюсь что рядовой геймер сможет выложить 1800 баксов... в то время как можно купить 4850 х2 которая и с тоит на порядок ниже... и вообще... люди... опомнитесь... сейчас нету такой игры которая бы лагала даже на 4870... так зачем платить больше?;)

0

её мае че вы гоните-то Hd 4870 x2 можно купить на ebay(http://search.ebay.com/search/search.dll?sofocus=bs&sbrftog=1&dfsp=32&from=R40&satitle=hd+4870+x2&sacat=-1%26catref%3DC6&sargn=-1%26saslc%3D2&sadis=200&fpos=ZIP%2FPostal&sabfmts=1&saobfmts=insif&ftrt=1&ftrv=1&saprclo=&saprchi=&fsop=32%26fsoo%3D2)

0
0

Catwoolfii критин это тот кто за либо за ati либо за nvidia и надо покупать то что полутше, а сейчас лутше hd 4870 x2 кстати вот и подешевле http://www.bestbuy.com/site/olspage.jsp?type=category&id=pcmcat154500050003

0

Snarky, The thermal envelope: Temperature in degrees C Idle Peak R700 GPU-1 84 91 R700 GPU-2 86 93 Сосиски нормально сготовятся, в любом случае. Idle temps are roughly 85 Degrees C, yet when the GPU was fully utilized & stressed it also reached 90-95 Degrees C quite quickly. I'll have to be honest here; the thermals on the entire 4800 series are just shockingly high. Obviously the product can take it fine, it just scares the shit out of me. Самый лучший отрыв - либо в играх заточеных под Cross, либо в тяжёлых режимах. 280 сливает почти в 1.5-2 раза.

0

Зачем быть фанатиком нвидии или ати? Ати была хорошей картой до выпуска линейки джифорс 8***, где она слила по полной, а потом нвидия выпустила туже 8*** серию, только разогнаную под линейкой 9***. Ати не воспользовалась подарком и опять провалилась. Но потом вышла HD4850, которая составила конкуренцию дорогим картам от нвидии, а затем и 4870, которая немного уступает флагману нвидии, а щас еще 4870x2, которая самая лучшая по производительности карта на данный момент. Суть в том что без конкуренции будут выпускаться левые карты и цена их завышена будет. А при здоровой конкуренции - выигрывает пользователь)

0

Я тоже не вижу смысла спорить,нам ж лучше от того,что так часто выходят видеокарты....я лично возьму HD 4870 X2, потому что моя карта уже устарела...комп в профайле

0

Shinobu, Ты приводишь данные из превью от 21 июля. Берем обзор от 12 августа и читаем: Temperature in degrees C Idle Peak R700 GPU-1 65 87 R700 GPU-2 63 86 Our new PowerColor 4870 X2 sample has power management active, opposed to the sample we tested earlier on. Idle temps are roughly 65 Degrees C, yet when the GPU was fully utilized & stressed it reached nearly 90 Degrees C. "В нашем новом образце 4870 X2 от PowerColor включено управление энергопотреблением, в отличие от образца, протестированного ранее..." ;)

0

Всё равно - в нагрузке - печка. :) У меня в простое 8800 GTX, ещё по старому тех. процессу 60 градусов. В нагрузке 75. Ужас просто. Интересно, какая температура будет у владельцев этой карты летом. :) Епать.. да они там кросс тестят. 750W в нагрузке. Всё, беру. Ахаха :) Вот смотрю на тесты и понимаю - ну не приспособен ещё кросс для игр - не приспособен. Лень разрабов.. наверняка многие понимают, что почти у многих одночиповые видюшки. Некоторые даже боятся ставить двухчиповые решения. Да и прогеры в АМД криворукие..

0

NY GAMER АТИ тоже долго лидировала в сфере видеокарт и что ? Ничто не вечно! Catwoolfii Я даже одно время думал что ты в адеквате , а ты просто ребёнок. Relice С чем они АМД опаздывает ? АМД по многим параметрам раньше драла и интел и АТИ драла Нвидиа. Сейчас карты у АТИ по соотношению цена/произвоительность превосходят карты от Нвидиа. P.S. те кто сидит сейчас на картах 8800 на данный момент вообще не стоит рыпаться ибо её смена ничего координально нового не принесёт. Не понимаю фанатиков , которые вообще не в теме вечно орущих о крутости Нвидиа и о каком-то вечном превосходстве , забывающих о том как совсем недавно таже самая АТИ или АМД натягмвала по полной своих конкурентов . Сам сидел как на Нвидиа так и на АТИ и ничего плохого ни про одну кату сказать не могу , всегда брал только лучшее в своём ценовом сегменте и впредь буду этого придерживаться.

0

Guide, дя я как-то тоже не сторонник слепой поддержки а ля "такие-то - всё равно круче!" Чья карта на момент моего апгрейда будет лучше, того я и поддержу. :)

0

HARRIER294 Ну лан, фигню сказал Ы) Но все равно, лучшие игры не требуют супер-крутого компа. И при этом самые лучшие игры уже вышли. Думаю, не следует ждать от геймдева чего-то нового. Будут тока гнаться за обалденной графикой. Max111 оО зачем тебе круче? У тебя итак крутой комп.

0

я имел ввиду видеокарту,все купил кроме нее

0

Guide А мне плевать на то, что ты обо мне думаешь. Так же как мне плевать на тебя.

0

Catwoolfii Сходи к психиатару мелкий ушлёпок.

0

Guide Ну и долго ты еще намерен хамить и показывать свой примитивный уровень интеллекта? Или все-таки по теме будешь писать? Видимо тебе просто нечего писать, все аргументы иссякли.

0

Catwoolfii От тебя я ни одного аргумента вообще не слышал , а всё что нужно по теме я уже написал , есть что-то возразить ? Разговаривать с тобой образовательно бесполезно ибо ты клоун , фанатик и неадекват.

0

Shinobu, А у тебя выше 75 градусов не поднимается никогда? Эта температура не зависит от игры? Ну скажем, одно дело ты запустишь Crysis на высоких настройках, и другое дело - Halo. Нагрузка и нагрев будут одинаковыми?

0

Guide, абсолютно поддерживаю, на все 101%.

0

Вам нужны аргументы? 1. При использовании режима crossfire(равно как и sli), картинка идет не плавно(спорить даже не пытайтесь, это факт). 2. Оптимизация 2-х ядерных систем оставляет желать лучшего(производительность в отдельных играх может быть +50%, в других например +20%, в третьих вообще нисколько). 3. 2-х ядерные системы как правило выдают большее число артефактов и ошибок, нежели одноядерные, исправление этих ошибок программно(в драйверах) происходит так же, как и оптимизация производительности последних(не эффективно). Все помнят тесты, когда в некоторых ресурсоемких играх при очень большом разрешении, 2-х ядерные системы зависали картинку, не запускали уровень вовсе, или происходило резкое падение производительности из-за неправильного распределения ресурсов, ибо память ядра используют пополам. 4. Мне в принципе не нравится архитектура радеона: 800 потоковых процессоров - зачем?, 40 текстурных модулей - больше, чем у предыдущего, но у 280GTX их уже в 2 раза больше(это более актуально, нежели 800 потоковых процессоров); 16 блоков растеризации - маловато будет(антиалайзинг и анизотропия обрабатываются медленнее, чем у 280-го, у последнего этих блоков в 2 раза больше); Вычислительная мощность GPU 1,2 ТФлопс - ну если кто то занимается научной деятельностью, в игре таких вычислений не происходит; Поддержка DirectX 10.1 - это плюс, но я пока ни одной игры с 10.1 директом не видел. Можно продолжить, это только кратко, но реально в лом.

0

С помощью высокой вычислительной мощи можно брутить MD5 хеши.

0

Krevedishe Да и еще кодирование видео и все такое прочее, но к играм это не относится, а мы сдесь обсуждаем производительность в играх.

0

NY GAMER P.S. и при чём все видеокарты, которые полностью поддерживают DX10 будут полностью поддерживать DX11 - это официально Microsoft заявила. Интересно! Т.е. моя супер-мега-экстремально-топовая HD 2600 XT (поддержка DX10!) будет работать с DX11?! Можно ссылку на источник? Catwoolfii, но больше 2х терафлопс, это несомненный плюс! К тому же физика в играх тоже будет отнимать слишком много процессорного времени. Поэтому ее перевешивают на видеокарту (или т.н. физическую карту). Вчера читал описание игры от nvidia, которая юзает технологию CUDA в картах начиная с 8*** серии для рассчета физики. При этом на других видяхах наблюдаются дикие тормоза. У АМД есть своя технология, по типу CUDA - не помню как она называлась. Вроде Stream... Да! ATI AMD Stream™ - http://forums.amd.com/devforum/categories.cfm?catid=328&entercat=y Так что сверхмощь новых ATI/AMD видеокарт, да + новые игры (реалистичная физикааа...) + новые драйвера (я надеюсь :) ) и будет просто Шедевр.

0

NY GAMER По твоим спорам не так давно минувших дней , ты себя то как раз и показал как малолеточка , потом публично извинялся за мат и оскорбления , так что упрекать меня не тебе. У АТИ помимо 9-й серии , была ещё X800 и X850XT к которму 6800Ultra и близко не приближалась кроме Doom3 . x1900--я и 1950-я , которые по сывокупности опережали аналоги от НВ. У нвидиа абсолютно удачными были 7600GT , 7800GTX и серия 8800 , сейчас установился как минимум паритет. 4870X2 в большинстве случаев обходит GTX280 , при практически равноценной стоимости. Catwoolfii Вам нужны аргументы? 1. При использовании режима crossfire(равно как и sli), картинка идет не плавно(спорить даже не пытайтесь, это факт). 2. Оптимизация 2-х ядерных систем оставляет желать лучшего(производительность в отдельных играх может быть +50%, в других например +20%, в третьих вообще нисколько). 3. 2-х ядерные системы как правило выдают большее число артефактов и ошибок, нежели одноядерные, исправление этих ошибок программно(в драйверах) происходит так же, как и оптимизация производительности последних(не эффективно). Все помнят тесты, когда в некоторых ресурсоемких играх при очень большом разрешении, 2-х ядерные системы зависали картинку, не запускали уровень вовсе, или происходило резкое падение производительности из-за неправильного распределения ресурсов, ибо память ядра используют пополам. 4. Мне в принципе не нравится архитектура радеона: 800 потоковых процессоров - зачем?, 40 текстурных модулей - больше, чем у предыдущего, но у 280GTX их уже в 2 раза больше(это более актуально, нежели 800 потоковых процессоров); 16 блоков растеризации - маловато будет(антиалайзинг и анизотропия обрабатываются медленнее, чем у 280-го, у последнего этих блоков в 2 раза больше); Вычислительная мощность GPU 1,2 ТФлопс - ну если кто то занимается научной деятельностью, в игре таких вычислений не происходит; Поддержка DirectX 10.1 - это плюс, но я пока ни одной игры с 10.1 директом не видел. Можно продолжить, это только кратко, но реально в лом. 1. Да ты прав , но в серии 48.. эту проблему в большинстве случаев побороли. 2. В последнее время оптимизация под многочиповость , есть почти во всех новых играх. 3.Согласен насчёт ошибок и прочего , но опять же у Radeon4870X2 с работой в выскоих разрешениях почти нет проблем. 4.Реальных потоковых процессоров в Радеоне 160 штук , просто они распараллеливаются на 5 потоков , то что у 280GTX в 2 раза больше текстурников не сильно ей помогает , отрыв от тогоже 4870 в среднем 13-15% , блоки ROP в среденем загружаются на 30-50% , сильного падения производительности с АА у 48XX нет по сравнению с серией 2900 и 38.. .

0

Guide, "При использовании режима crossfire(равно как и sli), картинка идет не плавно(спорить даже не пытайтесь, это факт)" Давай ты сразу признаешь, что если бы это было фактом, то технология SLI никуда бы не годилась, ибо никто бы не захотел играть с картинкой, "которая идет неплавно". У меня 8800GTX в SLI. Я думаю, плавности моей картинки позавидовали бы многие. Вернее было бы сказать, что имеются сообщения об иногда возникающих рывках... Которых я, кстати, ни разу еще не наблюдал. NY GAMER, я на это и намекаю, что температура 75C на 8800GTX - это ОЧЕНЬ даже хорошо, но вряд ли это температура действительно на пике нагрузки...

0

Куле вы терафлопсами мереетесь? Надо на играх тестить, это впервую очередь игровые карты.

0

*ROFL* а бывают неигровые видеокарты?)) Их юзают все - и геймеры, и 3D дизайнеры.

0

Guide Ты пробовал 4870 X2? Нет? Тогда не стоит быть так уверенным, что он будет лишен этих недостатков, ибо не надо верить обещаниям АМД. Krevedishe При чем тут терафлопс и физика? радеон научился обрабатывать физику? Ах да, обещали же, что будет поддерживать Havok... лет так через 5;) Это бред, забудьте.

0

Krevedishe Ну в принципе такие мощи требует только крайзис и игры на высоких разрешениях)

0

Ну да. А для чего тогда покупают топовые карты?)) Catwoolfii, FLOPS - кол-во операций в плавающей точкой в секунду. Расчет физических явлений хорошо бы перевести на видеокарту (процессор будет занят другим), ну а чем больше флопсов у нее, тем быстрее будет обработка. Полюбому, чем больше флопсов, тем лучше.

0

Krevedishe ну да, бывают, исключительно для 3Д дизайнеров.

0

NY GAMER Как раз тогда собрались нормальные люди и всё тебе по человечески объясняли с приведением фактов , ты же только орал НВидиа круто , АТИ гавно , вы все муд..ки потомучто Нвидиа круто и.т.д. Какая разница какая частота процессора была у 6600GT ? X800 всё равно обходил конкурирующие решения от НВ , то что не было подержки 3-х шеёдеров безусловно минус , но тогда и игры с 3-ми шейдерами не выходили. Причём здесь играл и видел , ты что на всех картах нвидиа чтоли играл ? бред не неси , проводятся тесты причём на многих сайтах и факты на лицо , 4870X2 быстрее в 90% случаев , в том числе и ввысоких разрешениях.

0

NY GAMER Есть игры которые без 3-х шейдеров вообще не запускаются , сейчас их очень много , но на 6600 или 6800 в эти игре только на Very low и играть. Могу привести другой пример игры Crysis в минималках радеон 9800pro и 6600GT , тоесть со вторыми шейдерами работает.

0

Я знаю уже двух человек среди своих друзей, у которых сгорели 6600GT, одного со сгоревшей 7600. А вот все ATI на моей памяти - работают по сей день - ATI Rage 128 Pro (подарил), ATI Radeon 9550 (стояла у друга) и моя старая Radeon X1550 (подарил), а также Radeon 9200 (на втором компе), Radeon HD 2600 XT (на основном компе). Я Oblivion прошел на 9200м, это тогда была Low-End. На Xpress 200 (встроенная) играл почти во все современные игры (на тот момент) и тормозили только KotOR и Герои-5. Да и то из-за несовместимости со встроенными видеоадаптерами. При этом продавец в КЕЕ меня убеждал, что ни во что кроме Quake 3 я поиграть не смогу на X200))) Как видишь, NY GAMER, даже 9200 актуальна (: 6600GT была хорошей картой (в свое время слюни на нее пускал в яндекс.маркете) но не более - она стоила столько, ну тогда это было соизмеримо со стоимостью GTX280 сейчас.

0

Дрова норм. На своем HD 2600XT ни одного артефакта ни разу не заметил. Как и на остальных картах. Только когда разгонял. И еще есть Omega Drivers. Я считаю, очень перспективная разработка. X1950 чтобы грелся и появлялись арты САМИ ПО СЕБЕ, да еще с охлаждением - это нонсенс. Надо им сказать, чтобы вырубили вольтмоды и проги для экстремального разгона. 6600 вышла в 2004 году, как и X800. У Х800 были PS/VS 2.0, но он имеет более высокие тех. характеристики, чем у 6600 и цену, на 50 баксов меньше. Ну и что, что можно играть на 6600ГТ? Можно и на X800, но с ShaderMod'ами. А еще известно, что X800 греется гораздо меньше и, как следствие, живет дольше. ЗЫ мой кореш гоняет на 9800 Pro в Готику 3 на высоких настройках. Мне эта игра не нравится, т.к. у меня всего гиг оперативы и она у меня тормозит.... не играбельно)

0

У мня щас стоит 8600 GTS,но в феврале возьму наверное HD4870 X2...Если не смогу,в любом случае возьму HD4850 X2 P.S.Всю жизнь сидел на нВидии...Но теперь пришла пора АМД,ИМХО у них щас руль:)

0

У меня на данный момент HD4870 X2 GDDR5 2Gb разогнанная по заводу! В 3DMark'e Vantage набирает 15200 попугаев. Все что написанно выше никакого отношения к этой карте не имеет! Что на ней работает: Любые игры, любые разрешения, "сверх" FPS, не одного тормоза и артефакта, температура в простое 43 градуса по двум ядрам. Карту можно прогреть до 100 градусов и ей по барабану. Сами АМДешники гарантию дают!!! ...с запасом до 115 градусов на сгорание. Единственный минус - изредка шумит когда прогреваеться. Crysis при разрешении экрана 1680*1050 и ультра максимальных настройках выдает 35-40 FPS. И эта карточка установлена в добавок не на PCI-Express 2.0 HD4870 X2 GDDR5 2Gb - 100% Лидер в 3D графике. Кто не согласен, могут спорить дальше. А то что зеленые жирафы собрались тоже выпустить в свет хрень какую то двух ядерную, то я буду ржать над ценой (так как они серию 2ХХ за копейки отдают). Да и папа мой, жалко не сварщик =( А так, я у него попросил бы трансформатор от сварочного аппарата, за место блока питания ДЛЯ дух'едреного жирафа. Эээх и зачем интересно рендерили фильм "Трансформеры" картой HD2900XT если на тот момент уже были супер жирафы 8ххх серии??? Даже странно както... Да и технеология Cinema 2.0 по графике наверное не самая красивая? Жирафам и на это есть наверное ответ. Можно писать долго, долго, долго! Взвешивать, тестировать, разогревать, разгонять, радиатор с GPU снимать и так далее. Но при ВСЕМ это цена и "Бешанная" производительность - ЭТО ФАКТ НА ЛИЦО!!! Без Всяких ИМХО. P.S. Приобрел такого зверя, за 15600 руб.

0

У меня на данный момент HD4870 X2 GDDR5 2Gb разогнанная по заводу! В 3DMark'e Vantage набирает 15200 попугаев. Все что написанно выше никакого отношения к этой карте не имеет! Что на ней работает: Любые игры, любые разрешения, "сверх" FPS, не одного тормоза и артефакта, температура в простое 43 градуса по двум ядрам. Карту можно прогреть до 100 градусов и ей по барабану. Сами АМДешники гарантию дают!!! ...с запасом до 115 градусов на сгорание. Единственный минус - изредка шумит когда прогреваеться. Crysis при разрешении экрана 1680*1050 и ультра максимальных настройках выдает 35-40 FPS. И эта карточка установлена в добавок не на PCI-Express 2.0 HD4870 X2 GDDR5 2Gb - 100% Лидер в 3D графике. Кто не согласен, могут спорить дальше. А то что зеленые жирафы собрались тоже выпустить в свет хрень какую то двух ядерную, то я буду ржать над ценой (так как они серию 2ХХ за копейки отдают). Да и папа мой, жалко не сварщик =( А так, я у него попросил бы трансформатор от сварочного аппарата, за место блока питания ДЛЯ дух'едреного жирафа. Эээх и зачем интересно рендерили фильм "Трансформеры" картой HD2900XT если на тот момент уже были супер жирафы 8ххх серии??? Даже странно както... Да и технеология Cinema 2.0 по графике наверное не самая красивая? Жирафам и на это есть наверное ответ. Можно писать долго, долго, долго! Взвешивать, тестировать, разогревать, разгонять, радиатор с GPU снимать и так далее. Но при ВСЕМ это цена и "Бешанная" производительность - ЭТО ФАКТ НА ЛИЦО!!! Без Всяких ИМХО. P.S. Приобрел такого зверя, за 15600 руб.

0