Скандал: бывшие сотрудники AMD слили новые разработки компании руководству Nvidia

Пока Sony сражается с Microsoft за место под солнцем, AMD разворачивает полномасштабную военную кампанию против Nvidia. Так, на днях стало известно, что группу бывших сотрудников AMD обвинили в краже суперсекретной информации, которая впоследствии была слита конкуренту.

Боб Фельдштейн – человек, ответственный за внедрение чипов AMD в консоли Xbox 720 и PlayStation 4, – оказался в числе подозреваемых. Его напарники – Ману Десаи, Ричард Хаген и Николас Коциук – не менее опытные инженеры. И когда-то приносили своему работодателю большую пользу. Сайт Ars Technica со ссылкой на достоверный источник сообщил, что у руководства AMD есть доказательства вины Фельдштейна, Десаи и Коциука. Производитель утверждает, что троица вынесла из его офиса «коммерческую тайну» за несколько дней до того, как устроиться на работу в Nvidia.

По словам представителей компании, «предатели» забрали с собой порядка ста тысяч важных документов. «Внутреннее расследование показало, что имена украденных файлов полностью или частично совпадают с теми, к которым нарушители имели доступ. В этих файлах содержатся строго конфиденциальные данные о стратегии ведения бизнеса», – гласит судебный иск.

Также выяснилось, что за несколько часов до того, как покинуть AMD, Боб Фельдштейн подключил к своему рабочему компьютеру два внешних накопителя. Собственно, на них и были залиты три важных файла – два лицензионных соглашения и подробное описание новой политики лицензирования. Ману Десаи, в свою очередь, скачала внутреннюю базу данных компании с деталями новых разработок.

Подсудимые также были «пойманы за руку» в процессе переманивания сотрудников AMD в Nvidia. Всех четверых обвиняют сразу по нескольким статьям – хищение коммерческой тайны, недобросовестная конкуренция, компьютерное мошенничество и нарушение договорных обязательств. 

Nvidia ситуацию пока никак не комментирует. Но если вина «Фельдштейна и Ко» будет доказана, их новый работодатель сильно пострадает.

Комментарии: 358
Ваш комментарий

krollfest OpenGL дают не зеленые, а Khronos Group, зеленые и красные просто добавляют ее поддержку в дравах, поддержка OpenGL 4.2 была добавлена в драйверах AMD Catalyst 11.12, а 4.3 у красных хз че как, а у зеленых она пока тока в бета дравах, ну это так... к слову.

3

Мдаааа, я всегда был за Нвижку. А то что АМД выпердолила своих ведущих разработчиков и не оставив нормальной компенсации и полностью присвоив разработку себе(в плане не оставив имя разработчиков, а не по контракту что все разработки принадлежат корпорации). Так что, да, я бы точно также поступил.

2

Я за AMD, сразу почувствовал что не все чисто у Нвидии с ее Тигра4

2

Мда, влипла Nvidia (а точнее работнички новые) по-крупному. wolfellow Не-не-не, иначе Нвидиа станет на этом рынке фактически монополистом, и тогда ждите высоких цен на их видеокарты.

2

вот шпионские страсти. потом кино по этому сделают

2

беру INTEL,а вот между Nvidia и AMD разрываюсь у тех кульная поддержка игр и драйвера(Linux исключение),но до сих пор нет нормальной реализации OpenCL для рендеринга у AMD тоже достаточно хорошая поддержка игр,но жoра с дровами,однако полная подержка OpenCL для рендеринга. в итоге проц Intel,видюха - гадание+шаманство

2

Скандал: бывшие сотрудники AMD слили новые разработки компании руководству Nvidia

2

Что то не ладятся дела у AMD, с начало проблемы с процами для консолей,теперь сотрудники бегут. Тоже всегда брал Intel и Nvidia,и всегда был доволен,но отсутствие конкуренции это всегда плохо,пропадает стремление делать свою работу лучше,да и ценовая политика тоже страдает из-за монополизации.

2

Как-то очень глупо эти сотрудники попались. Не представляю, как бы такое хищение могло остаться незамеченным?

2

Воpтигoнт Интел всегда с НВидией лучше работает.

2

warp 37 Зато у АМД дрова выходят реже, чем новые видюхи

2

DiLouk Типичные Европейцы , у них на лице написано , когда они воруют

2

Лол,холодная война перерастает в ядерную.

2

FutureC С каких пор рулят зеленые????с того времени как нагрелись?

2

надо бы ещё третью компанию по выпуску видеокарт

2

Зато у АМД дрова выходят реже, чем новые видюхи Наверное это потому, что они и так хорошо работают. Никогда не было проблем из-за дров. Что я делаю не так? :(

2

Зато у АМД дрова выходят реже, чем новые видюхи Ну... с драйверами ситуация у них похуже, чем у NVidia, но ничего критического. Наоборот, последние драйверы AMD дали некислый прирост производительности, а последний драйвер 310.90 вышел далеко не таким удачным. Я даже думаю, что наверное мне стоило чуть доплатить и купить HD 7970, а не GTX 670. И вообще, полгода сидел с HD 7750 и единственная игра, где были проблемы - это Prototype 2, в остальном все отлично.

2

Будут теперь парни не кристаллы колоть, а камни на рудниках.

2

Возможно покажется кому-то анекдотом, но у меня во время чтения данной новости потемнел экран а через секунду все восстановилось и вылетело сообщение "Видеодрайвер AMD перестал отвечать и был успешно восстановлен". Люблю бета-дрова от амд, прямо слов нету.

2

ну хз, мне Nvidia нравится, сначала была одна Nvidia потом лет через 7 новую купил и всё пашет не жалуюсь.

2

Hudsоn Ну если у тебя и без нагрузки на видюху драйвер слетает , то это дело не в дровах , а в твоем железе или твоих не прямых руках .

2

и правильно что АМД погнала тех сотрудников, вон такие криворукие что даже украсть нормально не смогли)))

2

Видеодрайвер AMD перестал отвечать и был успешно восстановлен У меня такое было только при переразгоне.

2

РикоЧико Я тут не шутки шучу, дело серьезное. Теперь уже вылетает с интервалом в 30 секунд.

Спойлер
pix.PlayGround.ru
pix.PlayGround.ru
2

Кстати дрова переставил на 12.10, такая же шляпа продолжается.

2

греется видюха термопаста засохла, термопасту смени Прежде чем давать такие советы, надо убедиться, что дело действительно в перегреве. 8800 згорела через 2 месяца!! Бывает. Мне 8800 GT верно прослужила четыре года, сейчас лежит на полке.

2

Arion_50 Да конечно, видюха греется - 28 градусов на датчике, пойду на ней чайку вскипячу чтоли?

2

Hudsоn не веришь под нагрузкой проверяют вообще то

2

Hudsоn 28 ето норма для видюхе!!

2

warp 37 последний 310.90 не?) я в принципе рад что пересел на печ670 =) и кстати печ670 оч хорошо гоница у меня с завода 1019 легко до 1120 доходит) даёт просраца 680 только в путь) но ценовая политика у зелёных реально паршивая( AMD были 3870 ,5870 и 5870ОС SOC и пока видюха была в гарантийке юзал 5770 постояно были проблемы с дровами синии экраны просто бесили( терь сежу на печке пока косяков небыло

2

AGRESSORLP страно узаю 6950 всьо норм!!

2

Hudsоn лол, у меня NVidia GTS 450 уже под 80°С греется и ни разу не было вылета драйвера, хотя было до замены термопасты. Да-да, знаю что у тебя AMD.

2

последний 310.90 не?) Точно, я перепутал. я в принципе рад что пересел на печ670 =) и кстати печ670 оч хорошо гоница у меня с завода 1019 легко до 1120 доходит) даёт просраца 680 только в путь) А я будто не рад? Тоже рад, отличная видеокарта, специально под разгон Gigabyte WindForce 3X взял. AMD были 3870 ,5870 и 5870ОС SOC и пока видюха была в гарантийке юзал 5770 постояно были проблемы с дровами синии экраны просто бесили( терь сежу на печке пока косяков небыло В последнее время ситуация куда лучше. У меня были BSOD'ы на Windows XP (именно потому и перелез в мае на "Семёрку"). На Windows 7 проблем не было.

2

Tiger_ausf Я на Радеонах с первого ПК сижу.А ну-ка,поясни мне,в чём слив?

2

На кол! Я за честный спорт. Если суд вину признает, 4-ке светят 25 лет колонии. Стоило ли рисковать...

2

Просто на секунду темнеет экран и все.

2

warp 37 Gigabyte WindForce 3X тоже её сначала взял ) тихая ) но был заводской брак махнул на MSI ) у меня что на ХП что на 7 всё один фиг( синии летели ток в путь( я и мать махнул,и память всё переменял чтоб от синих избавится ) видюха решила проблему) chek_ua ну мне значит не повезло )

2

Видеокарты АМД очень сильно люблю, они лучшие, и технологии у них всегда прогресирующие :) Это ужас такое случилось, придётся по-новому разрабатывать :DD Мне показалось у них там целый DirectX12 разработался.

2

Классный срач, но я не понял о чем. Nvidia и AMD выпускают чипы для карт, которые уже конструируют и собирают другие предприятия, вот их и надо винить в случае хреновой работы продукта. Сначала купил карту 6870 от Gigabyte, попалась кривая - отключалась через 5 минут игры, заменил на ту же от Sapphire - работает почти год без единого косяка. Вот был например случай с Intel, когда выпустили целую ревизию бракованных чипов, вот это понимаю, но у Nvidia и AMD такого давно не припомню. SamFisher53 Если бы все прошло, то они бы до конца жизни не думали о работе) Лайк за Мишеля на аве)

2

sanchez752 Сапфайр лучшие :3 PS playground просто троллит нас новыми консольками :D

2

Незнаю, я когда беру карту смотрю на цену=ефективность, немного енергономику, хотя но последним особо не замарачиваюсь. Получается карты чередуются зеленые-красные, а вобще по душе ближе красные, в свое время на них картинка получше выглядела

2

Maickle Fort За жизнь от них юзал 9200SE, HD2600XT и теперь HD6870, все до сих пор отлично работают даже после многих попыток неудачного разгона)

2

это всё конечно круто, но чёрт подери когда уже будет хоть какая то новость относительно Physx от AMD? они обещали что сделают его и до сих пор не наблюдаю его в играх Он итак работает. Только если стоит видеокарта от AMD, просчет физики берет на себя процессор. А если карта от NVidia, то она сама, естественно.

2

sanchez752 Моя Радеон 2600ПРО с разгоном на 200МГц (или не мегагерцы, уже не помню), прожила 5 лет. Температура редко доходила до 60 градусов. Осенью 2011 после кончины 2600 пришлось ставить нвидия 8600гт, О БОЖЕ, температура минимум 70, вечно 80-85 :((( Причём видеокарты идентичны по производительности. Физикс на АМД есть и был и работает точно так же как и у нвидии.

2

Всё это хрень! Кто работал и менял работу (если конечно мастер своего дела) то поймут, почему компания выдвинула иск...

2

После целого дня игры в Far Cry 3:

Спойлер
pix.PlayGround.ru
pix.PlayGround.ru

Моей видюхе чуть больше 3х лет

2

Амд вполне себе ничего и камни и видео. А вот с нвидия я как то сразу не поладил, хотя первая и вторая карта были от них.

2

Судя по новости, слили только манагерскую мишуру. Никаких архитектур или инженерных образцов не уволокли. Вобщем скандал ради многолетнего суда, журналистам на радость.

2

Никогда не испытывал проблем ни с картами Nvidia: 5700,6800, ни с Radeon'ами: 9800, X1950, HD3850, HD4850, и нынешней HD6950. По теме: ребята серьёзно попали.

2

warp 37 NVidia уже начинает становиться раком перед AMD, чую, через несколько лет AMD займет первое место производителя видеокарт. Ведь в отличии от зеленопузых, у них нет такой ублюдочной ценовой политики, да и производительность видеокарт повыше и гонятся они лучше. Думаю, что следующей моей видеокартой станет решение от AMD. Не будь наивным, если AMD нагнет Nvidia и будет, как ты говоришь, на "первом месте" их видеокарты будут в разы дороже, а если Nvidia загнется полностью, то видеокарта от AMD будет стоить как 5 топовых десктопных процов от Intel.

2

Neolwen Не будь наивным, если AMD нагнет Nvidia и будет, как ты говоришь, на "первом месте" их видеокарты будут в разы дороже, а если Nvidia загнется полностью, то видеокарта от AMD будет стоить как 5 топовых десктопных процов от Intel. + Поэтому я их чередую ))

2

Кто-то конкретно облажался. Ни для кого это хорошего не сулит. Будем надеяться, что стороны договорятся.

2

Nvidia всегда лучше была и будет, ибо амд это для нищебродов, один раз имел дело с топом от амд 4870x2 так сгорела через неделю использования, в итоге купил 9800gx2 и до сих пор работает и не перегревается, с тех пор всегда покупаю Nvidia, да может я плачу на несколько тысяч больше чем за амд, но человеку который зарабатывает а не клянчит у мамки это не сильно бьёт по карману, скупой платит дважды вообщем

2

А чего вы ожидали от человека с фамилией Фильдштейн, он же ЕРЖ)) XtremuS Радеоны наоборот дороже нвидии почему-то

2

Все это попахивает бурной провокацией консольщиков, хотящих сцепить друг друга РСшников... Конечно у каждого свой выбор в видеокартах, но по мне так лучше нВидиа, у нее больше игровых плюх, которые не потдерживают ост карты, да и ее рекомендуют большинство ведущих игровых разработчиков... И, как патриот РС платформы, РСшники должны выбрать нВидия, ибо AMD - есть проц некст ген консолей, и ныне еще существующей Хринобокс "полныйоборот"... С самого певого компа сижу на нВидиа, начиная со старинной 5500 FX, заканчивая, 9600GT, которая и в наше время - реликт... К тому же, я играю на эмуляторе PS2, который хорошо работает только на нВидиа, на AMD лаги, баги, нагрузка, и нередкое падение ФПС... Короче, я за нВидиа, это мой выбор, и обсирать его, это... то что я всегда говорю, о праве выбора, вкусах, и т.д., и т.п.

2

wwwwwwww7 7850 на уровне 660Ti? ах нет 680... почитай хотя-бы характеристики... ей планка 660тая простая(без Ti) Physx на AMD-ATI...НЕТУ Драйверов которые бы полноценно задействовали бы GPU, на данном этапе "обработкой" физикса занимается CPU.. это Невозможно из-за "технических" и юридических соображений. Nvidia вряд-ли поделиться тем что приносит деньги. З.Ы. Право каждого, выбирать intel, nvidia, amd и т.п. все зависит от кошелька и от "веры" что та или иная продукция лучше или хуже. XtremuS Грубо и неучтиво называть владельцев AMD, "нищебродами", это равносильно назвать человека без аватара "дураком". А то что тебе не повезло с картой от amd, это скорее проблема сборщиков (HIS,ASUS,MSI... и.п.) нежили самой компании.

2

Промышленный шпионаж дело древнее и очень прибыльное. Ну а ворам место в тюрьме )) ЗЫ А я непонял. Причём здесь ваще обсос, как вам неповезло или повезло с покупкой видюхи? Как это влияет на воровство в чистом виде? А нуда, свои проблемы-то важнее, чё уж там ))

2

Хехе, опять срачник развели. Nvidia-рабы продолжают свято верить что их печки с физиксом - боги. А по сути физикс мало где используется

2

Проц AMD,видяха Nvidis и збс)

2

Интриги, расследования, скандалы емое во ребята чО дают а >:D

2

Че вы гоните про перегрев видюх на АМД, у меня 4850 бывало работала на 105 градусах и ниче все по красоте было))), да и с драйверами проблем не было особых, на жирафах с драввами проблем было больше.

2

WarlokIII "но по мне так лучше нВидиа, у нее больше игровых плюх, которые не потдерживают ост карты, да и ее рекомендуют большинство ведущих игровых разработчиков..." Они и твою видеокарту, которую ты соберешь в гараже "на коленке" будут рекомендовать всем и каждому, если пожертвуешь круглую сумму из своего кармана.

2

По новости: Нынче все у кого-то что-то пытаются спереть.) Ну здесь проблема "паршивости" людей которые переманивают сотрудников (NVidia), так и невнимательность и безалаберность руководителей другой стороны (AMD). Для NVidia это явно не хороший знак, с учётом их, всё-таки, не идеальной политики, данная ситуация может вылезти боком; для другой стороны, AMD, будет уроком, в котором они усвоят не брать на работу столь скверные кадры и уважать своих сотрудников, которые уже работают в фирме. По поводу AMD: Всегда и будет всегда нравиться мне, лично, эта марка. Сколько уже стоит карта - она меня ни разу не подвела, в отличии от NVidia. Но в последнее время у AMD дела идут не лучшим образом, так что данной новости - я не был удивлен. Кстати, теперь мне понятно не только почему AMD нынче стала отставать от конкурентов, но и почему NVidia выбилась в, не совсем, лидеры; естественно, если такие наработки сливать - то можно ничего самому не придумывать, а штамповать чужую идею, может слегка переработанную и переименованную, но всю ту же, украденную, идею (разработку). Что же, неплохо NVidia. Ну, как говорил один великий художник: "Хорошие художники - копируют, великие художники - воруют" (с)Пабло Пикассо.

2

Сохранился старый ,очень старый AMD Athlon 3200 (2.4 GHz). До сих пор рабочий. Он был на MB от Asus,которая скончалась,а камень еще жив,так-то) По-моему AMD хорошая фирма,по крайней мере за хорошие не дорогие процессоры. Пусть и отстают от интел,но на то наверно интел и дороже,так ведь)

2

У меня проц AMD Athlon(3.4 GHz)Вообще супер всё.Жаль амд,хотя видюха у меня Nvidia

2

Алё, пионэры?! Вернитесь к теме. Предлагаю вам вспомнить ситуацию когда у вас что-то спёрли. Или может вы сами воры?

2

MeHHanik +1 Без конкуренции потребителю будет тяжко.Я за АМД,потому что цены на конкурента сумашедшие и так

2

Чем-то мне это всё напоминает корпоративные войны из киберпанка.

2

Я вот не понимаю, чего тут все своими конфигурациями раскидались? Вы хоть понимаете, что сейчас может быть идёт последняя грызня этих корпораций и кто-нибудь уйдёт с рынка навсегда? Это же на всех отразится. Кому-то монополия достанется. Тогда всё - амба! Готовьте выкладывать за видяхи не хилую пачку бабок.

2

Frost92 неуверен... инициатву копипастинга быстро подхватят Aplee, и будут судится из-за ПОХОЖЕЙ технологии у конкурента...

2

Индикатор школоты И я о том же))

2

WarlokIII Засудят одного, другой поднимется. Это не рынок мобильных устройств, здесь денег побольше будет и риска. Никто не суётся на рынок железа. Даже всемогущая Intel клепает только интегрированые графические процессоры, хотя её доля составляет более 90% плюс-минус.

2

По-сабджу Зайдите на http://gamegpu.ru , посмотрите тесты всех игр 2012-го года и убедитесь, что видеокарты обоих производителей просто отрабатывают свои деньчи-не больше и не меньше. По цене прямых конкурентов нет-7870 быстрее 660, но и дороже, 7850 ненамного слабее 660, но и дешевле. Проблеммы с дровами бывают у обеих контор, как не печально. О физиксе с видео слабее 660 можете и не мечтать, крома того современные 6-8-ядерные процы АМД отлично его считают, да и игр с ним не так уж и много-из хитов-Мафия 2 , Метро 2033 и Бордерландс. А суд между АМД и Интел уже был и кончился поражением последних и выплатой ими 1.25 млрд. долларов. Вот ссылка-http://www.3dnews.ru/news/intel_pomirilas_s_amd_za_1_25_mlrd/ .

2

WarlokIII И все же у нВидиа игровых плюх больше Всего то одна - PhysX называется, где ты там "больше" увидел моя не понимать. И таки да, на AMD системах можно тоже PhysX запустить, правда потребуется немного шаманизьма и какая -нибудь старая карта типа GT 9600 - 240, но можно и без него обойтись приобретя ЦП мощнее.

2

dedoedus Тамошнее дело немножко отличается от нынешнего. Но, причина одна - недобросовестная конкуренция. Сдаётся мне, что антимонопольная комиссия лоббирует интересы AMD. Ох! Как бы сама AMD этим работничкам не дала эти самые документы и не отправила к Nvidia.

2

Про PhysX - nVidia не разработала эту технологию, а купила компанию Ageya. И еще - PhysX это не технология, которая может аппаратно исполнятся только картами зеленых, а программное обеспечение и набор инструкций, nVidi'ей купленные. Радики спокойоно могут ее просчитывать, но патент принадлежит не AMD. У АМD есть ifinity и MLAA (У nVidia это FXAA, но опять же, они ее не разработали, а купили, спустя 2 года после выхода MLAA). nVidia - охренительная коропорация, на уровне с Майкрософтом, Гуглом и т.п....НО - они как и Майкрософт - сами ничего не придумали, они лишь крадут (как Гейтс у Джобса), покупают Ageya (как Гейтс купил DOS)...НО - они не иноваторы, они корпорация. Когда вышли первые GeForce с блоком тесселяции? В 2010! А Тесселяция у АМД была на готове уже в 2007 году....выводы делайте сами. Не зря же консоло-девелопперы сейчас берут видечипы у AMD.....Sony вон на плойку третью взяла у nVidia и как обосралась? Меня еще и минусуют хомяки с разорванным мозгом....все мои сведения подтвержены документально, Google в помощь. А умные люди плюсики поставят.

2

DrOvOlet Ты Tegra, Tesla и ещё туеву хучу технологий со счетов не сбрасывай. У каждой корпорации есть что-то своё.

2

Frost92 Тегра и Тэсла в попе перед предложениями АМД в данном сигменте. Почитай документы и отчеты.

2

На них и были залиты три важных файла – два лицензионных соглашения и подробное описание новой политики лицензирования. А в Нвидиа ему сказали: "Нахрена ты нам это принёс? Никто всё равно их не читает"

2

То же что ли отписаться... 1. Физикс - почему то владельцы NV карт уверены, что они уникальны, и тем, у кого карты AMD/ATI он не светит? В то же время физикс считается и через CPU и выдает точно такие же эффекты, прада CPU должен быть быстрый и от интела, ибо они его специально ограничили одноядерностью для CPU расчетов (с выходм своих поланшетов обещали довести до 4х ядер, и вот тут то АМД может и оторваться). 2. Установка второй карты NV для обсчета физикса уже не катит, так как NV отключают его программно, при обнаружении подключения дисплея не к их карте. 3. Физикс не хило съедает ресурсов видеокарты и при его активации просадка ФПС может быть весьма весомой, вплоть до полной не играбельности, как это было в игре Alice:Madness 4. Неудачных драйверов у АМД в разы меньше, чем у NV, да еще они их порою специально портят, чего только стоит эмуляция неисправности видеокарты при не соответствии номера BIOS в режиме SLI, те, ели производитель не сообщил номер биоса своей ВК в NV, то его карта может не заработать в SLI. 5. Новый драйвер АМД выходит так долго, потому что они сильно много замахнулись! Революционная технология OpenCL, широкий ассортимент видеокарт, отладка работы этих карт в составе гибридного кросфаера вместе с разными APU (стати, ноуты на А10 уже имеют заводские драйвера CCC12.11). 6. У АМД на моей памяти были всего 2 неудачные серии карт, да и то, относительно неудачные, это HD2000(хотя она вроде и не плоха была) и HD 3000 (жрала больно много), все остальные были либо в паритете, либо лучше. 7.У АМД есть не плохие шансы поставить свои чипы в консоли ибо они давно изучают APU и последние модели уже сравнимы с топами позапрошлого покаления в то время как у Интел нету быстрой графики и у NV нету процессора, а если к нему еще и память быструю и в большом объеме поставить, ведь начинке консоли не нужно быть совместимой с кем либо програмно и аппаратно... И самое смешное, что на них будет работать Physics как шелковый, ибо Майки и Сони в противном случае вставят им здоровенный лом в зад и начнут прокручивать (особенно тут Майки могут отжечь, как хозяева Windows) 8. А что за "плохие дела с AMD?! Они что там, на грани банкротсва? Их видеокарты разлетаются как пирожки, их FX-8320/50 приходится в магазинах заказывать за несколько дней до поставки, чтоб успеть в очередь записаться, их ноуты на Tinity оказались на удивление шустры и экономичны... Сотрудников явно обуяла жадность и меж тем они как то забыли, что корпорация обязана иметь СБ, которая особо тщательно проверяет действия с компьютеров перспективных к увольнению сотрудников, либо сумма предложенная NV была столь высока, что они с легкостью согласятся "посидеть на дорожку" перед райской жизнью на багамах=) Hudsоn Твоей ВК похоже смерть пришла, от кого она?. 28 градусов по датчику - это наглое вранье либо датчика, либо утилиты мониторинга, либо у тебя там стоит водяное охлаждение или в комнате всего 10С тепла, бракованные карты встречаются у всех и поставь нормальные драйвера. 12.10 очень не плохи. Я например вряд ли больше возьму ASUS. у меня ихний 1600pro сгорел через 4 года! А у знакомого новая материнка выделывается как дикая

2

root_222 Соглашусь, не логинился на сайте около года. Сайт подрос, но система плюсов и минусов, никому не нужна. Вообщем, хомяки. Вспомните последний прорыв нвидия? Где он? Когда каждый год одно и тоже, из года в год. Когда 650, слабее 550. Смешно не? Когда у АМД разогнаная 7950, быстрее 7970. Когда вы пытаетесь сказать, что НВИДИЯ СУПЕР МЕГАВАУ карты, и все карты лоу класса от НВ, стоят как мидл у АМД, когда 7870 стоит 10к рублей, а 660TI стоит 14. А 7870 быстрее. Господи, неужели, на барахолке купить НВ карту за 1к рублей для физикса, для кого-то большая проблема? Все чипы НВ фальш и маркетинг, хороший маркетинг, их политика вбухать 1к долларов в чипы и 123141204102401401 долларов в проплату тестов и рекламу. когда 7970х2, равняется с 690ГТХ, и стоит на 100 баксов дешевле, вот правильная ценовая политика.

2

SkymаN попробуй оспорить, прежде переходить на оскорбления....не можешь? - промолчи и поучи матчасть. образование и знания лишними не бывают.

2

root_222 Ты же это не всерьёз? Ты хоть знаешь что, в понятии технологии входит понятие программное обеспечение? Причём тут патент? Nvidia поставила заглушку на дрова PhysX, из-за этого красные видеокарты не могут исполнять её. Что с FXAA не так? FXAA есть у обеих. Первые видеокарты с тесселяцией появились только в 2009-м. В 2007-м AMD только разработали и доводили до ума. Только оверклокеры могли могли включать тесселяцию. Консолодевелоперы, как ты изволил выражаться, ставят AMD из-за того что у них с ней долгосрочный контракт. Неизвестно, что будет после. Может вернутся к AMD, а может к Nvidia. Но, мы это узнаем потом. Если конечно кто-то из них доживёт до того дня.

2

Svistoplax А в Нвидиа ему сказали: "Нахрена ты нам это принёс? Никто всё равно их не читает" Ты не путай соглашения пользователя продукта и корпоративное, в таком описывается всё! Все технологии и стандарты поддерживаемые чипами, производительность чипов, характеристики чипов, вплоть до их цвета. Круче этого было бы разве что потеря действующего инженерного образца с полным техническим описанием.

2

Frost92 Блок тесселяции стоит и в 2900XT и в видеочипах XBOX360(кстати разрабы Forza 4 им воспользовались для детальнейших моделек машин в игре),просто в 2007 году Мелкософт не вводила DX11, им нужно было продавать висту с 10-ым. Не ленись, почитай, тогда многие об этом писали.

2

Frost92 интернет в помощь....ради самообразования. ничего личного, поверь. но обзываться - признак плохого интеллекта.

2

Frost92 http://www.3dnews.ru/video/radeon_hd2900xt Несмотря на разные уровни производительности и другие технические отличия, все серии объединяет ключевая особенность – поддержка DirectX 10. Наряду с этим декларирован ряд новых ключевых технологий: унифицированная шейдерная архитектура Unified Shader Architecture (какая интересная аббревиатура складывается!) с использованием до 320 "потоковых процессоров" и поддержкой Shader Model 4.0, функция тесселяции (Tessellation), поддержка памяти GDDR2/GDDR3 (и GDDR4 у HD 2600), HDMI/HDCP, новая инкарнация функции Avivo в исполнении Avivo HD и многое другое, о чём подробнее чуть дальше. Пятый параграф - читать! Уделался?И это 2007 год. И кстати унифицированные шейдерные блоки были впервые придуманы радeоном для видечипов XBOX360 (у PS3 такого не было тогда, ведь видюха от зеленых),а потом сворована nVidia. http://www.3dnews.ru/video/radeon_hd2900xt/index2.htm Одно из наиболее интересных нововведений – программируемый модуль тесселяции (Tessellation), который имеется во всех чипах серии ATI Radeon HD 2000. Модуль тесселяции, реализованный также ATI в графическом чипе для игровой приставки Xbox 360, позволяет добиться более детализированной и реалистичной анимации объектов, создать более сложные поверхности и шейдерные эффекты, при этом обеспечить эффективное сжатие геометрических данных на аппаратном уровне и разгрузить таким образом CPU и шины данных.

2

Ждем очередную серию фильма "Миссия Невыполнима" в которой Николас Кейдж, Харрисон Форд, Том Круз и Анджелина Джоли будут красть сверхсекретные разработки АМД. :D.

2

SUSUL1 "2. Установка второй карты NV для обсчета физикса уже не катит, так как NV отключают его программно, при обнаружении подключения дисплея не к их карте." Для этого ставится небольшой специальный Hybrid PhysX mod, для определенной серии драйверов он свой.

Кому интересен процесс шаманизма для запуска PhysX на АМD можете почитать тут

http://forum.radeon.ru/viewtopic.php?f=5&t=36735

2

Frost92 В моих постах моя позиция четче некуда.

2

DrOvOlet Сам пользовался. Знаю ))) Картина просто блеск.

2

Frost92 ссылка есть одна, дальше гугл и википедия.

2

Frost92 *facepalm* Вот где вода - так это у тебя. root_222 уже столько ссылок тебе предоставил, или тебе как ребёнку в красочных картинках сюда выкладывать нужно? Их хватит уже. Всем прекрасно известно кем являться AMD и чем NVidia. Причём у последних (NVidia) - далеко не лучшая репутация.

2

DrOvOlet "2. Установка второй карты NV для обсчета физикса уже не катит, так как NV отключают его программно, при обнаружении подключения дисплея не к их карте." Для этого ставится небольшой специальный Hybrid PhysX mod, для определенной серии драйверов он свой. Эти драйвера я знаю, сам когда то думал GT550 докупить под физику, да вот пугают даты представленных там драйверов, последний от 10го года, за эти 2 прошедших года NV драйверов налепила на стол и маленькую корзинку и существенно, вроде как, улучшила недоступность использования подобных программ

2

Владельцев,выкинувших на 280/295/480/580/590/680/690GTX искренне жаль.Особенно удивила 590GTX в Far Cry 3 своими 26-30к/с

2

Den-z2013 Нет, мне нравится, как они 295 карту, которая была ТОПОМ, которая и сейчас по характеристикам не уступает, просто слили, из-за чего хомяки покупают новую карту, когда 4850, в системниках до сих пор живет.

2

Frost92 Если ты видишь что не по теме, (хотя я сам так и не понял, что тебе нужно), почему ты не привел сам пример того, о чём ты хотел сказать? Ведь говорить: "дай пруфы" и "не по теме" - можно говорить до бесконечности. Он (root_222) хоть что-то пытался тебе объяснить, и из его комментариев я понял, что он хотел сказать что AMD опережает на голову всеми хвалёную Nvidia. Он привёл пример технологий, которые есть теперь у обоих конкурентов, но первоначально было у AMD и т.д. А хватит писать комментарии, которые содержат всего одно предложение без смыла и логике - это "флуд" называется. Если уж рассуждать - приводи ответные аргументы и "пруфы", ну или правильно поставь для начала вопрос свой.

2

Frost92 Ну ты приколист! Ты еще спроси, почему Майки не впихнули DX11 в winVista, и почему DX11.1 (к которому была готова еще HD5000серия АМД 2 года назад) появился только в Win8 и "не совместим" c Win7, И если после этого, ты спросишь почему это 10й ДХ только у висты и никак не может работать на ХР то подтвердишь полное отсутствие способностей к какому либо мышлению. Продукт надо продавать, а если не покупают, то продукт надо заставить покупать - первая заповедь монополистов! И вот для ХР уже пишутся кривые драйвера, уже забывается упоминаться как ОС для современных игр, которые на ней прекрасно запускаются, разные программы вдруг предупреждают о несовместимости...

2

TL MC первым 4850 с 512Мб GDR то же не кисло приходится уже, не хватает им памяти. А вот поздние с 1Gb на борту и норм СО еще могут средние+ настройки вытянуть много где. ЗЫ А в чем заключается слив GTX295?!

2

"Скандалы, интриги, расследования" (с)

2

demanik1 ссылку то сам почитай "TruForm — технология, основанная на применении графических текстур, разработанная компанией ATI и применяемая в графических платах, соответствующих спецификациям DirectX 8 и OpenGL и выпускаемых как для компьютеров Macintosh, так и для IBM PC. Впервые технология была задействована в картах Radeon 8500, но не являлась частью спецификаций DirectX и OpenGL." Может ты забыл, но ATI слились с АМД, а со временем и марку свою затерли, оставив как напоминание о себе красный фон на логотипе, так что пишем AMD но вспоминаем мы ATI. Кстати, тесселяция получается была куда древнее DX11 и к нему она особо не привязана. Так что и на lunix может быть реализована под OpenGl... интересные дела всплывают, глядишь старичок Гейб имеет веские основания для замана игроков в lunix. В нем и ЦП меньше нагружается, и память работает эффективнее, но людей на нем маловато...

2

SUSUL1 В том, что, маркетинговый отдел НВ, впаривает с каждым годом новые карты. Которые по производительности ниже, чем 295. И с поддержкой, вы где-нибудь видели надписи, что-то вроде "295 ГТХ 45 процентов производительности в ФК3":) А сейчас ее бы цена была в пределах 7к рублей.:) При такой цене она быстрей 560:)

2

Та мне пофиг главное чтоб монополии не было...

2

demanik1 ATI и AMD одно и тоже

2

SUSUL1 Майки не впихнули DX11 в winVista, и почему DX11.1 (к которому была готова еще HD5000серия АМД 2 года назад) Ты знаешь что есть DX11.1 ? это всего лишь поддержка 3D на программном уровне, работает только в win8 у амд нет нормального 3D. Поэтому они и были готовы. У nvidia есть свои 3D очки, им всё ровно.

2

Frost92 ОМГ, тебе же было отвечено, что ВК с DX11 появились за 2 года до его выхода на Win7? почти одновременно с выходом WinVista. Не нужно быть сотрудником компании майкрософт, чтобы сложить 2 и 2 и прийти к выводам, что уже в то время DX11 был готов к употреблению. А Вин8 отличается от ВинВиста на столько, что все изменения влезли бы в SP4. Более того, тут дали ссылку на Wiki в которо говориться, что Тесселяция может быть реализована не только на DX а так же и на OpenGL и вообще отдельно от них. Так что не хочешь покупать новый виндовс - заставят! И от ХР придется вынуждено отказаться рано или поздно, сгорела видяшка, отказала материнка и все - привет драйвера для Win7 и выше на сайте производителя новой железяки. Есть программы-байпассеры позволяющие запустить игры с 10-м Иксом на ХР - ссылку на поддержку этих программ от Майкрософт дашь? Или они фанатские, и лишний раз подтверждают жадность Майкрософта, заявляющего, что ДХ10 не может быть реализован на ВинХР. Что является как бы косвеным ответом на твой вопрос диалога "Второе, я спросил у него откуда он взял это: просто в 2007 году Мелкософт не вводила DX11, им нужно было продавать висту с 10-ым. В ответ - тишина и всё время одна и та же ссылка в которой ни намёка на то, что я прошу."" Ничто не мешает так же запускать полноценный DX11 под вистой (это вообще системы близнецы-братья), но он только для семерки...

2

Консолота запаслась попкорном...

2
pix.PlayGround.ru
pix.PlayGround.ru

Даже сотрудники AMD за NVIDIA! NVIDIA and INTEL FOREVER! http://store.steampowered.com/hwsurvey/

2

SkymаN Ты не понял смысл сказаного, суть не в том, что у АМД нет очков, а в том, что этот 11.1 не устанавливается на Вин7, а эксклюзив для 8й винды. Вот что бесит! Наглое заламывание рук технологиями на столь мелочном уровне. Представь, что завтра майкрософт заявит, что случайно их патч отключил букву "Ъ" на клавиатурах компьютеров упарвляющихся только Win7, и следующим патчем они это поправят, через месяцев 8... А так же бесит то, что уже старые продукты выкладываются за новинки=(

2

Frost92 Я его раза 3 просил предоставить те самые документы в которых сказано что Tegra и Tesla в попе у AMD в данном сегменте. В ответ он шлёт меня в гугл, естественно в котором я не нашёл ничего. Следовательно, он не знает о чём говорит. Естественно, если ты введешь в Google: "Tegra и Tesla в попе у AMD в данном сегменте", то он тебе ничего дельного не выдаст.) Чем является Tegra и Tesla? Вот когда мне станет понятно - что это, тогда и можно будет дальше говорить. А то что он не предоставил - эта ты ему должен был сказать, а не через каждый его комментарий писать свой уже не по той теме, о которой ты сам хотел поговорить. Мне то это зачем говорить? Насчёт: просто в 2007 году Мелкософт не вводила DX11, им нужно было продавать висту с 10-ым. Я сам не в курсе. Вы уже оба отошли от темы и фиг знает что пишите.) Хотя по логике это относиться к заголовку в его ссылке: Radeon HD2900XT – неоправдавшиеся надежды и фундаментальные инновации и там есть такое предложение: Сказать, что анонс прилично затянулся – практически, ничего не сказать, но, принимая во внимание тот факт, что особенным наплывом каких-либо DirectX 10 приложений на рынке "не пахнет" до сих пор, в принципе, в длительной доводке Radeon HD 2000 можно найти резон.. Хотя связи тут тоже мало. Вот откуда ты это берёшь? Есть программы-байпассеры позволяющие запустить игры с 10-м Иксом на ХР. Ну ведь в "чистом" виде DirectX 10 же не пойдёт на XP, ведь так? То что его можно запустить, я думаю, знают все, но тот факт, что без сторонних приложений его не запустишь - остается. Ну вообщем, я сам мало что понял из ваших диалогов.) Сначала про видео карты писали, затем перешли на DirectX. "Ничего не понимаю" (c)

2

Jarama Rаum Абсолютно поддерживаю, сам всегда был на процессорах амд и всегда, абсолютно всегда они удовлетворяли меня по соотношению цена/производительность. А год назад и от nvidia отказался ввиду завышенных цен и заточки чисто под игры, благодаря OpenCL на AMD я хотя бы интернет себе оплачиваю майнингом. Уже вернул себе половину отданных денег за 6950.

2

RavinSakara Спор о ДХах скатился в русле того, что АМД была готова предоставить новые технологии намного раньше NVidia, уже в HD2000 серии мы могли увидеть тесселяцию и эффекты вплоть до эффектов DX11 и во многом это разработки самой ATI, в то время как NV кормилась тем, до чего дотянется и именно NV является толстым падальщиком, а не технологическим гигантом. Что и стало одной из причин, по которым чипы AMD стали основой графики для Хящик360, ну еще и то, что NV немного кинуло Майкрософт при производстве первого Хящика=)

2

Frost92 Тесселяция работает и на DirectX9. Запускал еще на HD2600 старую GPU-демку от ATI.

2

Alex Coachman Кто-то не понимает, что "большинство" может ошибатся. Спорить не хочу, делал это давно. Это просто даунизм, не признавать очевидные вещи.

2

на радеонах HD5xxx серии теселяция работала очень криво Нормально она работала, в последующих сериях улучшали технологию, но это не значит, что на 5000 она была ужасной. AMD они нечего толкового не сделали. Лицопальма, ну хотя бы коменты выше почитай, если не следишь за развитием технологий.

2

Мне на самом деле пох, я не фанат. Я пользую большую производительность за меньшую цену. У меня 2 компа (Core i5/HD6870/4GB и Dual Core 5200/GT 240/3 gb) нотник на APU AMD A8 Dual Graphics и нетбук на Atom. Просто я говорил правильные вещи, в противовес чему никто ничего не смог сказать. Не будьте юзверями, не потреблять надо, а использовать.

2

RavinSakara Чем является Tegra и Tesla? Вот какого фига ты лезешь если не знаешь?

2

sanchez752 То что работает на DX9,10 это обрубки того что есть на 11-м и тесселяцией это назвать сложно. SUSUL1 RavinSakara Вы оба, хватит меня от темы отводить и писать всякую ахинею: один говорит непонятными загадками, другой не разбирается в теме разговора.

2

То что работает на DX9,10 это обрубки того что есть на 11-м и тесселяцией это назвать сложно. Это действительно так, но ведь, тесселяция уже была, пусть на зачаточном периоде, но уже разрабатывалась и внедрялась в радеоны. Индикатор школоты Слоу, такой слоу. Объясню всё-таки. Физикс поддерживается на Радеон в точно такой же степени как и на Нвидия :)

2

SUSUL1 "а в том, что этот 11.1 не устанавливается на Вин7, а эксклюзив для 8й винды. Вот что бесит!" Еще ноябре новости были, что DX 11.1 уже не эксклюзив для Win 8 и будет доступен в Win 7. И таки да, на кой ляд тебе этот "новый" Dx 11,1 даже разницы не увидишь никакой абсолютно или повелся на "магическую" цифру и думаешь если цифра другая, то и разработчики добавили туда что новое? По сути, самый обычный маркетинговый ход, чтобы хоть как то заставить обывателей покупать Win 8.

2

Maickle Fort Тесселяция была в Radeon 8500 и ВНЕЗАПНО вернулась в серию HD2000 - разрыв огромный. Это говорит, о том что разработчики просто забыли её до подходящего времени. Я их понимаю, такое количество полигонов на квадратный сантиметр было тяжело реализовать в тогдашнее время.

2

Frost92 Алгоритм все тот же, сама тесселяция + displacement map. И каким местом это "обрубки"? Просто после это получило официальную и аппаратную поддержку.

2

Alex Coachman Ок, я знаю значения этих слов :) Но ты меня запутал, какое твое мнение?

2

теперь включай мозг и найди мне кое что подобное на AMD а теперь включи мозг и покажи мне хотя бы две игры в год с чем-то подобным.

2

SkymаN ты в курсе того что на радеонах HD5xxx серии теселяция работала очень криво и только с выходом HD6xxx наладили работ а ты в курсе того, что Geforce FX не могли нормально работать под DX9 и вчистую просирали Radeon 9***?

2

Слоу, такой слоу. Объясню всё-таки. Физикс поддерживается на Радеон в точно такой же степени как и на Нвидия :) Прекрасно, вот только опция "влючить/выключить Physx" в играх просто напросто неактивна на AMD. выходит не совсем в такой же степени поддерживается

2

Frost92 Вот какого фига ты лезешь если не знаешь? Вчитайся в мой комментарий. Я не сказал, что не знаю чем является Tegra и Tesla, я сказал: ...когда мне станет понятно - что это..., т.е. знать то знаю, а какое это значения и смысл этих технологий - я не разбирался. Ну, ладно, я уже давно закрыл тему. Вы оба, хватит меня от темы отводить и писать всякую ахинею: один говорит непонятными загадками, другой не разбирается в теме разговора. Я уже не лезу так-то.

2

видюхи были у меня только нвидиа 7300гт, потом 9800гт, ща гтх 560 проблем никаких никогда не возникало с видюхами, а процы от амд всегда были тоже никаких проблем

2

root_222 Почему же ты не взял проц фенечку вторую - 955 Black Edition? он стоит в 2 раза дешевле i-5 и не намного слабее после выставления частоты в 4000. в целом с тобой согласен, нужно использовать))) потому сам сижу на этой дешевой фенечке и 6950, которую благополучно использую для майнинга)))

2

Индикатор школоты Сам то физ движок работает везде, как бы проц cчитает, а вот дополнительные спецэффекты в Borderlands 2 и Mirrors Edge спокойно работают на компах с AMD, настройка активна, но считает проц, в остальных не проверял.

2

Не нравятся мне ихние процы, предпочитаю Интел.

2

Атлоны были прорывом, а всякая хрень случалась с компами зачастую из-за OEM производителей, коих в то время было море.

2

benderlab Ну впринципе то я любил свой Атлон/жифорс7600GT, собирал комп как средне-ценовой. В то время чтобы на высоких текстурах поиграть требовалось комплексный апгрейд по всем параметрам. А сейчас непонятно что вообще нужно для игор. Но собраный пару лет назад Intel 2500k/GeForce 560ti устраивает намного более по качеству и скорости. Не скажу за то, почему - тут 2 варианта или АМД такой отстой, или выпускается сейчас одно мыльцо для которого апгрейд то особо не нужен. ЗЫ Но если полетит видюха то возьму радеон, жифорсы надоели и ее мелкие косяки тоже, интересно может будет поизучать радеоновские.

2

всегда не любил радеон даже не знаю почему так что надеюсь обойдётся всё у Нвидиа

2

Я тут один одинаково люблю радеоны и жифорсы?

2

ну слили и слили, бог с ними. Холивар на over100 комментов из-за какой-то херни устраивать...

2

Radeon'овцов просто троллят, потому что не бывает настолько тупых людей, которые истинно говорят такую чушь как "на амд нету физикса" и тому подобное. Люди, которые не просто разбираются в железе, а могут заставить radeon 2900pro потянуть crysis на максимальных настройках, естественно, выбирают видеокарты АМД для разгона и прочих шаманств, посокльку нвидия к этому труднопригодна.

2

Мне AMD по душе больше. И по цене и по пониманию. У меня ноут чисто AMD конфигурация 2007 года, а до сих пор игры тянет. Когда ноут буду менять буду присматриваться к AMD, нежели Intel и Nvidia. Жалко у MSI GE60 или GE70 нет AMD конфигураций.

2

А помните обнову драйверов от НВ, когда погорели видеокарты:)

2

brain_stuffПомоему, где то 196 версия... А точно, 196 http://www.playground.ru/news/drayveri_nvidia_196_75_mogut_vivesti_iz_stroya_videokartu-29300/ :) Прошу

2

Капздейшен,вы тут срачу развели.Лично я за Intel и Nvidia,а всяким Radeon'ам и AMD,как-то не доверяю,Intel и Nvidia в комплектации хорошо работают.

2

А мне вообще похер. У меня энвидиа, но мне похер что у меня энвидиа, и так-же еслиб у меня была айэмди мне тоже было бы похер. и на эту новость мне похер, и на ваши тупые войны кто круче энвидиа,айэмди,консоль,пк...мне тоже похер.

2

Мне кажется они сами это подстроили что бы лишний раз засветится в СМИ

2

Intel Cpu + AMD Gpu вот лучшая комплектация.

2

Warcrafter_94 Пока что их AMD сдерживают, если они уйдут, то например самая новая видюха будет стоить тысяч тридцать. АИ ведь будут покупать - больше не у кого

2

masikgreat Вот , вот от души сказал , без лишнего выпендрёжа . Уважаю.

2

Возьмите любые две идентичные видеокарты АМД и НВ. Посмотрите на енергопотребление и максимальные температуры! У НВ они чуть ли не в 2 раза больше! И цена у НВ чуть выше. Как такие очевидные вещи вы не понимаете? НВ ничем не лучше АМД.

2

На пг как всегда свои скандалы. Мы тут вроде обсуждали кто лучше технологии разрабатывает !??

2

WarlokIII По-моему не видеть очевидные вещи глупо. И вообще весь этот срач тупой троллинг радеоновцов.

2

The_Truth Люди даже никогда не пользовались амд и даже не интересовались. Пришли сюда и начинают троллить и демонстрировать свои незнания в железе.

2

chek_ua а тут уже дело не в разработчике железа, а в его издателе. Купишь asus или palit - проблем никогда не будет. Ну а если тебе денег жалко отдавать за качественную плату, то бери noname кажде 2-3 месяца. Думаю тут итак понятно, что лучше взять 1 раз подороже, чем постоянно выкидывать и покупать новое

2

TL MC Пресвятая джигурда, у меня тогда вроде гтс450 был, я помню как ставил эти дрова, как оно мне повезло то значит)))

2

The_Truth "Большинство комментов: Аааааа АМД соснул, Интел и Нвидиа рулит. Представляю ход их мыслей: У меня Нвидиа-значит АМД соснул.:D"

2

ну графодрочеры разошлись

2

SaDaR Ну Аsus я понимаю, а вот Palit... Тут ты погорячился, это не просто одна из самых хреновых фирм, по мне, так она и есть самая хреновая)) По сабжу: мне Nvidia всегда больше нравились. Фанбойство тут не причём, просто привык к ним. Пользовался топами всех линеек начиная с 7000 серии, сейчас остановился на двух GTX 570 - доволен, как слон. Драйвера больше нравятся (и частота их обновления), поддержка физикс без всякого шаманства и "мощного колдунства". Имею старенький ноутбук с HD 3670 вроде и никак не могу привыкнуть к AMDшным дровам. Поэтому когда задумываюсь об апгрейде, в линейку радиков даже не заглядываю. Всё по той же привычке.

2

No more drugs... По поводу палитов согласен но не совсем, у них некоторые карты были ужасными из за корявого охлаждения, но и цены у них самые доступные среди других фирм. Лично у меня первая 8500GT Sonic от них - идеал по разгону, второй 9800GT - оказалась редкостным дерьмом, частые артефакты текстур и высокий нагрев памяти, третья была GTS450 от того же палита, тоже нормальная. Потом HD 4870 Sonic Dual Edition с 512 памяти - её брал с рук, возможно даже после отвала чипа.. как тогда я ей был доволен - в пух и прах разрывая друга с GTX260, потом к ней пристроил 9800GT для физики. Всё работало великолепно, пока не взял FullHD монитор)) в итоге на 6950 от HIS, немного разочарован, т.к. не смог разлочить её, а к самой карте нареканий нету, разве только неудобно чистить вентилятор от пыли - приходиться снимать всё охлаждение и заново пасту мазать, а она собака дорогая...

2

No more drugs... Не ребятки, вы не правы:) У меня стояла полтора года palit 250GTS и она была быстрее такой asus (причем asus я брал на сверку из серии dark knight, вроде так называется, т.е. с завышенными характеристиками). Но этим я не хвалю palit, а возражаю, что palit гавно. Для людей со средним заработком лучший выбор - дешевле и не особо хуже. Еслиб они еще свое програмное обеспечение сделали были бы совсем молодцы

2

amd процики да,гавно а вот видюхи не обижать,пока Nvidia не запилят нормальный OpenCL и DirectCompute(штуки для рендеров и прочего ускорения).Их CUDA никуда щас не годится.Насчет дров-да корявые,но у Nvidia на Linux еще хуже чем у AMD. и алсо,убивают те кто орет якобы Intel с Nvidia лучше работают.Лол,возможно амд лучше с проциком от амд работает.но Intel никогда быстрее от нвидии работать не будет, поскольку фирмы разные.и все равно процики от AMD - гавно

2

ВоpтигoнтПроцессоры АМД говно если подходить к делу как если бы мы с тобой органами мерились к примеру: У тебя вроде длинней на пару сантиметров, но дамы и моим довольны)))

2

SUSUL1 у меня системник стоит на подоконнике, выше него всегда открыта форточка, на улице - минус 30 градусов. Алсо - вокруг системника температура чуть ли не ноль (корпус очень холодный когда рукой трогаешь). Радиатор в этой модели видюхи медный, так что охлаждение происходит на ура. Я даже пиво между рамами держу, в холодильник не ставлю. И в играх не вылетает такое сообщение - только когда интернет смотрю. Вот уже с утра комп работает еще ни разу не вылетело. Так что не драматизируй, карточка еще походит своё.

2

benderlab увы,у самого AMD очень сильно пожалел,что не взял Sandy Bridge впрочем,я верю в AMD и желаю поскорее вырваться вперед

2

Воpтигoнт Вот тебе пример Интел 4 ядра http://www.pc67.ru/price/hardware/p_c_2:t_3:fm_d12:s_3:info_99568_Processor_Intel_Core_i5_2310_Socket1155.html и амд http://www.pc67.ru/price/hardware/p_c_2:t_3:fm_d11:s_3:info_83123_Processor_AMD_Phenom_II_X4_955__Black_Edition_SocketAM3.html Первый дороже амд более чем в 2 РАЗА! Теперь производительность - она более чем в 2 раза выше??? Нет! Тормозят ли хоть какие то игры на 955, ответ НЕТ. Вывод он не говно. Тем более можно ничего не разгоняя поднять множитель на процессоре до 20и и радоваться 4000 мегагерц, что почти уравнивает наши процессоры без риска выхода из строя амд и дрегих комплетующих.

2

Jackson[x] А BMW уже говно - и это общепризнанный факт, их имеют все уже)))

2

Воpтигoнт Я скажу так - если ты любитель игрушек и хочешь играть в игры только на ultra настройках, то amd для этого лучше, но в итоге обойдется дороже, т.к. родной куллер может быстро сдохнуть (ну и проц вслед за ним), т.е. нужно также сразу приобретать хороший куллер от стороннего производителя, например zalman. А вот интеловские родные куллера меня никогда не подводили, даже при разгоне

2

SaDaR Родными кулерами вообще не стоит пользоваться))) нагрев хотя бы одного компонента приводет к нагреву всего системника. У лидей на моей памяти отваливались чипы у 260 и у радеонов и виной тому китайский корпусок и боксовое охлаждение.

2

benderlab Я говорю не о конкретных моделях, а в целом. Из интелов у меня были: celeron 700, core 2 duo E8400 и сейчас стоит i5 3570. Все они работали с родными куллерами и ниразу у меня небыло перегрева. Но тут ведь все зависит от самого системника в целом. Если поставить хороший intel проц на noname систему, то и с хорошим куллером он может легко сдохнуть или работать не в полную силу.

2

Прекрасно, вот только опция "влючить/выключить Physx" в играх просто напросто неактивна на AMD. выходит не совсем в такой же степени поддерживается плачь

AMD быстрее, но без защиты( Вообщем горят как спички без куллера, а интел только тормозит при сильной нагрузке во-первых, ты брешешь, во-вторых, интересно было бы посмотреть на придурка, не поставившего кулер на процессор.

2

benderlab Я думаю лучше уже Кор Ай 3 брать, а не феном, так на обеих процесорах при достойной видеокарте на ультрах идёт всё. Всё-таки интел более качественные, а для разгона советую кор 2 дуо ;)

2

Если бы сейчас заново собирал себе компьютер с нуля, то собрал бы полностью AMD (дешево и сердито), цена\качество - это то чему NV и Intel еще учиться и учиться. А производительность, FPS в играх и некоторых приложениях +\- 5-7% - это вообще уровень погрешности.

2

Недавно соседский проц из первых феномов, а точнее 620 имел температуру в простое 69 градусов))) благодаря сдохшему кулеру, проработал так около 4х месяцев и всё норм, только на днях я там поменял кулера на залмана CNPS 10Xперформу - ипался очень долго, то ли скоты недокомплектовали меня зажимом под амд как на Extreme, то ли отказались от него, но факт в том, что проц нормально работал, пока не стал слишком уж часто в защиту уходить)))

2

SaDaR Это видео касается процов 13 летней давности))) не смеши нас тут!

2

Сергей Травкин Тупицы, не понимающие что на картах амд физикс работает, будут не понимать далее, считая себя Nvidia-королями.

2

brain_stuff Вот к сожалению 2 ядра не удовлетворяют мои потребности в повседневной работе, хотя согласен и 2 ядер пока лостаточно для игорь, если они от интела))) Но тут опять же встаёт вопрос цены за проц - амд с 4 и дешевле и в в работе(не в играх) быстрее в виду наличия 2х лишних ядер

2

Хорошие сотрудники. Врагу таких не пожелаешь.

2

SaDaR и что там на видео? Какой-нибудь Athlon/Duron 2000г выпуска?

2

Я конечно же несколько погорячился тут http://www.ixbt.com/cpu/amd-intel-1112.shtml тесты говорят о проигрыше)) но в итоге он вполне себе привлекателен

2

Сергей Травкин а что ты спрашиваешь? не веришь - смотри, я сказал как есть, проверять сей момент или нет, верить или нет - твое личное дело. Добавлю лиш, что у друга недавно стох кулеер на intel core 2 quad. Модель точно не назову, но это не особо важно. Так вот он, как я ему и посоветовал, просто снял все это дело и забыл:) Да, при запуске современной игры может выкинуть в винду или уйти в ребут, но на этом и все! Медленнее работает, но работает ведь:)

2

SaDaR Не смогу снять по простой причине сложности демонтажа кулера, но вполне уверен, что система либо повиснет, либо выключиться, равно как сначала может зависнуть, а после выключиться, было такое уже, когда я забыл подключить вентилятор охлаждения.

2

SaDaR Но ведь так срок подальшей работы проца снижается в 3-4 раза, зачем так рисковать?

2

. Так вот он, как я ему и посоветовал, просто снял все это дело и забыл: я бы тебе посоветовал, да боюсь забанят. DrOvOlet да

2

benderlab ну вот, покрайней мере, как ты видишь из моих комментов и своих, можно сделать простой вывод - amd без куллеров не работают в отличии от intel. А я собственно об этом и говорил:) Ну а сложность демонтажа всегда можно устранить имея прямые руки. Я себе все накрутил так, что только видюху не могу сразу снять ибо слоты pci_e стоят прям напротив hdd. Все остальное снимается за 2 сек:) brain_stuff Согласен, но тут уже дело хозяина машины. Я бы конечно сразу новый купил, но ему как пофиг:) А посоветовал я ему такой выход на время, но его и так все устраиват. Хозяин - барин:)

2

у меня карта нвидиа а проц амд!!! и картУ и и проц лично разгонял!!! скоро 3 года им будет!! и збс работает!!

2

SaDaR Ты увлёкся глупым сравнением, работать на процессоре всё равно не возможно. он сгорит, для этого у обоих есть предельно допустимая рабочая теипература, но это не делает одни процессоры лучше других, это делает из людей идиотов, которые снимают кулера - это ничего не доказывает. Эта тема закрыта! Мне надоел это холивор, я хочу просто теперь понаблюдать за вами)))

2

SaDaR по-моему, ты придурок. Собственно, это даже не предположение, а уверенность.

2

benderlab Не берись утвержать то, с чем не имел дело дорогой мой:) Человек уже 2ой год сидит без куллера и радиатора, и ничего, все работает. ДА ДА ДА, так делать не стоит и.т.д. Но факт остается фактом:) И ничем я не увлекся. Почитай внимательной что я пишу. Я не отдаю прдпочтение ни intel ни amd. AMD быстрее, дешевле, но не защищен от перегрева, intel дороже, медленее, но защищен, это все, о чем я говорил

2

Сергей Травкин память в профиле у вас стоит 1333, если её ещё не сменили ,со всей уверенностью скажу что она слабое место вашей системы

2

не буду вспоминать свою первую ATI 3D Rage pro 2 mb, перейду сразу к блежайшему прошлому, моя первая приличная карта HD4870, работала на ура, потом HD 5870 просто летала, сейчас GTX 580 качает будьте здрасте.... ребят может вы просто неудачники, ну типо не везет если по хорошему....=)

2

SaDaR "Человек уже 2ой год сидит без куллера и радиатора, и ничего, все работает" В общем, довольно не частое исключение из правил, обычно что AMD, что Intel долго без охлаждения не могут работать и срок службы заметно сокращается, если температура постоянно высокая.

2

DrOvOlet немного не так, но в целом да, он дурак денег желеет:)

2

SaDaR С моим процом идеальная память 12800, 10600 - приводит к снижению производительности, выше мне нет смысла ставить, т.к. нет никакого прироста, а в отношении интела 12800 минимальной должна быть, а в идеале PC19200 для Core i5

2

Этот вариант не пробовали?)))

2

Скриншоты были сделаны в Borderlands 2, стояла Gigabyte Radeon HD 7750 (еще до покупки GTX 670), максимальные настройки графики и PhysX на средних:

Работает ли PhysX при видеокарте от AMD? Ответ - да, работает.

2

У меня дрова от AMD никак не ставились, доходит примерно до середины и всё, полоска прогресса стоит на месте. Установились только при установке винды, а обновить их никак не получалось. Перешёл на НВидию, доволен как слон. И, кстати, выше 67С она (GTX460) не греется и все игры идут почти на максималках. warp 37 PhysX работает не на видеокартах AMD, а на ЦП.

2

ты че гонишь то? АМД не тянет PhysX не тянет об этом ещё в прошлом году говорили PhysX обрабатывает процессор, я уже говорил об этом. Во всех играх (кроме тех, где "тяжелый" PhysX (Borderlands 2, Batman: Arkham City)) его вполне спокойно обрабатывал мой Core i5-3570К (В2 с "высоким" PhysX уже не тянул). Например, в том же Metro 2033, PhysX является встроенным, но все эффекты работают и с "красной" видеокартой, просто обрабатывает ее процессор.

2

hanter_net ты че гонишь то? АМД не тянет PhysX не тянет об этом ещё в прошлом году говорили Тебе какая разница?! Тянет АМД PhysX или нет, у тебя в портфеле ньютоновская физика не сделана. Как и у всех обладателей Жефорсе. Агейа Физикс это что за кал?!!! Херня херней толку никакого. Подумаешь где-то плащ как тряпка развевается)))))))) нахер это надо.Выглядит даже смешнее. Вообще у АМД самые высокопроизводительные процессоры, относительно дешевые- значит у АМД лучшие технологии и ее видеокарты соответственно. nikita2112 У меня дрова от AMD никак не ставились - руки у тебя из задницы.

2

alex8ball На свои посмотри, дибил малолетний Сергей Травкин Мне пох чё там гугл выдаёт, у меня всё работает Кстати, вот

2

Собственно для тех кто говорит что PhysX с AMD картой не бывает. Специально скачал для такого случая Метро 2033 в стиме, запускал без "шаманизма" на AMD Asus 6870.

Собственно сами разлетающиеся частицы при выстреле.

2

Физику обрабатывает процессор, но самое смешное, что "Метро" работает лучше с видеокартами от... AMD! Какое удивление это может спровоцировать у фанатиков NVidia...

2

надеюсь в нВидиа эти разработки отправят в топку... не хотелось бы получить новые шлаковидеокарты "Шлаковидеокарта" HD 7970 заметно мощнее GTX 680 и стоит как GTX 670.

2

Сергей Травкин Откуда ты высосал, что у меня интернет не работает? Хотя не говори, такое вслух не говорят

2

warp 37 "самое смешное, что "Метро" работает лучше с видеокартами от... AMD! Какое удивление это может спровоцировать у фанатиков NVidia..." Да никакого, будут бугуртить и утверждать обратное, занимаясь самообманом.

2

там процессор обрабатывает,а не видиокарта Я об этом итак написал, читай внимательнее.

2

drag - fire Обрабатывают не обрабатывают физику -это все лирика, главное, что PhysX в играх доступен и с видеокартами от AMD.

2

Я просто в шоке какие анацефалы сидят здесь, не понимающие что физикс идёт на любой видеокарте, будь она Nvidia, amd, intel, matrox, 3dfx НА ЛЮБОЙ! Нвидия к себе маркочку физикса влепила ради рекламы. Та до сраки тот физикс, это не супер-пупер революционная технология, а приморочка. У меня действительно батхёрт, потому что таких имбецилов ещё свет не видел

2

Еще раз убедился что владельцы Нвидии такие же неадекватные как и их видеокарты))))) посадил бы всех школьников на VooDoo FX 3d нахер

2

Еще раз убедился что владельцы Нвидии такие же неадекватные как и их видеокарты Не обобщай. У меня стоит видеокарта от NVidia, но ее фанбоев я не люблю.

2

у меня процессор от amd а видео карта nvidia всё норм (у моего друга стоит intel и ЖЁСТКО тупит .Грузит ДОЛГО.загружает игру ДОЛГО.)

2

раааанешь очень давно может АМД и всасывал но не сейчас....

2

Есть от этой статьи и практическая польза, я таки запустил игру, поддерживающую PhysX за последние 3 года и мне захотелось в нее поиграть, и снова пройти. Скажем "Спасибо" за это товарищам из AMD, которые решили нагло стырить секреты своей компании и продать ее конкурентам. Нет худа без добра.

2

MegaDen666 ЭКСКЛЮЗИИИИИИИИИИИИИИИВВВ!!! :DDDD

2

Вам идиотам Радеонхуяам ,Ге Имбицилшникам сколько надо в вашу 11 летнюю головушки вбивать , что физикс работает на любых видяхах , абсолютно любых если так можно выразится , ведь он не на них работает , но вы настолько тупые или упёртые что понимать не хотите . А вопрос что лучше , играл в крузис на максималках на бюджетном радеоне 2900 хд , руки у меня не кривые , до этого была бюджетная Имбицилвидеа при разгоне хлопнула и синий экран смерти.

2

а ещё добавить забыл у радеона была память 256 мб а у имбицилвидеа 512.

2

Сижу на Радиках начиная с 4870, потом была 5870, щас 7970... Каждый раз перед покупкой новой видео ведусь на тесты и цену и снова беру радик... Хотя до этого сидел на джифорсах (от последней 8800 XFX просто кипятком писал от восторга)... Но печальный опыт с gtx280, которая шумела как пылесос и перегревалась в закрытом корпусе (стоковая СО) вынудил меня перейти на сторону радиков... С одной стороны цена не конская и производительность редко где уступает джифорсинам, а с другой - постоянно какие-то конфузы с различными играми... я уж и не вспомню все нюансы но они таки есть - то текстуры некоторые не видно, то вертикальная синхронизация не работает... также очень неудобные драйвера - множество параметров, которые хочется поменять как на джифорсах, в драйверах радиков поменять нельзя... Меня до сих пор отпугивает СО джифорсов какое оно было на злополучной 280ой... а нереференсы джифорсовские стоят просто по конски.... Вот даже и не знаю - рисковать ли возвращаться в зелёный лагерь или таки терпеть некоторую глючность радиков за более лучшее соотношение производительность\цена...

2

Короче говоря, ребятишечки, отключил я в настройках Catalyst какую-то шнягу под названием Graphics OverDrive. Не знаю что куда, но ошибки драйвера больше не летают. Прямо чудеса творятся, етитв.

2

Graphics OverDrive Разгон же, скорее всего, именно в нем и была проблема.

2

hanter_net ты че гонишь то? АМД не тянет PhysX не тянет об этом ещё в прошлом году говорили

Спойлер
2

Hudsоn у самого 7950 разгоняется без проблем , хоть 700 хоть 1200 не глючит от таких перепадов , скорее на старых разгон это была шаманская магия.

2

Пипец срач!

Спойлер
pix.PlayGround.ru
pix.PlayGround.ru
2

Ого-го. (по срачу) у самого gtx680 от гигабайт, нормальная. Аналог от амд вроде ничем не хуже, на то и аналог.

2

Сергей Травкин Господь с вами, заминусовали ))) это всё от того, что тест не существенный, он сравнивает не память а 2 заведомо слабых процессора, которые в принципе не смогут использовать потенциал памяти на частоте выше 1600 мегагерц. А указанный фпс говорит о том, что процессоры едва вытягивают игры ,о каком тесте памяти можно вести речь)) да и разрешение стоило бы выставить на 1024*768 для того чтобы разгрузить видеокарту.

2

Сергей Травкин Курите более детально изученные статьи на большом форуме http://forum.ixbt.com/topic.cgi?id=27:8792 там вы увидите реальную разницу с вашим i5. Хотя сейчас уже нет никакого смысла бежать и менять память, эта статья полезна только при начальной сборке компа, возможно эта память у вас осталась от старой системы, а более производительная в то время имела ощутимую разницу в цене, не то что на данный момент.

2

AMD более игровая,хоть у самого nvidia... в будущем в любом случае поставлю себе AMD карточку... уж больно мне в последнее время AMD радует,недавно купил процессор AMD FX-6200 Six-Core Processor 3.80 GHz,очень доволен...

2

Macbeth_51 у меня 6 ядерный 6300 от амд , чуток пошаманил работает как i7 хотя второй вдвое дороже.

2

Westbjorn Эт ты дебил совместимость говно.... Лучше, чем у полушарий твоего мозга.

2

Westbjorn ты лично замерял что интел лучше с нвидиа пашет??! а нет, так не трепись...

2

Сейчас же ставить i7 нужно минимум. Хочу взять который разогнан заводом до 4.2 GHz каждый проц. Для чего тебе нужен i7 как минимум? Если тебе только поиграть надо, то и i5 за глаза хватит. На сегоднишний день просто пока еще нет игрушек, требующих настолько большую вычеслительную мощьность. Steel Rain Westbjorn ))))))))) Любая видишка с любым процом совместима одинаково) Но если вам нужно выжать максимум из этой пары, тогда основа должна быть соответствующая. И не забываем, что какая бы у вас система не стояла, в ней самый большой тормоз это hdd (у тех, кто на ssd не перешел).

2

Westbjorn оставьте 2 GTX680 в SLI и любуйтесь графоном. Вообще собираюсь приобрести в скором времени себе комп за 1500$ И даже не думать не о каких требованиях + хочу взять для работы с 3D графикой и проектированием Ты бы уж определился что в этом первично, а то за пределами МКАД 1500$ сумма для покупки игрового ПК выглядит каким то извращенным мажорством что ли. Это же не золотой порш, понтоваться мало где получится.

2

SUSUL1 Так а кто понтуется просто собираюсь приобрести для баловства и работы. Вроде обычный ПК.

2

Westbjorn GTX550 Ну вот всё и встало на свои места :) А вякал про совместимость, про производительность :) правильно ставь минус, может совместимость появиться LOL Ты обосрался. Посты я не минусовал и не плюсовал.

2

Westbjorn Молодец, оправдался, да только вот когда покупаешь проц - смотреть нужно на соотнеошение цены и производительности, но вот ты ещё не додумал отказаться от первого амд 4х ядерного, это ведь был не секрет, что он говно. Лично я сидел тогда на х2 4200+, начались тормоза - занялся разгоном, что спасло до выхода вторых допиленных феномов. а в то время тебе нужно было взять quad 8400 или 6800 от интела(не помню уже что тогда было), ты бы и сейчас не думал его менять, как я уже несколько лет сижу на феноме 955ом и не вижу потребности в чём то большем, а та производительность которую интел предоставляет сейчас дома не востребована, и для тех, кто не в курсе i7 вас не спасёт при включении physx в игре на максимум. Отговаривать тебя от покупки i7 будет только дурак, если ты занялся проектированием и графикой, тут ты молодец, сделал правильный выбор. Я сам год назад в системник вложил 1500 баксов так чтобы и игры не тормозили и как мультимедиа станция сгодился для аудиозадрота, и самсовершил ошибку купив дорогую мат.плату, хотя она лучшая в соотношении.. я все слоты pci-e не использую. Сейчас смотрю на цены своего фенома и платы: проц в 2 раза дешевле платы уже, а вместо неё нужно было взять что то за 3500 с двумя PCI-E и остальные деньги вложить в покупку внешней аудиокарты и ещё на бутылочку виски осталось бы))) Кстати при сборке компа советую взять карту от AMD, она будет заметно быстрее при рендеринге если будет задействован OpenCL и другие вкусности с многопоточностью, а старую оставь и используй для физикса в играх - её за глаза хватит! Холивор можно прекращать, победа достаётся разумному подходу к выбору комплектующих, учитывая свои потребности, и основываясь на анализе доступных на рынке устройств.

2

SaDaR Ну да i5 нынче за глаза хватает)) друг сидел на quad9400, купил i5 - заметил в играх только прирост максимального фпс, в работе с графикой небольшая прибавка. Год назад сменил его на i7 и ужаснулся тому, что в играх у него не так много фпс)) но вот в работе с графикой... тут слов не было - мощь!

2

benderlab По твоему, мой FX8350 не достаточно пригоден для рендеринга? Работаю в C4D, и после того, как я сменил свой феном, я был приятно удивлен:) разогнал до 4.8 на воздухе, просто повысив множитель, и теперь в CineBench, 9.3 балла в многоядерном рендеринге:) 8 ядер сделали свое:]

2

Westbjorn benderlab Вот вот вот, amd не лучше nvidia и наоборот, нужно исходить из своих потребностей. Про процы я уже говорил и полностью с тобой согласен, такая мощь как i7 только в случае работы с графикой нужна. Таже согласен в отношении видео-карточек: машина нужна для игр? => Nvidia; машина нужна для работы с графикой? => radeon. И не смысла спорить что лучше:)

2

TL MC хехехеех, сейчас программ, которые могут задействовать все 4 ядра то не так много, а работающие с 8-ю...... помоему таких еще не сущствует:)

2

SaDaR Борьба, я так понял, ведется за универсальное решение, и тут выигрывает AMD^_^, кто бы чего не говорил, но с АМД и по рисуешь и по играешь, плюс еще пивка попьешь на сэкономленные деньги. При том, что ты не не переплатишь тысяч 5, ты отстанешь, всего на 3-4% в производительности, что вообще не считается, покажите, покажите, хоть один тест в многоядерном режиме, где процессор АМД уступает больше 7 процентов производительности. Тоже самое и про карточки:) А вообще синдром утенка преследует больше половины пользователей ПэГэ. Что в свою очередь огорчает, ибо надо думать, как более выгодно совершить покупку, а не брыжя слюной, доказывать, что решение компании, на которой они сидят с самого начала, лучше всего на свете созданного.

2

TL MC да нет универсального решения как такового, нужно исходить из своих потребностей и долгосрочности покупки:) Да, amd быстрее (если сравнить решения от производителей с одинаковой ценой), зато intel надежнее, вот собственно вся разница:) А вообще синдром утенка преследует больше половины пользователей ПэГэ. Что в свою очередь огорчает, ибо надо думать, как более выгодно совершить покупку, а не брыжя слюной, доказывать, что решение компании, на которой они сидят с самого начала, лучше всего на свете созданного. От оно, золотые слова)

2

Для игр Core i5 с головой хватает. Долго не мог решится, что мне взять: i5-3570K или i7-3770K, в итоге выбрал первый, т.к. во многих играх разницы нет, а где используется многопотосность, этот ваш Core i7 уступает восьмиядерному AMD FX (который, к слову, дешевле топового Core i5). А переплачивать в полтора раза за Hyper Threading, который мало где нужен, неразумно, если компьютер используется для игр.

2

TL MC "покажите, хоть один тест в многоядерном режиме, где процессор АМД уступает больше 7 процентов производительности. Тоже самое и про карточки:)" 5-7% это уровень погрешности.

2

warp 37 Также точно разумывал, стоял перед выбором что взять: i5-3570K или i7-3770K :D А потом думаю - да конем оно ежись, зачем мне i7?

2

Вообщем, спор считаю исчерпанным, AMD И INTEL, две равные компании, которые внедряют свои технологии в массы:) И каждый выбор по своему хорош, а те люди, что поступили так с AMD, гореть вам в АДУ. Ибо Nvidia, компания, которая ничем свехпрогрессивным не выделилась, перед ATI, которые внедряют очень много новых технологий, тесселяция, open cl, больше честно говоря незнаю, но не сомневаюсь, что их больше чем достаточно:) Сделайте уже нормальный Quote людям, администрация ПэГэ^_^ Update! специально для хомячков, PHYSX, всем ненужная х****я, разницы играть с физиксом и без не заметил, все эти мелкие детали, геймплей лучше не делают, а если вы смотрите на мелкие детали, видимо более больших плюсов у игры нет, и она не имеет смысла.

2

Update! специально для хомячков, PHYSX, всем ненужная х****я, разницы играть с физиксом и без не заметил, все эти мелкие детали, геймплей лучше не делают, а если вы смотрите на мелкие детали, видимо более больших плюсов у игры нет, и она не имеет смысла. Нет, эффекты PhysX очень красивые в таких играх, как Borderlands 2 и Batman: Arkham City. Но это всего лишь две игры, где лучше NVidia, а в остальных с PhysX вполне справляется ЦП.

2

Лахи, у меня Core i3 и Radeon 5870, озу 4 ГБ 1333, тормозов никогда не видел, настройки графики абсолютно всегда на максах, так что вы лахи, купившие кор ай 7 или ай 5 со своими джифорсами печ690.

2

Жаль конечно! надеюсь направление АМД по видеостроению не пострадает сильно от этого. Все таки их видеочипы более универсальны и стабильнее, чем от НВИдео. У Нвидео чуть ли не каждый день выход бета дров, где они пытаются за счет дров стабилизировать качество картинки и т.п. в играх. Это мое ИМХО.

2

Вот он душевный физикс на амд

2

wolfellow Тебе на донышко уже пора... AMD в 100 раз лучше Nvidia - это вообще может такое быть, что не они украли, а сами создатели Nvidia, чтобы убрать конкуренцию!

2

Разрешите втиснуться в ваши дебаты молодому геймеру, но не молодому по-жизни. Имею под "капотом" ПЕЧ670 от Gigabyte, у меня заводом-изготовителем видеочип разогнан до 1120 MHz, хотя заявлено 941 MHz, по-этому смысл в оверлоке отпадает. Разогрев видеокарты в пиковой нагрузке (в последнем бенчмарке (3DMARK11 v1.0.3) и самых "тяжёлых" играх не превышает 70 градусов), а в нормальном рабочем состоянии - 33-35 градусов. А по энергопотреблению я вообще начал выигрывать с переходом на более мощную, в своём классе, карту по сравнению с ПЕЧ580 (170 Ватт против более 300 Ватт соответственно). Да простят меня AMDшники - но без PhysX (который вшит в структуру видеочипа Nvidia (а в 600-й версии на технологии KEPLER) даже играть не хочется. Кстати, некоторые обладатели Радеонов карят себя, что в своё время не приобрели NV из-за отсутствия PhysX в своих видеочипах.

2

krollfest Могу открыть секрет, PhysX не вшивается в структуру видеочипа, тут все на программном уровне...

2

krollfest Новые технологии оно конечно хорошо, для достижения большей производительности и уменьшения энергопотребления и переходят на новый техпроцесс,тут ты можешь ознакомиться с физиксом боле подробно http://www.overclockers.ru/lab/41183/NVIDIA_PhysX_ot_A_do_Ya.html и кстати из любопытства установи эту программу, мне интересна производительность современных зелёных в вычислениях, может тогда и стоит перейти с 7-8 серии на инвидию, если они будут не только в играх себя хорошо показывать. http://www.rublik.com/5035335bfa195fcc78000bd2

2

demanik1 Ну да, как то так benderlab Проверять и сравнивать надо не такими программами, тем более, с заведомо известным преимуществом AMD. Установил. Посмотрел. Фуфло. Удалил. Я полагаю надо состязаться, к примеру, в конвертации видео, кодировании, вычислении, да пусть даже, на худой конец, в бенчмарках и играх. Кстати, при конвертации видео у NV есть технология CUDA, что позволяет существенно снизить время, и не только при работе с видео. Читай - что такое технология CUDA http://www.nvidia.ru/object/what_is_cuda_new_ru.html Мой показатель в 3DMARK11 v1.0.3.0 на настройке Extreme составляет 2826, а на Performans - 6381. Ну тут ещё много зависит от ЦП.

2

krollfest Еще один секрет, Радеоны науичились кодировать видео еще в далеких 2005-2006 годах при помощи ATI Avivo Video Converter, и еще, у АМД есть аналог CUDA - ATI Stream Technology. Кстати кто-то тут спорил про Physix

2

demanik1 Понятно, что борьба по обоим фронтам началась не вчера и каждый выделывается как может. Но, всё же, как-то ближе NVidia. Так сложились звёзды :)

2

krollfest Вот именно что обосралась эта куда и в реальных вычислениях ничего она не может, поищи майнеры, использующие куду http://btcsec.com/programms/ и посмотри. этот софт пишут с целью получить прибыль, а не для бенчмарков и выбор на амд не зря лежит. krollfest Забей на этот физикс, это лажа для тех программистов, кому лень писать нормальный код под процессоры. Один хрен нужно для физики иметь отдельную карту, мало кто себе позволит каждый год менять топовую, кроме школоты. Сижу довольный 6950, отработала уже часть своей стоимости, когда на физику охота посмотреть, пожалуйста - ПЕЧ260 валяется, вроде как хватает её немного. Старые карты нвидиа только в помойку, а амд хотябы прибыль приносит постоянную. Дадут зелёные OpenCL на своих великих КУДА, можно будет говорить об их преимуществах, а так только всё в играх да на словах маркетологов.

2

benderlab Ты меня не понял. Это не КУДА обосралась, это заведомо известное преимущество AMD в данной проге (а там ясно дали понять, что написана она под AMD). Это всё ровно, что программу написанную под Win7 пытаться эксплуатировать Симбианом. В данной проге я за электроэнергию отдам больше,чем заработаю лаврухи, а из вычислительных процессов будет только с меня за перерасход электричества за месяц. Конечно, процесс накопления копеек у меня пошёл, но не будем умалчивать скорость интернета при этих вычислениях, ведь моя скорость составляет 8 мегабит в секунду (в среднем 1 Мегабайт в сек.) (с графиком начислений ты, наверняка, знаком). С другой стороны свой графический адаптер я покупал не для каких-то "сомнительных" вычислений (это не отговорка), а чтобы комфортно себя чувствовать, без ограничений, в играх - ведь только для этого я выложил более 13 тыс. карбованцев (RUR). По-поводу PhysX: 1. на печке 260 ты вряд ли увидишь всех прекрас, которые несёт в себе игра (а если честно, адаптер фуфловый, по нынешним меркам, но вполне адекватный). Я считаю глупо отрицать преимущество с ... и без ... . Скажу больше, мой "кондиционер" зашивается по-полной, если PhysX выставлен на MAX, но ощущения не передаваемые (это в "тяжёлых", и не только, гамах). Оговорюсь, реально желательно иметь вторую карту (поддерживающую, на которую можно повесить PhysX, дабы не отвлекать основную). А какие эффекты ... . Посмотри ( наверняка знаком ) на Ютубе. 2. не нужно иметь себе 2ю карту для поддержки физикса, если твой "кондиционер" топовый и поглощает игры как удав бандерлогов, но соглашусь - желательно (ведь 2я будет работать на PhysX, а основная - шпилить графику) . В вашем случае (AMD) это называется, по-моему, Кроссфаер ( в нашем SLI). Здесь, чисто технический вопрос. А зелёные дают OpenGL 4.2 (это для моего адаптера, а так 4.3 для максимального адаптера), ну это я так к слову. Что-то у меня сегодня сайт тупит (перегружен сервер ПлейГраунда) - перехожу на ссылку "ответить" - всегда выкидывает в начало страницы. Извиняюсь, если не корректно ответил. А ,вообще, не будем "ругаться" и спорить - моё предпочтение "зелёные", твои "Красные", должна же в этом мире быть хоть какая-нибудь борьба :)

2

demanik1 Спасибо за консультацию и тихое (не навязчивое) сопровождение. Я, вообще, очень редко учавствую в полемиках, да и во всевозможных форумообразных дискуссиях. Сколько людей, как говорится, столько и мнений или на вкус и цвет - все фломастеры разные (из современного).

2

benderlab Давай глубже рассмотрим работу PhysX (будем придерживатся темы данного форума): 1.В первом тестировании GeForce GTX 680 и Radeon HD 7970 в Batman: Arkham City представители NVIDIA были заметно быстрее. С новыми драйверами ситуация иная. По средней частоте кадров в номинале и в разгоне лидирует Radeon HD 7970, но по минимальному fps лучше GeForce GTX 680. По этому параметру флагману AMD не уступает и GeForce GTX 670.

2.При активации аппаратного PhysX на первое место выходит GeForce GTX 680. Хотя и Radeon HD 7970 демонстрирует неплохой fps. С разогнанным Core i7, который будет просчитывать физические эффекты в отсутствие в системе карты NVIDIA, можно вполне играть и на Radeon, хотя просадки будут более заметными. При разгоне преимущество системы с GeForce GTX 680 становятся более внушительным.

Там в источнике (Смотри ниже) много чего "вкусного" для осмысления, но Радеоны считаю отличной заменой, кого не устраивают "зелёные". Источник - http://www.overclockers.ua/video/amd-radeon-hd7970-his-geforce-gtx680-gigabyte/4/ Извиняюсь за непомерно длинный источник, форум не предусматривает гиперссылки.

2

О сомнительных вычислениях или почему AMD лучше в вычислениях. Rublik(Bitcoin майнер)выполняет простейшие арифметические операции в огромных количествах. Совершенно не играет роли 8 GB GDDR5 памяти на ультра-частоте и способность заграшивать 60 гигапикселей в секунду. Нужны шейдеры, которые, грубо говоря, одновременно будут складывать числа. Чем их больше, тем больше операций в секунду, тем быстрее. Конкретно на примере картинки

Что такое x2 я, к сожалению, не знаю. Возможно, там два кристалла по аналогии с 6990. В любом случае, NVIDIA делает шейдеры, оптимизированные под сложные операции (например, обработка изображений). Их на плате меньше, но в граф. задачах они сравнимы с «тупыми» шейдерами AMD, которые догоняют в производительности за счет большего количества. Очевидно (правда же?), что с простыми арифметическими операциями и те, и другие справляться будут примерно одинаково, но у AMD их тупо больше. Немного влияет реализация OpenCL через CUDA на картах NVIDIA, в то время как AMD отказались от своего Fusion SDK (или как он у них назывался) и «полюбили» OpenCL уже достаточно давно. Не то чтобы CUDA хуже, просто в нашем случае это лишние накладные расходы. А вот здесь и далее, например, сравнивают производительность OpenCL на текущих топовых поколениях видеокарт: http://www.thg.ru/graphic/obzor_geforce_gtx_660_ti_test/obzor_geforce_gtx_660_ti_test-05.html

2

Почему GPU AMD больше подходят для майнинга чем GPU Nvidia? Во-первых, AMD конструирует свои GPU с использованием большого количества простых ALU (VLIW-архитектура), работающих на низких тактовых частотах (в среднем 1120-3200 ALU на частотах 625-900 МГц), в то время как конструкция GPU Nvidia состоит из меньшего числа более сложных ALU, что компенсируется повышением тактовой частоты ( в среднем 448-1024 ALU на частотах 1150-1544 МГц). Из-за разниц в архитектуре GPU ALU Nvidia занимают большую площадь, чем ALU AMD, соответственно Nvidia размещает в чипе меньшее количество ALU. Это и приводит к выигрышу GPU AMD в решении задач, в которых важнейшим является производительность ALU: AMD Radeon HD 6990: 3072 ALU x 830 МГц = 2550 миллиардов 32-битных инструкций в секунду Nvidia GTX 590: 1024 ALU x 1214 МГц = 1243 миллиардов 32-битных инструкций в секунду Эта примерно 2х-3х кратная разница в производительности наблюдается во всём диапазоне линеек GPU от AMD и Nvidia, что сказывается в скорости решения всех ALU-связанных задач, таких как Bitcoin, подбор пароля (брутфорс) и т.д. Во-вторых, алгоритм майнинга в Bitcoin основан на SHA-256, основная операция которого исполняется 1 инструкцией в GPU AMD (BIT_ALIGN_INT), но требует исполнения 3 инструкций в GPU Nvidia (2 shifts + 1 add), что даёт выигрыш производительности GPU AMD в 1,7 раза по сравнению с GPU Nvidia (около 1900 инструкций для AMD и около 3250 инструкций для Nvidia исполняются для функции сжатия SHA-250). Суммарно эти 2 фактора делают производительность GPU AMD в 3-5 раз выше при майнинге в Bitcoin.

2

А про единственное видимое мной преимущество зелёных над красными я скажу только одно. В данный момент физический движок PhysX может работать только в паре с видеокартами NVIDIA GeForce последних поколений (необходима поддержка CUDA) – это сильно мешает компании NVIDIA продвигать физические расчеты и свою собственную лицензируемую технологию в массы. Зачем нужен движок, который не будет работать с видеокартами ATI Radeon? Особенно тяжко станет с полномасштабным приходом платформы OpenCL и интерфейса DirectX 11 с его Compute Shader. К примеру, OpenCL позволяет производить те же физические расчеты средствами любого графического чипа на любой платформе, будь то Radeon или GeForce, Windows или Linux. Как сообщил директор группы разработчиков PhysX Надим Мохаммад (Nadeem Mohammad), компания NVIDIA тщательно исследует рынок и портирует PhysX на OpenCL тогда, когда это станет необходимо (читать, когда появится достойный конкурент PhysX). Господин Мохаммад также уточняет, что видеокарты конкурента могут не порадовать пользователей скоростью при математических расчетах – какова будет производительность ATI Radeon при работе с PhysX никто не знает. Разумеется, никаких сроков NVIDIA не называет. Не называет и скорей всего не назовёт, ибо если физикс переедет на OpenCL, то мы увидим максимальные настройки физики даже на средних картах амд

2

benderlab 1. Что такое x2 я, к сожалению, не знаю. Ответ: это означает двухядерный видеоадаптер. Во всех конечных сериях ( gtx590 и gtx690) - это означает 2а видеоядра. 2. Ты всё красиво и доступно обрисовал о возможностях зелёных и красных - цифры, буквы. Но это всё математика. А как же быть с играми (и простыми пользователями), ведь я обычный юзер и мне главное не майнинги, а FPS и PhysX. Огромный тебе респект за консультацию. После твоего информирования стал по иному смотреть на AMD. Но зелёные для игр и только игр считаю непревзойдёнными (громогласно, да?).

2

krollfest В последних двух сериях так сказать нельзя, скорей на равных они, разве что физикс преимущество(плюсанул тебе) а 450 у тебя для физикса торчит в конфиге?

2

benderlab Дело в том, что у меня действительно 2е видеокарты: GTS450 + GTX670. И, вправду сказать, не разу не тестил их вкупе, да и зачем - имея, практически, самый топовый видеочип (на сей час). Да и побаиваюсь попалить блок питания - надо умощняться ( а вдруг он утянет за собой GTX670, а это не дешёвое удовольствие), но заявляю с полной ответственностью - физикс реально можно разгружать на более слабый видеочип, в настройках обозначить ведущего-ведомого. Правда сейчас выходят игры, где разработчики рекомендуют разгружать физикс на более мощные адаптеры, нежели GTS450 (пример: последний BATMAN, ну а с выходом CRYSIS 3 думаю дело ещё круче ужесточится - там физикс просто зашкаливает, подразумеваю - надо иметь GTX670 SLI (AMD CrossFireX)). В CRYSIS 3 пока не гамал, как и полстраны жду "аспирин". P.S. Сейчас уже конкретно не помню, но в последнем BATMAN разгрузка физикс осуществляется на gtx460 и выше, ну конечно по-мимо основного видеоадаптера. P.S.S. На офсайте для запуска CRYSIS 3 на MAX yстановках рекомендуют иметь под капотом gtx680. Вот это мясо - игры растут быстрее железа, и не угнаться :) Скоро Nvidia GeForce GTX Titan (игровая, недавно анонсированная) и Nvidia Quadro 6000 (профессиональная карта и цена у неё оё-ой, правда она не заточена под игры, предназначена для 3д моделирования) будут пылиться на полке. Шучу. Рост и потребности современных игр конечно радуют, но чёрт, где же взять столько бумажек для реализации своих слабостей.

2

krollfest это корявая оптимизация.. 100% даю кукурузис на новых консольках пойдёт лучше чем на ПеКа

2

NVidia уже начинает становиться раком перед AMD, чую, через несколько лет AMD займет первое место производителя видеокарт. Ведь в отличии от зеленопузых, у них нет такой ублюдочной ценовой политики, да и производительность видеокарт повыше и гонятся они лучше. Думаю, что следующей моей видеокартой станет решение от AMD.

1

AMD процессоры (не видеокарты :D) всегда мне были верны и прослужили не мало лет. За это им нужно дать печенек. Да и Xbox 360 хорошо у меня проработал, до 3-х огоньков :D (Arcade version)

1

Arion_50 А у меня и без нагрузки вылетает, вообще-то. Ну если хочешь с нагрузкой - в фар край 3 52 градуса. На ультра.

1

deathbox56 видать ты не в курсе, что представляет собой физика, раз не замечаешь простых физических эффектов в играх. игр с PhysX тьма тьмущая.

1

root_222 Ну могу сказать тока одно, что первые видео карты с поддержкой тесселяции появились далеко не в 2009 году и разработала её не АМД http://ru.wikipedia.org/wiki/TruForm

1

benderlab Ну там 4 потока, работает как 4-ёхъядерный. Мне кажется, Intel Core i3-540 на LGA1156, матки к которой уже стоят копейки будет отличным игровым процом.

1

AMD пора на дно Байкала)))

0

MeHHanik Они и щас понополисты. Весь рынок поделили всего две конторы.

0

Кому то ещё интиресны эти компьютерные железки в век консолей нового поколения?

0

Да вообще плевать, Nvidia лучше просто потому что она лучше, и точка.Всмысле первая карта Nvidia, это уже как религия)

0

Ахаха вполне нормальная новость , когда уже люди поймут что амд с ихними радеонами полный слив , ах да забыл очень большой минус нищебродо радеоны не поддерживают физикс )

0

Hudsоn греется видюха термопаста засохла, термопасту смени

0

Rassels Nvidia она лутше несмешы на мойом 1 пк была 8800 згорела через 2 месяца!!

0

когда вылетает цвета плывут

0

это всё конечно круто, но чёрт подери когда уже будет хоть какая то новость относительно Physx от AMD? они обещали что сделают его и до сих пор не наблюдаю его в играх

0

AMD рулит! засуньте интел и нвидию себе в задницу... хотя нет! не суйте... есть большая вероятность обжечься

0

Согласно закону "Тихо стырел и ушёл называется нашёл))))" они не вчём не виноваты)))

0

Плюсики минусики заеб№;%ли((( С гемс ТВ слизали а оно надо было???

0

Печаль конечно((( Но AMD пора на свалку уже давным давно!!!!!! Даже сотрудники уже уходят из этой долбаной компании!! А, да они вставлять чипы AMD в консоли, понятно теперь чего консоли такое дно)))) AMD всегда копирует все у гиганта Intel, так кто ещё что крадёт?? Высунули свой нос)))

0
ЗАГРУЗИТЬ ВСЕ КОММЕНТАРИИ