Sony запустила в продажу первые PlayStation 3 80GB Core, отличающиеся отсутствием совместимости с PS2 и новым графическим чипом RSX. На всех новинках отныне будет установлена 65nm-ревизия графического процессора от NVIDIA.
Отличием PlayStation 3 80GB от предшественниц помимо расширенной памяти станет пониженное энергопотребление, как следствие и меньшая теплоотдача. Результаты замеров потребляемой мощности старых и новых моделей можно посмотреть на одном из англоязычных форумов. Разница в энергопотреблении колеблется от 11-ти до 16-ти %, максимальный эффект достигается при полной нагрузке консоли.
65nm-ревизия графического процессора от NVIDIA. оО
новый это типа тока на новом тех процессе ? 2 нах
в топку.
MS перевела XB360 на 65nm (Falcon) уже боле 8 месяцев назад. Спит Соня... ;)) ИМХО: лучше бы они архитектуру долбанного Cell поменяли, может тогда-бы разрбы не "шарахались" от перспектив разработки/адаптации игр под этот проц...
Облом....
Мда, заботливая Сони. Расширенная память, как мило, а что делать тем, кто уже купил плойку? Также и с PSP было, когда Сони выпустила Slim версию с удвоенной оперативой, поначалу было незаметна разница, но потом начали выходить игры, полную красоту которых могли увидеть только владельцы слимок.
Half-LifeR Назови хоть одну такую игру, отличие 2000 от 1000 только то что из-за увеличенной памяти на ней есть skype з.ы. Говорю как обладатель и fat, и slim.
Ха-ха-ха. Ати уже год клепает 55-нм видеочипы, а скоро перейдет на 40-нм! А такой крупный производитель электроники до сих пор сует в свои коробки устаревшие комплектующие. :)
RUSXP +1
Half-LifeR Расширенная память - это винтчестер на 80гигов имеется ввиду. Оперативку не трогали.
"до сих пор сует в свои коробки устаревшие комплектующие" Ну, не на складе ж им пылиться..
DogmaRus Хоть одну игру? Chains of Olympus, на слиме она выглядит лучше. LamaS А ну если так, то тада все ок.
"Chains of Olympus, на слиме она выглядит лучше." Также она выглядит.
GlamKilla wrote: MS перевела XB360 на 65nm (Falcon) уже боле 8 месяцев назад. Спит Соня... ;)) У m$ выбора не было, их боксы как вшивая хуuня горели, вот и пришлось менять, а Сони зачем лишнии затраты? Работает все на отличненько и ладно. А сейчас, просто видимо старые чипы не выпускают, вот и суют новые, с более низкими энергопотреблением и теплоотдачей (65нм).
GlamKilla, что значит архитектуру поменяли бы?)) половину ядер бы из процессора убрали? Вся сложность при разработке и заключается в использовании максимального числа ядер, а не только 3-х, как на Xbox. В сущности система команд и операций на всех процессорах одинаковая или идентична.
RUSXP Ну NVIDIA вообщет, опережала всегда и досихпор опережает своего конкурента, так что ты ща хуuню спорол. Тут уже дело в том, что просто еще более новые чипы в плойку не суют.
GlamKilla ***MS перевела XB360 на 65nm (Falcon) уже боле 8 месяцев назад. Не надо путать.Она перевела Цпу на 65 нм,вместо 90 нм.И все это тольео через 2 года.Гпу так и остался 90 нм. Цпу у Сони уже давно 65 нм,скоро будет 45 нм.И вот теперь и Гпу.И все это намного быстрее бокса.
Классно, только вот плохо, что это не скажется на цене в лучшую пользу. Мне вот не понятно, как так можно было запароть совместимость с играми от PS2?
А я купил себе 80 гб уже) Причем попал очень дешево. Вон в Москве 40 Гб + МГС4 = 500 евро, а я купил 80 гб + МГС4 + Дуалшок3 за 400)
Relice "Также она выглядит." Странно, а многие замечали разницу. Посмари на форумах. "Ну NVIDIA вообщет, опережала всегда и досихпор опережает своего конкурента, так что ты ща хуuню спорол." 4870х2 рвет, как щенка GTX280. NТN "в использовании максимального числа ядер" Как громко сказано, ядро там тока 1, а остальные семь - мелкие сопроцессоры, которые даже вместе неспособны образовать по мощности одно полноценное ядро. Более менее польза от них будет тока в специально оптимизированном коде, вот тогда Cell способен показать хорошую производительсть. В то время, как у бокса 3, но полноценных ядра. По мощи, что Cell, что Xenon - примерно одинаковы. Вся сложность состоит не в использовании максимального числа ядер, а в максимальном использовании их возможностей. Хотя реально использовать тока 5 из этих SPU, ибо одно зарезервировано под ОС, а второе под обработку звука в игре. Dron "И все это тольео через 2 года" Через полтора. "И все это намного быстрее бокса." Опять за свое? Старые песни о главном XX. Хех, уже по моему 100 раз говорилось и обсуждалось, что мощи бокса и плойки примерно одинаковы. То, что на плойке вышел красивый GT5...это ничего не доказывает, время приставок нынешнего поколения еще не кончилось, поэтому подводить итоги рановато, да и в GT5 красивые тока машины, окружение там средненькое. А что там будет в будущем (конечно же в твоем понимании, когда сонибои захватят власть в правительствах мира и в каждый рулон туалетной будут встраивать по плойке с уникальными эксклюзивами) - этого ни ты, ни я...не знаем. Хотя с твоими то блестящими предсказательскими способностями :) duskhp "как так можно было запароть совместимость с играми от PS2?" It's a Sony.
Half-LifeR ***Опять за свое? Старые песни о главном XX. Хех, уже по моему 100 раз говорилось и обсуждалось, что мощи бокса и плойки примерно одинаковы. Паранойя?Ты про что?Лично я про то,что на пс3 намного быстрее меняется техпроцесс. Менее чем через год Цпу перешел на 65 нм,вместо 90 нм.Менее чем через два года еще и Гпу на 65 нм,вместо 90 нм. Скоро еще Цпу будет 45 нм,вместо 65 нм. А на боксе лишь через 2 года наконецто Цпу стал 65 нм,и только через 3 года Гпу собирается переходить на 65 нм.
только подверглась теплоотдача одача и все? а видеочип токойже вопче производительность таже консоли железо тои -есть...????
только подверглась теплоотдача одача и все? а видеочип токойже вопче производительность таже консоли железо тои -есть...
"4870х2 рвет, как щенка GTX280." Я сейчас не про кого кто рвет, а про кто первее все делает и выпускает. Во всех технологиях у NVIDIA карточки были первее всегда, а пиписькомерство попугями и фпсами мне не интересно, ибо даже и 280GTX хватает по уши. У ATI постоянно этот мудеж с драйверами и к какому пачту не взгляни от игр, везде найдется строка "исправлена проблема на картах АТИ..." ))) ATI конечно тоже молодцы, выпускают аналоговую конкуренту карту позже ну и есстесно она будет сильнее, куль тут необычного?
4870х2 конечно, это хоть и одна видеокарта, но двухчиповая. ати хороша ценой, немного уступает по характеристикам, но стоит дешевле. А в данном случае, видеокарты для приставок, немного другое положение дел, так что не надо фаворита на пк переносить на приставки.
перевод на новый техпроцесс случается не тогда, когда его придумывают, а когда выгодно экономически. Нужны затраты на разработку и внедрение, а при малых количествах производственных линий копеечное уменьшение стоимости не выгодно, надо ждать подходящего момента. И ПС3 настолько совершенна технически, что Сони торопиться некуда.
У мну 60 гигов и с совместимостью с ПС2 и мне эта совместимость дороже 20 гигов, так что фтопку
а я свои пс2-лицки распродаю потихоньку :)
Relice Ну NVIDIA вообщет, опережала всегда и досихпор опережает своего конкурента, так что ты ща хуuню спорол. Тут уже дело в том, что просто еще более новые чипы в плойку не суют. После провальной серии FX5xxx Nvidia уже на протяжении нескольких лет отстаеёт от АТИ в плане внедрения техпроцесса , посмотри у АТИ уже почти год выпускаются карты по 55нм , Нвидиа только буквально недавно начала на него переходить , а свои чипы GT200 только под конец года переводёт на 55нм , так что уж в чём в чём а в техпроцессе АТИ уже давно впереди. Relice Я сейчас не про кого кто рвет, а про кто первее все делает и выпускает. Во всех технологиях у NVIDIA карточки были первее всегда, а пиписькомерство попугями и фпсами мне не интересно, ибо даже и 280GTX хватает по уши. У ATI постоянно этот мудеж с драйверами и к какому пачту не взгляни от игр, везде найдется строка "исправлена проблема на картах АТИ..." ))) ATI конечно тоже молодцы, выпускают аналоговую конкуренту карту позже ну и есстесно она будет сильнее, куль тут необычного? По поводу драйверов исправляют ошибки к играм к которым Нвидиа приложила свои руки , в АТИ же не нострадамусы сидят чтобы предсказать чего там разработчики с подачи Нвидиа налепят. АТИ свои чипы rv770 анонсировала в частности 4850 на неделю позже чем GT200 , а 4870 на 2 недели , я думаю ума хватит понять что за такой срок чип разработать невозможно? А двухчиповая вышла 12 августа , архитектура чипов таже просто их 2 , то что нвидиа до сих пор не может выпустить 2-х чиповую GTX280 это их проблемы , они до сих пор ненаучились делать карты с 2 чипами на одной плате , а тупо склеивают 2 карты (чудо технологии прям) , но GTX280 такой кипятильник что охладить 2 чипа будет практически не реально , пока на 55нм не переведут .
Jekk перевод на новый техпроцесс случается не тогда, когда его придумывают, а когда выгодно экономически. Нужны затраты на разработку и внедрение, а при малых количествах производственных линий копеечное уменьшение стоимости не выгодно, надо ждать подходящего момента. И ПС3 настолько совершенна технически, что Сони торопиться некуда. Перевод на техпроцесс происходит тогда , когда его до блеска оттачивают и оборудования и производственные мощности позволяют это сделать , т.к экономически более тонкий техпроцесс всегда более выгоден и с точки зрения уменьшения кристалла и с точки зрения кол-ва выхода годных чипов , оба этих фактора позволяют экономить на одном чипе с перехода с 90нм на 65 до 40% денежных средств.
В SLI nvidia была первой, и только потом у ATI появился аналог crossfire (3dfx в рачет не берут). С шейдерами и другими графическими прорывами nvidia также первее. По поводу драйверов исправляют ошибки к играм к которым Нвидиа приложила свои руки , в АТИ же не нострадамусы сидят чтобы предсказать чего там разработчики с подачи Нвидиа налепят. Бред параноики. Аля, мол "нвидиа всех купили, чтобы игра не игралась на картах ати"
Relice А превая двухчиповая карта ATI rage Fury. С какими ещё графическими прорывами Нвидиа кроме шейдеров была первой ? :)))) Ни для кого не секрет , что все игры особенно впервые дни их выхода ( пока не появятся драйвера от АТИ ) выпущенные под маркой The way it's meant to be played работают намного хуже чем на картах Нвидиа и часто глючат (Crysis , Lost planet , Stalker и др) , после обновления драйверов все глюки пропадают и часто карты АТИ в играх выпущенных под эгидой Нвидиа , показывают куда лучший фреймрейт.
Relice "Во всех технологиях у NVIDIA карточки были первее всегд" Напомнить про радеон 9700, который, как снег на голову упал? Про радеон Х800 тоже напомнить? "С шейдерами и другими графическими прорывами nvidia также первее." Впервые шейдеры вообще появились на картах АТИ. "Аля, мол "нвидиа всех купили, чтобы игра не игралась на картах ати"" А как ты называешь вездесущую "It's meant to be played"? Никак за халяву лепят значок? Поэтому АТИ приходится как-то выкручиваться самой после выхода соответствующих игр. duskhp "но двухчиповая" а суть не в этом. Суть в том, что рвет, так еще и дешевле.
Не во всех играх присутствует "It's meant to be played", где в патчах исправляются баги на картах АТИ.
Relice На таких играх не всё идеально и с картами Нвидиа , а то что выходят патчи с исправлениями багов на картах , спрашивается чем разработчики занимались до этого ?
Мне как потребителю всеравно, что там разработчики делают, я пользуюсь NVIDIA, и доволен, нет проблем с драйверам и нет проблем с играми. Ранее мне както удостоилось пользоваться продукцией ATI, да и на работе стоят ATI карты, эти криворукие так и не научились делать нормальный драйвера.
Relice Знаеш я тоже пользуюсь как Нвидиа так и АТИ и у меня лично никогда проблем никаких не возникает .
Relice Я пользуюсь тоже и Нвидиа и АТИ и тоже нет проблем ни на тех видюхах ни на тех.
Значит мне "повезло". В любом случае, впечатление мне от карт ATI уже попортилось.
Relice щас у меня тоже Nvidia, до этого была Radeon X1900XT, не жаловался ни на дрова, ни на производительность.
Позавчера поставил ATI Hd 4850 512 mb доволен до усрачки, все игры летают на максе (тот же крайзис со сглаживанием "x8" - это показатель не путать с каким нить там смайлом)... P.S Даже игры которые требуют intel core 2 duo у меня летают на максе, на разрешение 1280:1024 (максимальное разрешение моего моника), хотя у меня Pentium D 2.8 Ghz (двухядерный процессор)... Помнится мне на одном из железных форумов мне предлагали NVIDIA 8800 GTS 52 mb (в то время я хотел взять ATI HD 3870 512 mb), но появилась ATI HD 4850 которую я сразу же взял (до похода в магазин планировал взять 3870), пришёл домой почитал про карту, оказывается она уделывает по производительности NVIDIA 9800 GTX...
kung-furious DX9, я так понял.
Half-LifeR В крайзисе тоесть в его системной папке я изменил конфигурационные файлы (тоесть заменил все значения High на Very high) и теперь это тот же DX 10... P.S Я честно говорю она у меня летает и я точно уверен, что все фичи которые используются в DX10 доступны и у меня, те же, солнечные лучи которые проходят сквозь листву, та же, красивая HDR водичка, parallalx и многое другое...
Если у тебя WinXP, то ни о каком Dx10 не может быть и речи. Изменения и всякие там плюшки дополнительные хоть и делают похожим графику, но всеравно разница есть, весьма заметная.
Relice И в чём разница ? Скажи-ка мне, ведь если ты и на DX 9 и на DX 10 играл, ты должен знать различия, тем более если по твоим словам они такие заметные (!)... P.S А если не играл, то откуда ты можешь знать ? Эти видео ничего не расскрывают (!)...
Потвоему я тебе сейчас словами буду все графические плюшки ДХ10 из игры описывать? Ты в своем уме? Погугли, да увидишь сравнения. И вообще учи матчасть и читай, чем отличается Dx10 технически от Dx9. P.S. представь себе я играл, и знаю.
да замена файлов в хп д9х на д10х в крайзе дает картинку на максимум проверено.лучще скажите кто пробовал вливать в соньку-3 видиео типа мкв. и другие форматы видео hd планирую соньку в роли проигрывателя использавать
Relice Все эти скриншоты 1000 раз рассматривал и сравнил со своими скриншотами из игры, разницы 0...
sergik78 Мукс менее чем за минуту делается в m2ts и смотри спокойно. kung-furious Ты в динамике сравни, и разница не 0. Почитай статью на ixbt, там сравнивали какраз, разницу очень видно.