PlayStation 3 80GB вышла с новым чипом RSX

Sony запустила в продажу первые PlayStation 3 80GB Core, отличающиеся отсутствием совместимости с PS2 и новым графическим чипом RSX. На всех новинках отныне будет установлена 65nm-ревизия графического процессора от NVIDIA.
Отличием PlayStation 3 80GB от предшественниц помимо расширенной памяти станет пониженное энергопотребление, как следствие и меньшая теплоотдача. Результаты замеров потребляемой мощности старых и новых моделей можно посмотреть на одном из англоязычных форумов. Разница в энергопотреблении колеблется от 11-ти до 16-ти %, максимальный эффект достигается при полной нагрузке консоли.

Комментарии: 49
Ваш комментарий

65nm-ревизия графического процессора от NVIDIA. оО

0

новый это типа тока на новом тех процессе ? 2 нах

0

MS перевела XB360 на 65nm (Falcon) уже боле 8 месяцев назад. Спит Соня... ;)) ИМХО: лучше бы они архитектуру долбанного Cell поменяли, может тогда-бы разрбы не "шарахались" от перспектив разработки/адаптации игр под этот проц...

0

Мда, заботливая Сони. Расширенная память, как мило, а что делать тем, кто уже купил плойку? Также и с PSP было, когда Сони выпустила Slim версию с удвоенной оперативой, поначалу было незаметна разница, но потом начали выходить игры, полную красоту которых могли увидеть только владельцы слимок.

0

Half-LifeR Назови хоть одну такую игру, отличие 2000 от 1000 только то что из-за увеличенной памяти на ней есть skype з.ы. Говорю как обладатель и fat, и slim.

0

Ха-ха-ха. Ати уже год клепает 55-нм видеочипы, а скоро перейдет на 40-нм! А такой крупный производитель электроники до сих пор сует в свои коробки устаревшие комплектующие. :)

0

Half-LifeR Расширенная память - это винтчестер на 80гигов имеется ввиду. Оперативку не трогали.

0

"до сих пор сует в свои коробки устаревшие комплектующие" Ну, не на складе ж им пылиться..

0

DogmaRus Хоть одну игру? Chains of Olympus, на слиме она выглядит лучше. LamaS А ну если так, то тада все ок.

0

"Chains of Olympus, на слиме она выглядит лучше." Также она выглядит.

0

GlamKilla wrote: MS перевела XB360 на 65nm (Falcon) уже боле 8 месяцев назад. Спит Соня... ;)) У m$ выбора не было, их боксы как вшивая хуuня горели, вот и пришлось менять, а Сони зачем лишнии затраты? Работает все на отличненько и ладно. А сейчас, просто видимо старые чипы не выпускают, вот и суют новые, с более низкими энергопотреблением и теплоотдачей (65нм).

0

GlamKilla, что значит архитектуру поменяли бы?)) половину ядер бы из процессора убрали? Вся сложность при разработке и заключается в использовании максимального числа ядер, а не только 3-х, как на Xbox. В сущности система команд и операций на всех процессорах одинаковая или идентична.

0

RUSXP Ну NVIDIA вообщет, опережала всегда и досихпор опережает своего конкурента, так что ты ща хуuню спорол. Тут уже дело в том, что просто еще более новые чипы в плойку не суют.

0

GlamKilla ***MS перевела XB360 на 65nm (Falcon) уже боле 8 месяцев назад. Не надо путать.Она перевела Цпу на 65 нм,вместо 90 нм.И все это тольео через 2 года.Гпу так и остался 90 нм. Цпу у Сони уже давно 65 нм,скоро будет 45 нм.И вот теперь и Гпу.И все это намного быстрее бокса.

0

Классно, только вот плохо, что это не скажется на цене в лучшую пользу. Мне вот не понятно, как так можно было запароть совместимость с играми от PS2?

0

А я купил себе 80 гб уже) Причем попал очень дешево. Вон в Москве 40 Гб + МГС4 = 500 евро, а я купил 80 гб + МГС4 + Дуалшок3 за 400)

0

Relice "Также она выглядит." Странно, а многие замечали разницу. Посмари на форумах. "Ну NVIDIA вообщет, опережала всегда и досихпор опережает своего конкурента, так что ты ща хуuню спорол." 4870х2 рвет, как щенка GTX280. NТN "в использовании максимального числа ядер" Как громко сказано, ядро там тока 1, а остальные семь - мелкие сопроцессоры, которые даже вместе неспособны образовать по мощности одно полноценное ядро. Более менее польза от них будет тока в специально оптимизированном коде, вот тогда Cell способен показать хорошую производительсть. В то время, как у бокса 3, но полноценных ядра. По мощи, что Cell, что Xenon - примерно одинаковы. Вся сложность состоит не в использовании максимального числа ядер, а в максимальном использовании их возможностей. Хотя реально использовать тока 5 из этих SPU, ибо одно зарезервировано под ОС, а второе под обработку звука в игре. Dron "И все это тольео через 2 года" Через полтора. "И все это намного быстрее бокса." Опять за свое? Старые песни о главном XX. Хех, уже по моему 100 раз говорилось и обсуждалось, что мощи бокса и плойки примерно одинаковы. То, что на плойке вышел красивый GT5...это ничего не доказывает, время приставок нынешнего поколения еще не кончилось, поэтому подводить итоги рановато, да и в GT5 красивые тока машины, окружение там средненькое. А что там будет в будущем (конечно же в твоем понимании, когда сонибои захватят власть в правительствах мира и в каждый рулон туалетной будут встраивать по плойке с уникальными эксклюзивами) - этого ни ты, ни я...не знаем. Хотя с твоими то блестящими предсказательскими способностями :) duskhp "как так можно было запароть совместимость с играми от PS2?" It's a Sony.

0

Half-LifeR ***Опять за свое? Старые песни о главном XX. Хех, уже по моему 100 раз говорилось и обсуждалось, что мощи бокса и плойки примерно одинаковы. Паранойя?Ты про что?Лично я про то,что на пс3 намного быстрее меняется техпроцесс. Менее чем через год Цпу перешел на 65 нм,вместо 90 нм.Менее чем через два года еще и Гпу на 65 нм,вместо 90 нм. Скоро еще Цпу будет 45 нм,вместо 65 нм. А на боксе лишь через 2 года наконецто Цпу стал 65 нм,и только через 3 года Гпу собирается переходить на 65 нм.

0

только подверглась теплоотдача одача и все? а видеочип токойже вопче производительность таже консоли железо тои -есть...????

0

только подверглась теплоотдача одача и все? а видеочип токойже вопче производительность таже консоли железо тои -есть...

0

"4870х2 рвет, как щенка GTX280." Я сейчас не про кого кто рвет, а про кто первее все делает и выпускает. Во всех технологиях у NVIDIA карточки были первее всегда, а пиписькомерство попугями и фпсами мне не интересно, ибо даже и 280GTX хватает по уши. У ATI постоянно этот мудеж с драйверами и к какому пачту не взгляни от игр, везде найдется строка "исправлена проблема на картах АТИ..." ))) ATI конечно тоже молодцы, выпускают аналоговую конкуренту карту позже ну и есстесно она будет сильнее, куль тут необычного?

0

4870х2 конечно, это хоть и одна видеокарта, но двухчиповая. ати хороша ценой, немного уступает по характеристикам, но стоит дешевле. А в данном случае, видеокарты для приставок, немного другое положение дел, так что не надо фаворита на пк переносить на приставки.

0

перевод на новый техпроцесс случается не тогда, когда его придумывают, а когда выгодно экономически. Нужны затраты на разработку и внедрение, а при малых количествах производственных линий копеечное уменьшение стоимости не выгодно, надо ждать подходящего момента. И ПС3 настолько совершенна технически, что Сони торопиться некуда.

0

У мну 60 гигов и с совместимостью с ПС2 и мне эта совместимость дороже 20 гигов, так что фтопку

0

а я свои пс2-лицки распродаю потихоньку :)

0

Relice Ну NVIDIA вообщет, опережала всегда и досихпор опережает своего конкурента, так что ты ща хуuню спорол. Тут уже дело в том, что просто еще более новые чипы в плойку не суют. После провальной серии FX5xxx Nvidia уже на протяжении нескольких лет отстаеёт от АТИ в плане внедрения техпроцесса , посмотри у АТИ уже почти год выпускаются карты по 55нм , Нвидиа только буквально недавно начала на него переходить , а свои чипы GT200 только под конец года переводёт на 55нм , так что уж в чём в чём а в техпроцессе АТИ уже давно впереди. Relice Я сейчас не про кого кто рвет, а про кто первее все делает и выпускает. Во всех технологиях у NVIDIA карточки были первее всегда, а пиписькомерство попугями и фпсами мне не интересно, ибо даже и 280GTX хватает по уши. У ATI постоянно этот мудеж с драйверами и к какому пачту не взгляни от игр, везде найдется строка "исправлена проблема на картах АТИ..." ))) ATI конечно тоже молодцы, выпускают аналоговую конкуренту карту позже ну и есстесно она будет сильнее, куль тут необычного? По поводу драйверов исправляют ошибки к играм к которым Нвидиа приложила свои руки , в АТИ же не нострадамусы сидят чтобы предсказать чего там разработчики с подачи Нвидиа налепят. АТИ свои чипы rv770 анонсировала в частности 4850 на неделю позже чем GT200 , а 4870 на 2 недели , я думаю ума хватит понять что за такой срок чип разработать невозможно? А двухчиповая вышла 12 августа , архитектура чипов таже просто их 2 , то что нвидиа до сих пор не может выпустить 2-х чиповую GTX280 это их проблемы , они до сих пор ненаучились делать карты с 2 чипами на одной плате , а тупо склеивают 2 карты (чудо технологии прям) , но GTX280 такой кипятильник что охладить 2 чипа будет практически не реально , пока на 55нм не переведут .

0

Jekk перевод на новый техпроцесс случается не тогда, когда его придумывают, а когда выгодно экономически. Нужны затраты на разработку и внедрение, а при малых количествах производственных линий копеечное уменьшение стоимости не выгодно, надо ждать подходящего момента. И ПС3 настолько совершенна технически, что Сони торопиться некуда. Перевод на техпроцесс происходит тогда , когда его до блеска оттачивают и оборудования и производственные мощности позволяют это сделать , т.к экономически более тонкий техпроцесс всегда более выгоден и с точки зрения уменьшения кристалла и с точки зрения кол-ва выхода годных чипов , оба этих фактора позволяют экономить на одном чипе с перехода с 90нм на 65 до 40% денежных средств.

0

В SLI nvidia была первой, и только потом у ATI появился аналог crossfire (3dfx в рачет не берут). С шейдерами и другими графическими прорывами nvidia также первее. По поводу драйверов исправляют ошибки к играм к которым Нвидиа приложила свои руки , в АТИ же не нострадамусы сидят чтобы предсказать чего там разработчики с подачи Нвидиа налепят. Бред параноики. Аля, мол "нвидиа всех купили, чтобы игра не игралась на картах ати"

0

Relice А превая двухчиповая карта ATI rage Fury. С какими ещё графическими прорывами Нвидиа кроме шейдеров была первой ? :)))) Ни для кого не секрет , что все игры особенно впервые дни их выхода ( пока не появятся драйвера от АТИ ) выпущенные под маркой The way it's meant to be played работают намного хуже чем на картах Нвидиа и часто глючат (Crysis , Lost planet , Stalker и др) , после обновления драйверов все глюки пропадают и часто карты АТИ в играх выпущенных под эгидой Нвидиа , показывают куда лучший фреймрейт.

0

Relice "Во всех технологиях у NVIDIA карточки были первее всегд" Напомнить про радеон 9700, который, как снег на голову упал? Про радеон Х800 тоже напомнить? "С шейдерами и другими графическими прорывами nvidia также первее." Впервые шейдеры вообще появились на картах АТИ. "Аля, мол "нвидиа всех купили, чтобы игра не игралась на картах ати"" А как ты называешь вездесущую "It's meant to be played"? Никак за халяву лепят значок? Поэтому АТИ приходится как-то выкручиваться самой после выхода соответствующих игр. duskhp "но двухчиповая" а суть не в этом. Суть в том, что рвет, так еще и дешевле.

0

Не во всех играх присутствует "It's meant to be played", где в патчах исправляются баги на картах АТИ.

0

Relice На таких играх не всё идеально и с картами Нвидиа , а то что выходят патчи с исправлениями багов на картах , спрашивается чем разработчики занимались до этого ?

0

Мне как потребителю всеравно, что там разработчики делают, я пользуюсь NVIDIA, и доволен, нет проблем с драйверам и нет проблем с играми. Ранее мне както удостоилось пользоваться продукцией ATI, да и на работе стоят ATI карты, эти криворукие так и не научились делать нормальный драйвера.

0

Relice Знаеш я тоже пользуюсь как Нвидиа так и АТИ и у меня лично никогда проблем никаких не возникает .

0

Relice Я пользуюсь тоже и Нвидиа и АТИ и тоже нет проблем ни на тех видюхах ни на тех.

0

Значит мне "повезло". В любом случае, впечатление мне от карт ATI уже попортилось.

0

Relice щас у меня тоже Nvidia, до этого была Radeon X1900XT, не жаловался ни на дрова, ни на производительность.

0

Позавчера поставил ATI Hd 4850 512 mb доволен до усрачки, все игры летают на максе (тот же крайзис со сглаживанием "x8" - это показатель не путать с каким нить там смайлом)... P.S Даже игры которые требуют intel core 2 duo у меня летают на максе, на разрешение 1280:1024 (максимальное разрешение моего моника), хотя у меня Pentium D 2.8 Ghz (двухядерный процессор)... Помнится мне на одном из железных форумов мне предлагали NVIDIA 8800 GTS 52 mb (в то время я хотел взять ATI HD 3870 512 mb), но появилась ATI HD 4850 которую я сразу же взял (до похода в магазин планировал взять 3870), пришёл домой почитал про карту, оказывается она уделывает по производительности NVIDIA 9800 GTX...

0

Half-LifeR В крайзисе тоесть в его системной папке я изменил конфигурационные файлы (тоесть заменил все значения High на Very high) и теперь это тот же DX 10... P.S Я честно говорю она у меня летает и я точно уверен, что все фичи которые используются в DX10 доступны и у меня, те же, солнечные лучи которые проходят сквозь листву, та же, красивая HDR водичка, parallalx и многое другое...

0

Если у тебя WinXP, то ни о каком Dx10 не может быть и речи. Изменения и всякие там плюшки дополнительные хоть и делают похожим графику, но всеравно разница есть, весьма заметная.

0

Relice И в чём разница ? Скажи-ка мне, ведь если ты и на DX 9 и на DX 10 играл, ты должен знать различия, тем более если по твоим словам они такие заметные (!)... P.S А если не играл, то откуда ты можешь знать ? Эти видео ничего не расскрывают (!)...

0

Потвоему я тебе сейчас словами буду все графические плюшки ДХ10 из игры описывать? Ты в своем уме? Погугли, да увидишь сравнения. И вообще учи матчасть и читай, чем отличается Dx10 технически от Dx9. P.S. представь себе я играл, и знаю.

0

да замена файлов в хп д9х на д10х в крайзе дает картинку на максимум проверено.лучще скажите кто пробовал вливать в соньку-3 видиео типа мкв. и другие форматы видео hd планирую соньку в роли проигрывателя использавать

0

Relice Все эти скриншоты 1000 раз рассматривал и сравнил со своими скриншотами из игры, разницы 0...

0

sergik78 Мукс менее чем за минуту делается в m2ts и смотри спокойно. kung-furious Ты в динамике сравни, и разница не 0. Почитай статью на ixbt, там сравнивали какраз, разницу очень видно.

0