Три туза в рукаве NVIDIA

Железо  Добавил eVerTY   14.01.2010 в 19:22   2366  Распечатать страницу


 

На рынке видеоускорителей ATI и NVIDIA конкуренция традиционно была очень высока. А сегодня она и вовсе достигла своего апогея. Два основных игрока на рынке нынче предлагают очень схожие по производительности продукты, в результате чего во всех ценовых нишах между конкурентами достигнут паритет. Ни одна из компаний сейчас не может предложить кардинально лучший продукт. Ценовая война, затеянная AMD, также зашла в тупик, так как дальше снижать цены на многие видеокарты просто некуда. Всё это побудило компании искать новые возможности для привлечения покупателей к своим видеокартам, потому как, повторюсь, оперировать сегодня перед покупателем одним лишь тем фактом, что твоё видео быстрее, становится всё сложнее…


Первой с этой проблемой стала бороться компания NVIDIA. В качестве одной из мер, она решила разработать ряд оригинальных технологий, которые стали бы ещё одним «плюсиком» в пользу решений GeForce. В феврале 2007 года, после выхода видеокарт серии GeForce 8800, она представила технологию CUDA, предназначенную для ускорения «неграфических» задач. Затем, в августе 2008 стала доступна NVIDIA PhysX - ещё одна технология от этой компании. PhysX является физическим движком - он служит для ускорения физики в играх и переноса её обсчёта с процессора на видеокарту, что теоретически должно сильно ускорить данный процесс. Ну и, наконец, в январе 2009 «зелёный гигант» выпустил в свет своё последнее технологическое детище – технологию GeForce 3D Vision. Она представляет собой, пожалуй, самую интересную из описываемых сегодня «игрушек». 3D Vision, по сути, может фундаментально изменить восприятие 3D, став самым значительным изменением в графике со времён появления самого 3D.

Собственно об этой троице (CUDA, PhysX и 3D Vision) мы сегодня и поговорим. Мы постараемся доступно рассказать о наиболее важных моментах каждой из них, дабы наши читатели смогли оценить те преимущества, которые они дают (или не дают...)

Image 

CUDA

Предназначением технологии NVIDIA CUDA является перенос «неграфических» вычислений на графический процессор (GPU). Грубо говоря, она создана для того, что бы на видеокартах можно было выполнять вычисления, которые обычно выполняются на процессорах (CPU). Как это работает – совсем другой разговор, не касающийся нас, конечных потребителей. Всё что нас волнует – это конечный результат, а не процесс.

Итак, рассмотрим, те преимущества, которые даёт CUDA. Самым главным из них является возможность использовать всю ту мощь, что «хранят в себе» GPU. Ведь ни для кого, ни секрет, что по производительности видеокарты уже давно обошли обычные процессоры.

Image  

На графике чётко видно как далеко ушла теоретическая производительность видеокарт от таковой у процессоров

Результатом такого мощного рывка видеокарт стало заявление NVIDIA о том, что их GPU GeForce в ряде задач производительнее процессора вплоть до 150 раз. Конечно, эти красивые цифры не следует воспринимать буквально, но всё же слова маркетологов не беспочвенны. Уже сегодня многие ресурсоёмкие программы получили поддержку CUDA. Так, например, программа Distributed Password Recovery (подборщик паролей) работает с видеокартой до 25 раз!!! быстрее, нежели с четырёхядерным процессором.

Image 

Тем не менее, не всё так гладко как хотелось бы. Как и у большинства других разработок у данной технологии тоже есть свои минусы. Во-первых, следует помнить тот факт, что не все вычисления хорошо переносятся на видеокарты (например, на сегодня не удаётся «портировать» архивирование). Во-вторых, софт, оптимизированный под GPU, в основном носит профессиональное и научное значение. Он малоинтересен обычному пользователю. Однако среди него есть и исключения. Например: Nero Move it, Adobe Photoshop, Adobe Premier Pro, Mathematica и Cyberlink PowerDirector. Тот же видеоредактор Cyberlink PowerDirector 7 при включении CUDA кодирует видео из MPEG-2 в AVC до 2.5 раз быстрее.

Image 

Пример использования CUDA на практике: ускорение кодирования видео до 2-3 раз

Третьим и, пожалуй, самым весомым недостатком технологии NVIDIA CUDA является её закрытость. Она работает только на видеокартах GeForce (начиная с 8 серии и выше). Кроме того доступ к разработке самого языка программирования CUDA и SDK к нему имеется только у NVIDIA. Это значит, что CUDA, как и любой другой закрытый проект, рано или поздно умрёт. Тем более что в последнее время у этой разработки появился ряд серьёзных конкурента:

Image 

  • OpenCL – открытый проект, претендующий на звание отраслевого стандарта(поддерживаемый как ATI, так и NVIDIA)

  • ATI Stream – своеобразный аналог CUDA, только от компании AMD. Поддерживается последними видеокартами Radeon и построен на базе вышеупомянутого OpenCL. В некоторых приложениях наряду с CUDA имеется поддержка и ATI Stream, где он часто проявляет себя не хуже конкурента. Отрицательным фактором является скудная поддержка со стороны ПО, ввиду новизны технологии.


Image 

PhysX

Перед началом описания данной технологии, мы, пожалуй, позволим себе углубиться в некий исторический экскурс…

История NVIDIA PhysX началась с того, что в сентябре 2007 года корпорация Intel совершенно неожиданно для всех купила небезызвестную компанию Havok. Havok к тому моменту являлась безоговорочным лидером в деле компьютерной физики. Её технологии использовались в сотнях игр и десятках фильмах. После покупки процессорный гигант заявил, что закрывает проект Havok FX (который должен был сделать возможным использование мощности видеокарт ATI и NVIDIA для физических расчётов). Всем было понятно, что теперь Intel монополизирует игровую физику для своих многоядерных процессоров. NVIDIA нужно было срочно искать решение сложившейся проблемы, так как её видеокарты могли остаться «за бортом». И решение было найдено. В феврале 2008 NVIDIA заявила о покупке компании Ageia, которая на тот момент являлась вторым игроком на рынке физики. Ageia была известна своим чипом PhysX, предназначенным для быстрого обсчёта физики, а также физическим программным движком PhysX SDK (некий аналог Havok). После приобретения Ageia в компании заявили, что чип PhysX дальнейшего развития не получит, а вот PhysX SDK переименуют в NVIDIA PhysX, он станет частью CUDA и будет интегрирована в драйвер NVIDIA ForceWare. Конкурент NVIDIA – компания AMD/ATI в свою очередь после некоторых раздумий примкнула к Intel и договорилась о сотрудничестве в деле оптимизации физики Havok под видеокарты Radeon и процессоры Phenom.

К чему мы это всё рассказали? А к тому, что NVIDIA PhysX в принципе не является собственной разработкой NVIDIA. Она была куплена. И куплена, в некоторой степени, не по своей воле, а от острой необходимости в собственном физическом движке. Хорошо это или плохо? Думаем, ничего плохого… Просто нам хотелось, чтобы любой наш читатель знал о данном факте.

Image 

Итак, приступим, наконец, к изучению самой технологии NVIDIA PhysX. Как вы уже, наверное, догадались из названия и из выше прочитанных строк она предназначена для ускорения физических эффектов. Не мне вам рассказывать насколько сегодня в играх важна физика. Почти во всех из них есть подсистема, которая симулирует физические законы реального мира, что, в свою очередь, повышает реалистичность игрового процесса. «Фишкой» же NVIDIA PhysX, отличающей её от конкурентов, является возможность обсчёта этих самых законов силами видеокарты, вместо традиционного метода задействующего процессор. Как и в случае с CUDA такой метод должен сильно ускорить процесс. Со стороны «железа» официально поддерживаются, разумеется, только карты от NVIDIA (GeForce 8 и старше). Со стороны игр дела обстоят получше - технологию уже сегодня поддерживают более 70 проектов, и ещё несколько десятков готовится к релизу.

Авторы технологии уверяют нас в том что «NVIDIA PhysX обеспечивает гипер-реалистичные физические игровые эффекты и окружения в реальном времени в играх», а также говорят о способности «PhysX обеспечить экспоненциальный прирост мощности при обработке физики». Сегодня мы вкратце рассмотрим оба этих заявления. Посмотрим на увеличение FPS, которое по заверениям компании должно произойти после включения PhysX.

Для примера возьмём всем известные игры начала года - Mirror's Edge и Анабиоз: Сон разума, а также видеокарту GeForce GTX 260.

Image 

PhysX off. - PhysX выключен; PhysX on. - PhysX включен и работает через процессор (CPU) или видеокарту (GPU)

Image 

PhysX off. - PhysX выключен; PhysX on. - PhysX включен и работает через процессор (CPU) или видеокарту (GPU) 

Посмотрев на полученные результаты можно сделать два вывода:

  • NVIDIA PhysX действительно великолепно работает с видеокартами, «уделывая» процессоры на всех фронтах. При переводе обработки физики с процессора на видеокарту средний FPS возрастает в 4 раза! Это великолепный результат, в очередной раз подтверждающий силу современных GPU. Приходится признать, что тут нас маркетологи NVIDIA не обманули. PhysX действительно способен обеспечить экспоненциальный прирост мощности при обработке физики. 

  • Прирост этот обеспечивается «относительно процессора», а не относительно общей производительности. То есть если PhysX отключить вовсе, то количеств кадров возрастёт. Приходится констатировать тот факт, что включение PhysX приводит к падению производительности (в нашем случае на 25%). И чем слабее будет карта, тем сильнее будет падение.

В общем если при игре вы чувствуете запас FPS и у вас видеокарта от NVIDIA, то можете смело использовать PhysX. Ну а в случае, когда уровень FPS граничит на уровне комфортного или даже ниже, то включение физических эффектов лишь ещё сильнее ухудшит положение. Хотя, это и так понятно :)

Утверждение о приросте в скорости мы в некоторой степени проверили, если же говорить о "красотах" получаемых вследствие использования технологии, то они зависят только от обилия физических обьектов использованных в конкретной игре. Другими словами - если в загрузке игры будет фигурировать лейбл - "PhisX", это отнюдь не значит, что продукт предоставит вам "физическое обилие". Но если, при этом, в настройках будет отдельно выделяться эта строчка, то готовьтесь получить серезное превосходство в реалистичности игры.

Image

Пример использования PhysX в Mirror's Edge

Конечно, лишь в очень узком круге игр PhysX реально влияет на геймплей (например - провальный Cell Factor). На сегодня он является скорее приятным дополнением к графике, нежели чем-то кардинально новым. Однако мы думаем, недалёк тот час, когда подобные технологии будут очень сильно влиять на игровой процесс, а пока вполне довольствуемся такими эффектами как реалистичные ткани, жидкости, эффекты турбулентности и полной разрушаемости.




Image 

3D Vision

3D Vision одна из последних анонсированных технологий от NVIDIA. Она предназначена для получения объёмного изображения в домашних условиях. До недавних пор к развитию подобных продуктов, можно было относиться весьма скептически, так как единичные продукты от малоизвестных фирм, с кучей недостатков, да ещё и продающиеся по огромным ценам были малоинтересны подавляющему числу пользователей. Однако похоже можно говорить, что ситуация быстро меняется: за стереоскопию взялись большие ребята.

Принцип получения объёмного изображения относительно прост, всё, что для этого необходимо — это показать левому глазу одну картинку, а правому другую, так, как будто бы разные глаза смотрят на объект с разных сторон; всю остальную работу ваш мозг сделает самостоятельно.

Если с физиологической точки зрения всё относительно просто, то с технической будет посложнее. В результате этого на сегодня существует масса способов показа глазам разных изображений, причём можно быть уверенным, что со временем их станет ещё больше. Вариант, выбранный NVIDIA, на наш взгляд, является самым оптимальным. Вот его техническая формулировка - монитор, работающий с частотой обновления в 120 Гц, поочерёдно показывает кадры, предназначенные для левого и правого глаза соответственно; при этом специальные очки, с жидкокристаллическими шторками также поочерёдно затемняя разные глаза, формируют для каждого из них свою картинку с частотой в 60 Гц. Плюсами такого варианта является возможность выбора любого понравившегося вам монитора, необходимым требованием является лишь поддержка этих самых 120 Гц; в то время как конкуренты навязывают свои модели мониторов в обязательном порядке. Например, таже AMD, разрабатывающая в данный момент совместно с iZ3D конкурирующую технологию, основным преимуществом которой будут очень дешёвые очки, но в тоже время более дорогие и редкие мониторы.

Image

Примерно так будут выглядеть очки от AMD

Сами очки представляют собой, так сказать, комплекс, состоящий из двух жидкокристаллических экранов, аккумулятора и сопутствующей электроники. Внешне они смотрятся довольно обыденно, заподозрить с первого взгляда, что очки «с сюрпризом» довольно сложно.

Image

Очки беспроводные, сигнал передается по инфракрасному порту; питание осуществляется от встроенного литий-ионного аккумулятора. Всё это добро (электроника и аккумулятор) расположено в наплыве на левой дужке. К слову в NVIDIA заверяют, что зарядка протянет 40 часов.

Image

Инфракрасный передатчик, служащий для синхронизации очков с системой

 

Повторюсь, для работы с GeForce 3D Vision необходим монитор поддерживающий частоту обновления в 120 Гц (по 60 Гц на каждый глаз). На сегодня существует лишь две таких модели: Samsung 2233RZ и ViewSonic VX2265wm. Кроме того поддержкой обладают 120 Гц - телевизоры и проекторы. Среди телевизоров это DLP-модели от Mitsubishi, а среди проекторов - DepthQ HD 3D, ViewSonic PJD-6210-3D и 6220-3D. Небогатый скарб как видите – всего две модели мониторов да малодоступные и дорогие телевизоры и проекторы. Но я уверен, что ситуация в этом направлении будет стремительно меняться, вслед за Samsung и ViewSonic свои модели должны представить и другие компании.

Теперь поговорим о другой составляющей части GeForce 3D Vision – видеокарте. Стерео 3D от NVIDIA можно запустить на всех относительно мощных карточках NVIDIA.

Image

Список видеокарт совместимых с 3D Vision 

Как видно в списке отсутствуют видеокарты слабее GeForce 9600 GT, то есть 9600 GTS, 9500 GT и т.д. Это обусловлено тем, что подобные карты просто не смогут потянуть те нагрузки, что налаживает на них использование 3D Vision. Как показывают тесты, активация объёмного изображения от NVIDIA приводит к двукратному падению производительности! И это неудивительно, ведь видеоадаптеру приходится за тоже время рассчитывать вдвое больше кадров (для каждого глаза свой кадр). Кроме того заявляется о поддержке SLI, хотя те же самые тесты выявили, что она никоим образом на производительность не влияет; будем надеяться, что данную оплошность устранят в ближайших драйверах.

Ну и наконец, то ради чего всё это затевалось – игры. На сегодняшний день официальной поддержкой обладают более 350 проектов. Их список имеется на сайте компании, в нём можно найти почти все хоть сколь-нибудь значимые игры последних лет. Сам список разделён на три части – по уровню поддержки 3D Vision (отличный, хороший и удовлетворительный). И это не всё – если игра там отсутствует, это не значит, что она несовместима – просто вероятно тестеры NVIDIA до неё ещё не добрались.

Image 

наиболее совместимые игры

NVIDIA утверждает, что уже поставляет разработчикам игр стереоскопическое оборудование, поэтому в компании надеются увидеть уже этой осенью игры с отличной стереоскопической оптимизацией. Когда это случится, привлекательность GeForce 3D Vision заметно вырастет. Будем надеяться, что к тому моменту цены на очки и мониторы заметно снизятся.

Ведь цена сегодня является, пожалуй, самым весомым недостатком 3D Vision. За свои активные очки NVIDIA сегодня просит $200, совместимый с ними монитор Samsung 2233RZ 120 Гц обойдётся счастливому покупателю в $400 – весьма немало надо сказать. Хотя при этом вы получите весьма неплохой, стильный, 22’’ монитор. И это только официальные цены; на практике же сегодня за монитор с поддержкой 3D Vision продавцы дерут целых $530. Чуть получше с очками - при рекомендованных 200 баксах их можно найти за 170. Также в продаже имеются комплекты монитор+очки – от 840 мёртвых президентов. И того владение GeForce 3D Vision на данный момент обойдётся в сумму от 700 до 840 долларов. Даже если предположить, что цены вскоре опустятся до рекомендованных, цена 3D Vision всё равно составит 600 вечнозелёных и это при том, что в системе уже установлена мощная видеокарта. Стоит ли овчинка выделки – решать вам, но, на мой взгляд, пока это дороговато.

Можно не сомневаться, что с поддержкой со стороны игр проблем не возникнет, ведь благодаря знаменитой программе «The Way It's Meant To Be Played» NVIDIA сегодня прилаживает руку к большинству новых игр. Со стороны железа серьёзных проблем также нет – видеокарты NVIDIA продаются по приемлемым ценам и в широком ассортименте, а мониторы и очки, я думаю, в самое ближайшее время подешевеют, благо отыскать их в продаже уже сегодня не составляет труда. На мой взгляд, технология GeForce 3D Vision действительно может фундаментально изменить современное 3D . Сегодня сдерживающим фактором для неё является лишь цена. Преодолев этот недостаток, 3D Vision, однозначно, обеспечит для себя светлое будущее.

Image 

Dead End?

При чтении обзора последней видеокарты AMD или NVIDIA, наверняка на первом месте для вас стоит производительность. По этой же причине в многочисленных обзорах присутствует большое количество тестов. Они дают вам представление о производительности, после чего вы оцениваете стоимость, доступность и конкурентов, может быть даже такие факторы как шумность, энергопотребление и разгонный потенциал, а затем приходите к решению: стоит покупать или нет. Сегодняшнее мини-исследование показывает, что к вышеперечисленному перечню следует добавить и поддерживаемые той или иной видеокартой дополнительные технологии, такие как CUDA, PhysX, 3D Vision.

В начале статьи мы говорили о том, что одной из целей разработки данных технологий являлось желание NVIDIA создать ещё один «плюсик» в пользу своих видеокарт GeForce. Так вот, на наш взгляд, с этой задачей в компании успешно справились. На сегодня при всех равных (таких как производительность, ценна и т.д.) решения GeForce, будут смотреться несколько более выгодно именно благодаря поддержке описанных выше технологий; но, конечно, если карточка GeForce будет слабее равной в ей цене Radeon даже на процентов 20, то ни какие технологии тут уже не помогут... хотя... с этим можно и поспорить.

В тоже время следует отметить тот факт, что у единственного конкурента AMD/ATi на данный момент отсутствует единый фронт подобных технологий. То есть, на каком-то фланге ATi только-только представила своё конкурентное предложение (как например конкурент CUDA – технология ATi Stream), на каком-то их технология вот-вот выйдет (как например конкурент 3D Vision), а где-то и вовсе царит безмолвие (ситуация с сотрудничеством AMD и Intel). Хотя с другой стороны все технологии, разрабатываемые AMD/ATi, основаны на открытых стандартах, а значит - получат поддержку не только от самой AMD, но и от многих сторонних компаний, в то время как предложения NVIDIA по большей части носят закрытый характер и им рассчитывать на стороннюю поддержку неоткуда. Какая из предложенных копаниями концепций победит покажет время, ну а в силу последних событий -  пока, впереди NVIDIA.


Добавлять комментарии могут только зарегистрированные пользователи.
Регистрация :: Вход
Хостинг от uCoz
© 2018 f0xZ Gaming
Яндекс цитирования Rambler's Top100