Нужно отметить, что мнения игроков и разработчиков в этой области едва ли могут совпадать. Лично я озвучу именно второе мнение.
1. Сейчас наиболее перспективно использование OpenGL, а не Direct3D (почему это так, объяснять не буду, это уже другая тема). Так вот, в огл существует система расширений, для того чтобы разработчики имели возможность использовать новые возможности видеокарт сразу после выхода новых драйверов (а не нового API, как это получается с д3д). Но так как далеко не все эти возможности стандартизованы, и каждый разработчик имеет свой взгляд на вопрос, как должны выглядеть те или иные функции и настройки. Получается, разработчик должен определять, с какой видеокартой имеет дело, и использовать функции именно этой видеокарты, грубо говоря.
2. Теперь о расширениях. Компания Нвидиа входит в OpenGL Architecture Review Board уже очень давно (насчет АТИ я не знаю, может и входит, но явно не столь давно), поэтому вносит большой вклад в продвижение графических технологий. Существует большое число нвидивских расширений, которые есть конечно же только на ее видеокартах. Но эти расширения очень гибкие и удобные. Многие из них потом стандартизуются и появляются на других видеокартах (в т.ч. на радеонах), но далеко не все.
3. Теперь о возможностях карт от АТИ. Да, аппаратные возможности у них ничуть не хуже, а производительность может и выше, но это важно игрокам. А разработчикам важно наличие большого количества удобных средств для программирования графики. Вот тут то радеон и проигрывает. АТИ пыталась сделать какие то свои фичи (типа TruForm), но честно, лучше бы их не было А вот фичи нвидиа...
4. Конкретные примеры. Существует такое расширение - NV_register_combiners, появившееся на GeForce256 и позволившее нам делать полноценное попиксельное освещение а ля дум3. А что мы имеем на радеонах? Только на карточках с первыми шейдерами (типа 8500) можно это реализовать, но КАК это сделано... Я пробовал использовать ATI_fragment_shader, но увы, ничего не получилось. Конечно, понятно, что это от кривости рук и отсутствия радеона в постоянном доступе, но все же - не очень удобно и интуитивно это.
И еще один пример - недавний мой шейдер хроматической аберрации. Использованы стандартные АРБ-версии шейдеров, которые, как утверждается, полностью аналогичны на гефорсах и радеонах. И тем не менее - на гефорсе работает, а на радеоне - нет!!! Ну и о какой стандартности речь?
В общем, мораль такова - АТИ очень хочет пролезть наверх, к АРБ-кормушке, но ее туда никто не собирается пускать. Я не спорю - карточки у них шустрые, но то ли маркетинговая политика неправильная, то ли драйвера их программисты писать не умеют... И заставить заработать код на радеоне (который прекрасно работает на гефорсе) - задача нетривиальная.
XaeroX, вот уж будет поистине бесконечная тема. Ты - разработчик, я - геймер. Тебе нужны удобства в разработке, а мне - высокая производительность.
Цитата:
XaeroX писал: драйвера их программисты писать не умеют
Вот уж с чем не согласен так с тем, что дрова писать они не умеют. Благодаря оффициальным драйверам у меня все игрушки фурычат без б.
Цитата:
XaeroX писал: заставить заработать код на радеоне (который прекрасно работает на гефорсе) - задача нетривиальная
XaeroX, ты как обладатель видеоадаптера NVidia хорошо знаком только с возможностями этой видеокарты. Я уверен, если бы у тебя был Radeon, ты бы утверждал совершенно обратное.
Кстати, у меня раньше тоже была видеокарта NVidia. Если точнее - NVidia Riva TNT2 32MB. Впечатляет?
Security писал: Вот уж с чем не согласен так с тем, что дрова писать они не умеют
да это не я говорю... Это все говорят
Цитата:
Security писал: ты как обладатель видеоадаптера NVidia хорошо знаком только с возможностями этой видеокарты
почему же, я читаю документацию и на радеон, и знаю ее возможности (хотя безусловно хуже). И заметь - практически все статьи и примеры в интернете ориентированы именно на гыфорсы. Парадокс или тенденция?
Цитата:
Security писал: Если точнее - NVidia Riva TNT2 32MB. Впечатляет?
У меня дома такая. Изучил ее возможности до дыр (благо их там кот наплакал ) Хорошая карточка была... в 1999 году
XaeroX писал: практически все статьи и примеры в интернете ориентированы именно на гыфорсы
Согласен, тенденция. Но по-моему, разгонять первый движок Халфы уже бессмысленно. Его ахиллесова пята - хорошая отрисовка только малых пространств. А эффекты в новый движок Source добавляют сами разработчики, чем я и воспользуюсь, например HDR-освещением и киноэффектами фокуса.
Цитата:
XaeroX писал: Хорошая карточка была... в 1999 году
А я её, как сейчас помню, за 1499 кровных в Кее покупал... Ностальгия...
Security писал: Согласен, тенденция. Но по-моему, разгонять первый движок Халфы уже бессмысленно.
Ты думаешь, я до конца жизни буду заниматься улучением графики в хл? Это мой учебный полигон, по большому счету
Цитата:
Security писал: Уже двое против одного
Два геймера против одного девелопера?
Но все равно, вот буду я когда-нибудь писать движок для игры, контора сделает игру, может даже хорошую, и будет продавать. А я так любовно заточил движок под гыфорс, ну под радеоном он конечно тоже работает, но фишек поменьше графических и т.п. И что вы, господа геймеры, скажете? Да ничего. Если сама игра и вправду будет хорошей, вы будете жалеть, что у вас не гыфорс Так обычно и происходит. А гонять тесты и сравнивать фпс - это совсем другое дело, видюхи ведь для игр делаются, а не для тестов.
я не знаю ни одного примера игры, которая демонстрирует на радеонах больше фишек
А вот возьми к примеру Quake:Tenebrae и запусти ее на радеоне и на аналогичном гефорсе. И сравни фпс Все потому, что поддержку радеона там добавляли уже потом, абы как
Где-то я читал, что opengl для ATI просто не является приоритетным направлением (может из-за того, что они "продались" микрософту), и поэтому расширения у них появляются скупо, с опозданиями, и с глюками..
Один хрен, крайними окажутся разработчики. Геймерам мозг промыли, а издатели будут требовать от разработчика поддержки популярного железа..