Это уже как-то слишком пессимистично Но даже если и так, думаю у каждого есть шанс из последнего вагона перебраться хотя бы в середину. Естественно, это удастся далеко не всем.
Кстати, всем 3Dшникам на заметку: скоро это станет более чем рентабельно во всех смыслах, когда наконец выпустят рендереры с поддержкой CUDA, OpenCL или DirectX Compute, которые позволят рендерить именно при помощи графических процессоров - тогда на просчёт ray tracing будет затрачиваться от нескольких секунд до буквально нескольких минут! Вот тогда действительно будет где разгуляться!
На Render.ru появилось интересное интервью с представителем nVidia на эту тему. Первые тесты рендеринга графическим процессором уже показывают 20-кратное преимущество в скорости по сравнению с современными 4-ядерными процессорами.
Кстати, всем 3Dшникам на заметку: скоро это станет более чем рентабельно во всех смыслах, когда наконец выпустят рендереры с поддержкой CUDA, OpenCL или DirectX Compute, которые позволят рендерить именно при помощи графических процессоров - тогда на просчёт ray tracing будет затрачиваться от нескольких секунд до буквально нескольких минут! Вот тогда действительно будет где разгуляться!
На Render.ru появилось интересное интервью с представителем nVidia на эту тему. Первые тесты рендеринга графическим процессором уже показывают 20-кратное преимущество в скорости по сравнению с современными 4-ядерными процессорами.
Это заблуждение, хотя и очень популярное
Мы делаем и продаем изображение, а не "чистый рендер". А применение 3D в производстве изображение на порядки увеличивает время и соответственно и себестоимость. При этом самом по себе этап рендера занимает относительно всего остального не так уж и много времени (10%-15%). Так что CUDA, OpenCL или DirectX Compute в большинстве случаев особого выйгрыша в производстве не дадут. Разве только для подготовки анимации к презентациям. Если раньше использовали OpenCL для этих целей, c то с новыми картами можно будет делать Ray tracing - в результате картинка станет симпатичнее.
Честно говоря, Ваша реплика мало понятна от начала до конца... Поясните, что именно Вы называете заблуждением? Увеличение скорости рендеринга или что? Вы вообще поняли, о чём идёт речь и в курсе, что такое CUDA, OpenCL и DirectX Compute? Как понимать выражение: "мы продаем изображение, а не чистый рендер"? "Применение 3D в изображение на порядки увеличивает время и соответственно себестоимость" (орфография сохранена) - это вообще о чём, и, извиняюсь, на каком языке? А что означает фантастическая смысловая конструкция "применение 3D в изображение"? Время чего и себестоимость чего? А что это за "подготовка анимации к презентациям"? Что, анимация существует только для презентаций? С каких это пор "раньше использовали OpenCL"? Его до сих пор ещё толком никто не использует, только ведутся разработки. Может, Вы путаете OpenCL с OpenGL, a DirectX Compute - компонент новейшей 11-й версии DirectX - с Direct3D? "С новыми картами можно будет делать ray tracing - картинка будет симпатичнее" - вот уж действительно насколько гениальный и глубокомысленный вывод .
В общем, не обижайтесь, но Ваше сообщение - какой-то набор абстрактных не связанных между собой фраз, не обремененных смыслом... Максимум, что смог предположить, это то, что Вы приняли ускорение финального рендеринга за ускорение моделирования, которое действительно давно применяется через стандартные интерфейсы OpenGL и Direct3D и на процесс финального рендеринга естественно никоим образом не влияет, но моделирование и рендеринг - это совершенно разные вещи и путать их не стоит.
Последний раз редактировалось alexey-dn, 08.12.2009 в 03:22.
Не удивительно, что моя "реплика" Вам не понятна Видимо у Вас не очень большая практика в области 3D. Скорее всего по этой же причине Вы сделали скоропалительный вывод о наступлении эпохи рентабельности 3D c выходом на рынок графических процессоров с поддержкой RayTracing-а. Я уже писал, что сам по себе рендеринг занимает лишь небольшую часть от всего времени создания изображения средствами 3D. И его сокращение даже в 20 раз никакого ощутимого влияния на рентабельность оказать не может. 3D как было так и останется медленным и дорогим инструментом. Почему? Это отдельный разговор
PS Да Вы совершенно правы, я конечно имел ввиду OpenGl. Это была опечатка. Остальная часть моего предыдущего сообщения остается без изменений. Если что не понятно - спрашивайте. С удовольствием отвечу на все здравые вопросы.
У меня к Вам никаких вопросов нет и врядли появится, а спорить о том, у кого какая практика и ещё что у кого больше - это, извиняюсь, детский сад и здесь этому не место. Если ещё раз прочитать моё сообщение, то можно понять, что, во-первых, никто никаких скоропалительных выводов не делал, а во-вторых, никто никаких графических процессоров с вышеупомянутой технологией не выпускал. Речь шла о разработке программных средств, позволяющих задействовать мощности графических процессоров при финальном рендеринге вместо центральных процессоров. При этом совершенно не шла речь о том, кто сколько времени затрачивает на моделирование той или иной 3D сцены.
Если у Вас рендеринг занимает малую часть времени - что ж, за Вас можно порадоваться. Но, думаю, нет особого смысла упоминать о многочисленных сервисах удалённой визуализации 3D сцен, предназначенных как раз для ускорения этого "незначительного" процесса, а также об общеизвестном факте, что именно процесс финального рендеринга зачастую занимает много времени, особенно в домашних условиях . А также о том, что при создании полнометражных CG-мультфильмов по "совершенно неизвестным науке причинам" почему-то используются многопроцессорные кластеры из тысяч процессоров (интересно, зачем - ведь это же так быстро - раз-два и отрендерил ).
И вопрос ускорения рендеринга именно в домашних условиях актуален, потому что вычислительные мощности, позволяющие делать это очень быстро, для создания стоковых изображений не применяются, поскольку стоят больших денег и дома, как правило, не обитают. А вопрос о том, почему архитектура графических процессоров гораздо более эффективна для визуализации 3D по сравнению с x86-архитектурой и почему она не могла быть задействована до сих пор - это также отдельный разговор. Я недаром привёл ссылку на интервью с представителем nVidia, подкреплённое богатым демонстрационным материалом. Вы ещё скажите, что у него тоже "недостаточная практика в 3D и он тоже в рендеринге ничего не рубит" .
Последний раз редактировалось alexey-dn, 08.12.2009 в 16:56.
Ну на мою производительность, а значит и на рентабельность, сокращение времени рендеринга в 20 раз хорошо бы повлияло ) На качество тоже, т.к. я виреем с текстурами, светом и тенями, из-за долгой визуализации, практически не пользуюсь. А т.к. качество повысится -- то и продаваться лучше будет, что опять же влияет на рентабельность. Осталось только раздобыть все эти технологии )
Ну так никто ж не верит . Вот цитата оттуда же: "хочется сказать, что разработчики уделяют этому огромную долю внимания — ведь получить визуализатор, который будет использовать GPU для увеличения скорости рендера - это очень большой шаг вперед." - видимо, какой-то профан ляпнул, у которого тоже "недостаточная практика" . Как раз Chaosgroup - разработчик vRay и ведёт над этим эксперименты, в статье даже есть 2 видеоролика, демонстрирующие 20-кратное преимущество. Но, видимо, это никому не нужно и зря они трудятся...
Последний раз редактировалось alexey-dn, 08.12.2009 в 16:50.