Не пойму, почему речь зашла про полиграфию и hdr-кино, когда мы находимся в разделе "Видео для фотобанков"? Ещё и какие-то 6-битные мониторы с небом в полосочку и лужами в тенях...
Ну вот могу позволить себе говорить не только за видеопроизводство но и полиграфию, и коммерческое фото... что поделать стаж... Хотите ещё о 3D и спецэффектах поговорим, и тамошних проблемах битности? Разговор был о любом 4к мониторе, и рассматривалось на что смотреть, чтобы не слажать с выбором.
Цитата:
Мне кажется, немного не о том разговор изначально был А то так ведь можно и убогий и кривой 10-битный монитор найти - и его обсуждать, но смысл? Речь вроде шла про нормальные 8 бит на нормальной матрице.
Ещё раз повторюсь, 10 бит это реально шаг вперёд, можно работать и на 8 битах, но зачем покупать то, что уже морально устаревает... Остальное вы додумали.
Ну вот могу позволить себе говорить не только за видеопроизводство но и полиграфию, и коммерческое фото... что поделать стаж... Хотите ещё о 3D и спецэффектах поговорим, и тамошних проблемах битности? Разговор был о любом 4к мониторе, и рассматривалось на что смотреть, чтобы не слажать с выбором.
Опыт - это хорошо, а флуд в профильной ветке - не очень. Но тут вина, конечно, на том, кто создал ветку не там, где нужно, назвал её чёрт-те как, да ещё и по факту задублировал уже имеющуюся на форуме тему, не потрудившись воспользоваться поиском. Классика.
В итоге кто про Ивана, а кто про болвана - и смысла в таком обсуждении почти ноль. К тому же, когда разговор идёт на уровне субъективного восприятия вроде: "на одном моём мониторе картинка для меня лучше, чем на другом моём мониторе".
К тому же Merzavka поет одну и туже песню по кругу, не желая не только понять, а и прочитать написанное. Завтра появятся мониторы 128 бит, а он так же будет заявлять, что вот теперь то на много лучше все видно. А то раньше при 10, 24, 64 (далее по списку) битах была видна постеризация. Собственно на таких покупателей и рассчитывают производители.
Простой эксперимент. Создаем пустую 8 бит картинку в ФШ, заливаем градиентом. Видим переходы (неровности заливки). Повторяем с 16 бит картинкой. И о чудо! Никаких переходов не видно, все гладко и плавно. А экран то один.
Вывод: при подобных манипуляциях с 8 битной картинкой появляется погрешность, что очевидно. При 16 битах она уже за пределами нашего восприятия. То есть экран Retina на моем iMAC показывает достаточно плавно все оттенки и градации, чтоб глаз этого не замечал. Не знаю, какая у него битность. Может 512 бит?
кто там спрашивал, интерфейс в винде на 144hz намного плавнее, личный опыт
и я, честно говоря, не могу поверить что кто-то реально посидев за 144hz моником, не увидит разницы от 60hz
Не совсем понятно, что именно это значит, можете пояснить?
ну, к примеру, перетаскивая окно, или сворачивая\разворачивая его с анимацией.
да даже просто перемещение курсора
на 60hz при быстром перемещении курсора и тд видно "пошаговое" такое движение, на 144hz - этого почти нет. (на 240hz еще плавнее, но разница между 144 и 240 не так сильно ощущается, как между 60 и 144)
поработав за 144hz моником, и садясь за 60hz - кажется что там интерфейс лагает, как будто драйвера на видеокарту отвалились
Всё ещё не понимаю... У меня движение курсора мыши совершенно плавное, могу остановить её в любой точке, никакой пошаговости нет.
Может вы имеете в виду шлейф при движении курсора, окна и т.д.? Но он вроде зависит от скорости матрицы, а не от частоты обновления. И тут уж с чем сравнивать - если раньше человек работал на мониторе с медленной матрицей, а потом пересел на быструю, то он, конечно, сразу заметит разницу, даже если оба монитора - 60 Гц.
Опять же: лично я нисколько не сомневаюсь, что 144 Гц точно не хуже, чем 60 Гц В какой-то степени лучше. Другое дело, имеет ли это "улучшение" достаточное значение, чтобы обращать на него внимание? Для меня нет, для стоков тоже. На мой взгляд, лучше разницу в деньгах вложить в более заметные улучшения. Но это на мой взгляд.
Я так и понял - на этом видео показано сравнение скоростей матриц, а вовсе не частот обновления экрана. Потому, что шлейф - это результат именно низкой скорости матрицы. При низкой частоте обновления будут рывки между соседними кадрами, а никакого шлейфа как раз не будет.
На игровых примерах там особенно хорошо видно, что авторы путают тёплое с мягким. Скорее всего, просто у монитора 144 Гц матрица быстрее - и это логично. Шлейфы там есть, просто гасятся они быстрее, но их всё равно видно, если смотреть внимательно.
В общем ладно, я зачем-то обсуждаю, а тема лично мне не очень интересна, увлёкся Пойду лучше поработаю.
На всякий случай ещё раз повторю: я не сомневаюсь, что 144 Гц лучше, чем 60 Гц. Во многом потому, что мониторы 144 Гц будут иметь и более быстрые матрицы, чем мониторы 60 Гц. А дальше вопрос в том, насколько именно оно лучше в обычной работе (не в играх) и насколько оно стоит того для каждого человека в отдельности.