Цитата:от:ДМБ
Не столь убогим, сколь упорно не желающим что-либо читать и самообразовываться. Видеокарта выполняет две основных функции - графического процессора (вычислителя) и интерфейса между компьютером и монитором. И если с точки зрения вычислителя частенько нет никакой разницы в способе функционирования карты, то вот вытащить из такого вычислителя нужный результат - это ещё нужно постараться. Различие между картами введено во многом искусственно и частенько призвано банально обогащать производителей. Видеобработчики нашли способ обходить эти ограничения и самые разумные из них используют при работе с 10-битным цветом несколько обычных игровых видеокарт, а потом выводят наружу сигнал через дополнительную простейшую интерфейсную видеокарту. В фото обработке это не всегда финансово оправдано и видеокарты с OpenGL и OpenCL также могут заметно ускорить обработку во многих фотошопных фильтрах. Если давать ответ по выбору карт для 10-битных мониторов совсем коротко, то - https://www.benq.eu/en-fi/support/downloads-faq/faq/product/application/monitor-faq-k-00020.html
Если чуть глубже, то можно посмотреть у производителей - "NVIDIA Geforce graphics cards have offered 10-bit per color out to a full screen Direct X surface since the Geforce 200 series GPUs. Due to the way most applications use traditional Windows API functions to create the application UI and viewport display, this method is not used for professional applications such as Adobe Premiere Pro and Adobe Photoshop. These programs use OpenGL 10-bit per color buffers which require an NVIDIA Quadro GPU with DisplayPort connector. A small number of monitors support 10-bit per color with Quadro graphics cards over DVI."
"Лишние" биты в бытовухе используются вовсе не для более точного представления цвета, а для более полезного в бытовухе расширения выходного ДД карты и соответственно монитора. Сейчас фирмы вполне разумно начали использовать не только отдельные слова "цвет" и "ХДР", но и более доступное обывателям словосочетание, например, -
"The 2080 Ti – along with the other two RTX GPUs – actually support a maximum 8K resolution (7680 x 4320) at 12 bits of HDR colour at 60Hz over a DisplayPort 1.4 connection, but gamers are far more likely to be dialling down to 4K which sees all the 20-Series Nvidia GPUs supporting 12-bit HDR at 144Hz."
Не вижу смысла расписывать здесь более подробно, все различия карт и программ-редакторов многократно описаны в интернете.Подробнее
Уважаемый эксперт слышал звон, но точно не знает, где он, при этом не видит смысл расписывать. Это понятно - толковых статей на русском, каким же образом работает технология FRC , нет, копипастить неоткуда. Но есть немного на английском, судя по цитатам на английском, уважаемый эксперт в нем вероятно понимает, но если нет - есть онлайн переводчики. Для начала рекомендую почитать вот это An Introduction to Understanding 8-bit vs. 10-bit Hardware https://www.pugetsystems.com/labs/articles/An-Introduction-to-Understanding-8-bit-vs-10-bit-Hardware-987/
По ссылке описано , как работает FRC - пиксели дисплея мигают быстро-быстро, переключаясь между соседними цветами, у наблюдателя это создает ощущения дополнительных оттенков. Мигает именно дисплей, который оснащен системой FRC, а не сигнал от видеокарты. Вот еще ссылка , статья находится на сайте уважаемой компании EIZO, в статье есть текст и картинка, где достаточно чётко указано, что расширение цвета ( Color Expansion )в случае работы системы FRC происходит в дисплее, преобразуется именно 8-ми битный сигнал от видеокарты https://www.eizo.com/library/basics/maximum_display_colors/
К тому же , подавляющее большинство видеокарт не имеет возможности отправить на дисплей сигнал 10bit . Следовательно, для обеспечения работы функции FRC, видеокарта с режимом 10bit не нужна, для обеспечения псевдодесятибитного отображения нужен дисплей 8bit+2FRC .Магия визуального увеличения количества кажущихся цветов происходит в самом дисплее, иначе преимуществами технологии FRC смогли бы воспользоваться только владельцы видеокарт с поддержкой 10bit. Преимущества 8bit+2FRC следует рассматривать в сравнении с дисплеями 8bit
Поисковые запросы на видеокарты с поддержкой цвета 10bit ведут на сайт Nvidia со списком карт Nvidia Quatro и базу знаний , датированную аж 2011 годом https://nvidia.custhelp.com/app/answers/detail/a_id/3011/~/10-bit-per-color-support-on-nvidia-geforce-gpus , вероятно, в 2011 году так и было, карты с поддержкой 10bit, кроме Nvidia Quatro , отсутствовали.
Сейчас у меня на руках два дисплея - HPZ27s true 10bit https://www.displayspecifications.com/ru/model/6a86773 и Viewsonic VP2770-led с 8bit+2FRC https://tftcentral.co.uk/reviews/viewsonic_vp2770-led.htm .
В драйвере моей видеокарты Nvidia 1060 есть галка 10bit (10bpc), которая становится активной при подключении дисплея HP Z27s с true 10Bit матрицей , вот ссылка на скриншот https://yadi.sk/i/oaSzcFt6H0ymeQ или вот еще https://yadi.sk/i/QYDT3kUes_0dlg
При подключении дисплея Viewsonic VP2770-led с 8 bit+2FRC галка 10bpc исчезает, становится неактивной, можно выставить только режим 8bit( 8bpc) , при попытке активировать режим 10bpc становится активным режим 8bpc , вот ссылка на скриншот https://yadi.sk/i/nOA7R3ddifl12Q.
Толково разъяснить, что это за настройки, уважаемый эксперт не может, судя по всему, копипастить неоткуда...
Так что неплохо было бы восполнить пробелы, в том числе и на практике, вместо жутких возмущений и феерического надпредельного вашего бреда))