С подобными рабочими исо можно наверное уже и без вспышки :!:
https://www.dxomark.com/Cameras/Sony/A7-III
особенности цветопередачи и цветоделения на базовом ISO для различных беззеркальных камер.[mod]
Всего 362 сообщ.
|
Показаны 81 - 100
Re[Led Rom]:
Re[ppppiter]:
от:ppppiter
Вот такой результат по QE получается для беззеркалок
Полный кадр
1 - Leica M9-P
2 - Leica M-E Typ 220
3 - Leica M8
4 - Leica M9
5 - Leica M10
Кроп
1 - Samsung NX100
2 - Samsung NX11
3 - Samsung NX10
4 - Samsung NX1000
5 - Sony NEX-5
6 - Canon EOS M10Подробнее
Фигня полная. Не знаю, как насчёт Самсунга, а NEX-5 имею до сих пор. Так вот, ненамного более свежий NEX-6 картинку имеет в разы лучшую. Что из рава, что из внутрикамерного джипега.
Re[ALLinONE]:
от: ALLinONE
С подобными рабочими исо можно наверное уже и без вспышки :!:
https://www.dxomark.com/Cameras/Sony/A7-III
Так не в выдержке ж дело. Глаза без блеска, брови, нос, подбородок - тени. Для подсветки лучше пыхнуть от стены или потолка. Если это не музей конечно или храм. По крайней мере в помещениях со стандартными офисными светильниками 60 на 60 равномерно освещенных лиц я не видел.
Re[New observer]:
от: New observer
Фигня полная. Не знаю, как насчёт Самсунга, а NEX-5 имею до сих пор. Так вот, ненамного более свежий NEX-6 картинку имеет в разы лучшую. Что из рава, что из внутрикамерного джипега.
Парные с равами будут, где эта разница в разы налицо?
Re[Led Rom]:
от: Led Rom
Так не в выдержке ж дело.
Причём здесь выдержка? я про ISO. :)
А про то что дополнительный свет всегда в пользу для меня не новость, пых у меня 6-ть на синхронизаторах. ;)
Re[ALLinONE]:
Del
Re[ppppiter]:
Del
Re[ALLinONE]:
от: ALLinONE
Причём здесь выдержка? я про ISO. :)
А про то что дополнительный свет всегда в пользу для меня не новость, пых у меня 6-ть на синхронизаторах. ;)
Да все Вы поняли:) Если б владельцы старых ccd не упирались на исо 400 в запредельно длинные выдержки, они б не мечтали о 12800. Кстати случаев для любителей когда при Ваших 6-ти пыхах надо сохранить атмосферу и не перебивать окружающий свет единицы, да и то хватит вполне приемлемой цифры. Потому и говорю, хай исо мало кому нужны. Спорт, в жутких условиях...
Re[ppppiter]:
Del
Re[ppppiter]:
от: ppppiter
..захватывающую все подряд матрицу...
Не очень понимаю, что значит эта фраза.
Всё подряд это что? Бозоны Хиггса, глюоны,мезоны?
Опять же, считать фотоны частицами, которые сыпятся в "ведро" - то ещё допущение. Квантовая запутанность вроде пока не поддалась пониманию.
А если принять все же корпускулярность фотонов и то, что "вёдра" становятся меньше и превращаются в чашки, то в следствие уменьшающегося количества зарегистрированных фотонов как по-прежнему удаётся правильно экспонировать сцену при пустеющих "чашках"?
Может причины более простые и древние: уход от плотных цветофильтров к "жидким"?
Re[mavani]:
от:mavani
Опять же, считать фотоны частицами, которые сыпятся в "ведро" - то ещё допущение. Квантовая запутанность вроде пока не поддалась пониманию.
А если принять все же корпускулярность фотонов и то, что "вёдра" становятся меньше и превращаются в чашки, то в следствие уменьшающегося количества зарегистрированных фотонов как по-прежнему удаётся правильно экспонировать сцену при пустеющих "чашках"?
Может причины более простые и древние: уход от плотных цветофильтров к "жидким"?Подробнее
При чём тут квантовая запутанность вообще?..
В процессах испускания и поглощения (что и происходит в матрице) свет ведёт себя на 100% как поток частиц.
Но, конечно, объяснение товарища ppppiter, как и следовало ожидать, полная фигня.
Никто ничего не интерполирует. И никто никакие вёдра на мензурки не меняет. Каждый поглощённый фотон выбивает из кремния электрон - создаёт заряд. Пиксель имеет определённую ёмкость, по сути является конденсатором. Когда мы в конденсаторе создаём заряд, на нём появляется напряжение. Чем больше фотонов - тем больше заряд - тем больше напряжение. Камера измеряет напряжение на каждом пикселе. Если нам нужно ISO выше, чем базовое, то напряжение измеряется не напрямую на пикселе, а на выходе усилителя. Считайте, что такого же усилителя, какой у вас в музыкальной системе. Точно также, как вы можете громко слушать "тихую" запись (знаете же, что бывает какой-то трек играется явно тише, чем другие) просто подкрутив ручку усилителя, также и камера может получить правильную экспозицию даже при очень малом количестве света за счёт усилителя.
НО, разумеется, усилитель усиливает не только полезный сигнал, но и шумы. И чем больше мы выкручиваем ручку усилителя - тем сильнее шум.
В случае света ещё и его фотонная природа "гадит": если у нас есть однородный серый предмет, который мы однородно осветили, то за время выдержки разные пиксели матрицы всё равно зафиксируют разное число фотонов от этого объекта в следствии случайности процессов испускания фотонов лампой, рассеивания их объектом и поглощения матрицей. Пока фотонов много, нам не так уж важно, что один пиксель зафиксирует их 99968, а другой - 100029. Когда мы преобразуем это в сигнал от 0 до 255, который идёт в JPG, и то и другое даст нам ровно 128 - будет идеально однородное серое изображение. А вот когда фотонов мало, то тут уже разброс будет типа на один - 109, а на другой - 88... Это уже даст нам огромный разброс в яркости пикселей конечного изображения, т.е. огромный шум. Этот шум можно несколько снизить повышая квантовую эффективность матрицы, т.е. ту долю падающих фотонов, которая приводит к появлению заряда, но тут есть фундаментальный предел в 100%, выше которого не прыгнуть.
Re[ppppiter]:
Del
Re[ppppiter]:
Последние комментарии в стиле - не "понял сам, не дай понять другому".
Последний комментарий от egigd совершенно понятный.
...мы начнем регистрировать свет красного спектра в зеленом канале, например. Цветопередача станет хуже.
Вы изначально путаете вход и выход. И не только Вы. Общее заблуждение в интернете состоит в том, что если "красный" сенсель как-то реагирует на зеленый свет (вход), то это плохо, ибо это-де означает, что на мониторе (выход) красный цвет будет подпорчен зеленым как будто содержимое RGB сенселей на матрице прямиком отправляется на RGB- пиксели монитора. Всё это прикрывается многозначным понятием "цветоделение". Дошло даже дело до того, что маркетологи а анонсе фейзвановского трихроматика поначалу нарисовали спектральные чувствительности RGB каналов непересекающимися! Типа, идеальное цветоделение. То есть по их картинке получился монохромный сенсор, только R,G, и B сенсели реагируют по очереди. Ну и суммарная монохромная спектральная чувствительность получилась со странными провалами. Потом им местные всё-таки вправили мозги, и скандальную картинку убрали.
20.10.2018 тот же egigd совершенно правильно написал, что для определения мозгами камеры цвета спектральные чувствительности должны перекрываться. Если, например, на каком-то участке работает только один график, то при небольшем изменении длины волны (пусть свет монохромный) камере по RGB сигналу нет никакой возможности определить, что именно изменилось: длина волны при той же интенсивности или интенсивность при той же длине волны.
Перекрывание спектральных чувствительностей на входе не имеет ни малейшего отношения к чистоте света на выходе. Между ними большая мясорубка, и фарш обратно не ходит.
Поразмыслите, что вы подразумеваете под термином "цветоделение". Это может сильно сдвинуть выводы или даже сделать их необоснованными.
Последний комментарий от egigd совершенно понятный.
...мы начнем регистрировать свет красного спектра в зеленом канале, например. Цветопередача станет хуже.
Вы изначально путаете вход и выход. И не только Вы. Общее заблуждение в интернете состоит в том, что если "красный" сенсель как-то реагирует на зеленый свет (вход), то это плохо, ибо это-де означает, что на мониторе (выход) красный цвет будет подпорчен зеленым как будто содержимое RGB сенселей на матрице прямиком отправляется на RGB- пиксели монитора. Всё это прикрывается многозначным понятием "цветоделение". Дошло даже дело до того, что маркетологи а анонсе фейзвановского трихроматика поначалу нарисовали спектральные чувствительности RGB каналов непересекающимися! Типа, идеальное цветоделение. То есть по их картинке получился монохромный сенсор, только R,G, и B сенсели реагируют по очереди. Ну и суммарная монохромная спектральная чувствительность получилась со странными провалами. Потом им местные всё-таки вправили мозги, и скандальную картинку убрали.
20.10.2018 тот же egigd совершенно правильно написал, что для определения мозгами камеры цвета спектральные чувствительности должны перекрываться. Если, например, на каком-то участке работает только один график, то при небольшем изменении длины волны (пусть свет монохромный) камере по RGB сигналу нет никакой возможности определить, что именно изменилось: длина волны при той же интенсивности или интенсивность при той же длине волны.
Перекрывание спектральных чувствительностей на входе не имеет ни малейшего отношения к чистоте света на выходе. Между ними большая мясорубка, и фарш обратно не ходит.
Поразмыслите, что вы подразумеваете под термином "цветоделение". Это может сильно сдвинуть выводы или даже сделать их необоснованными.
Re[ppppiter]:
Насчёт размера пикселя - очень приблизительно, сильно зависит от поколения матрицы, технологии, типа. Если строго следовать Вашей логике, то популярная APS-C 6-Мп матрица, устанавливаемая в кропозеркалки 14 лет назад должна бы по шумности на высоких ИСО оставить далеко за кормой современные 24-Мп кропнутые матрицы. Однако это не так, шумела она на ИСО 400 примерно так, как теперешние где-нибудь на 1600, если не сильнее. Ну, скажете Вы, она была CCD против теперешних CMOS, CCD хуже держат высокие ИСО. Верно! Но даже 12 Мп CMOS матрица в Sony A700 (2007 года) значительно шумнее 24 Мп, стоящей в теперешних Sony A6xxx.
Re[New observer]:
Del
Re[WAn]:
Del
Re[ppppiter]:
Сторонникам научного подхода предлагаю рассмотреть вполне научный пример: пусть спектральные чувствительности разделены "идеально", то есть нигде не перекрываются. Например область от 500нм до 560нм воздействует исключительно на зеленые сенсели. На красные и синие никак не воздействует.
Пусть сцена состоит из одного излучателя монохромного света длиной волны 510нм.
Он выдаст в G сенселе какой-то отклик, например в 5 единиц. R=0=B по предположению.
Теперь опыт N#1: изменим длину волны излучателя на 520нм. В соответствие с графиком спектральной чувствительности отклик в G будет каким-то другим, например 7 единиц. R=0=B по предположению.
Опыт N#2: не будем менять длину волны излучателя, пусть остается 510нм. Но изменим интенсивность, увеличим на 40%. Отклик в G будет 5*1.4 = 7 единиц. R=0=B по предположению.
То есть два разных для человеческого восприятия цвета, разных Hue (520нм и 510нм), выдали один и тот же отклик в матрице: R=0, G=7, B=0. Как прикажете камере их различать?
Пример хороший: из-за нулевых R и B ни за какую за линейную комбинацию не спрятаться: какие бы ни были коэффициенты этой линейной комбинации k1*R+k2*G+k3*B все равно будет = k2*G в обоих случаях.
И это можно повторить для любых длин волн монохромного излучателя в предпроложенном диапазоне 500—560 нм. То есть такая "идеальная" матрица не различает оттенков зеленого вообще.
То же про красный диапазон, то же про синий. -- Это монохромная матрица. Привет маркетологам из Phase One.
Прежде чем грубить оппонентам, попробуйте сначала повключать собственный мозг, может наконец сработает.
Пусть сцена состоит из одного излучателя монохромного света длиной волны 510нм.
Он выдаст в G сенселе какой-то отклик, например в 5 единиц. R=0=B по предположению.
Теперь опыт N#1: изменим длину волны излучателя на 520нм. В соответствие с графиком спектральной чувствительности отклик в G будет каким-то другим, например 7 единиц. R=0=B по предположению.
Опыт N#2: не будем менять длину волны излучателя, пусть остается 510нм. Но изменим интенсивность, увеличим на 40%. Отклик в G будет 5*1.4 = 7 единиц. R=0=B по предположению.
То есть два разных для человеческого восприятия цвета, разных Hue (520нм и 510нм), выдали один и тот же отклик в матрице: R=0, G=7, B=0. Как прикажете камере их различать?
Пример хороший: из-за нулевых R и B ни за какую за линейную комбинацию не спрятаться: какие бы ни были коэффициенты этой линейной комбинации k1*R+k2*G+k3*B все равно будет = k2*G в обоих случаях.
И это можно повторить для любых длин волн монохромного излучателя в предпроложенном диапазоне 500—560 нм. То есть такая "идеальная" матрица не различает оттенков зеленого вообще.
То же про красный диапазон, то же про синий. -- Это монохромная матрица. Привет маркетологам из Phase One.
Прежде чем грубить оппонентам, попробуйте сначала повключать собственный мозг, может наконец сработает.
Re[ppppiter]:
Del
Re[ppppiter]:
от:ppppiter
Вы читаете и понимаете как-то выборочно.
Нет, не должна.
Потому что на современные сенсоры за счет более слабых фильтров попадает больше света. Поэтому там хуже цветоделение и лучше динамический диапазон, ниже уровень шумов.
Светофильтры на сенсоре крадут до 2/3 ступени по экспозиции. Если их сделать менее плотными, то света зарегистрируется больше, но он станет более акварельным, менее чистым.
Чтоб это было не так заметно производитель повешает насыщенность цвета , это приводит к разрывам в тонах и вводит цвет, которого в снимаемой сцене вообще не было. Фотография начинает выглядеть как цирк. Цветасто, пластиково и неестественно.Подробнее
Как пишете, так и читаю. Я не могу мыслить так же извилисто, как Вы. Пусть фильтры крадут до 2/3 ступени, да хоть и одну целую ступень. В моем примере этих ступеней - 4, две по площади пикселя, и еще две по ИСО. И как это бьется с Вашей теорией про "абсолютно всеблагой жирный пиксель"
Да, п.#1 Ваших выводов, хоть и изрядно банален, должен быть дополнен фразой, что-нибудь вроде "для матриц одного технологического поколения, технологии и типа". А так-то фирма Сони заранее сплагиатила Ваш труд и выпустила три версии полнокадровых б/з: базовую, относительно универсальную - А7x, c "жирным" пикселем и лучшей работой на высоких ИСО -А7Sx, и высокого разрешения, похуже держащую высокие ИСО - А7Rx.
Re[New observer]:
Del