자르기 센서 카메라를 사용하여 낮은 RAW 해상도로 촬영하면 풀 프레임 카메라의 품질과 유사합니까?


12

초점 거리 변경에 대해서는 이야기하고 있지 않습니다.

풀 프레임 카메라에서 픽셀 밀도가 크롭 센서 카메라에 비해 낮으므로 더 많은 빛을 포착하여 더 나은 ISO 성능과 더 큰 동적 범위를 갖는 많은 게시물을 읽었습니다. 자르기 센서 카메라로 더 낮은 해상도로 촬영하면 더 나은 픽셀 밀도와 동일하게 풀 프레임 (또는 중간 포맷)의 성능을 모방하거나 항상 최대 해상도로 촬영하고 크기를 줄입니까?

-편집 : 1--
Canon 60D가 있고 RAW 이미지 크기 (RAW, M-RAW amd S-RAW)에 대한 3 가지 옵션이 있습니다. RAW가 카메라 센서의 덤프 인 경우 어떻게 3 가지 크기를 사용할 수 있습니까? 카메라는 RAW 이미지도 축소합니까?


2
Vivek- 이 질문을 읽으십시오 : photo.stackexchange.com/q/3419/1024 . @ whuber (그리고 그가 링크 한 기사)에 따르면, 더 작은 RAW는 실제로 Stan이 그의 대답에서 묘사 한 것과 같이 개별 감각의 일종의 집계입니다.
ysap

(ysap 페이지는 질문의 으깬 부분을 다루는 링크입니다.)
제 프로필을 읽으십시오

나는 ysap의 문서를 읽고 그것에 대해 논평 할 것입니다.
Viv

답변:


7

Canon, 낮은 RAW 모드, mRAW 및 sRAW가있는 경우, 사용 가능한 모든 센서 픽셀을 사용하여 베이어 보간없이 풍부한 결과를 얻을 수 있습니다. 실제 출력 형식은 여전히 ​​.cr2 Canon RAW 이미지 파일에 포함되어 있지만 많은 비디오 풀다운 형식과 유사한 Y'CbCr 형식으로 인코딩됩니다. 각 FULL 픽셀 (1 개의 빨강, 1 개의 파랑 및 2 개의 녹색 화소의 2x2 쿼드)에 대한 휘도 정보를 저장하고, 각 색차 채널은 절반의 픽셀 데이터 (1 개의 빨강 +1 녹색 또는 1 개의 파랑 +1 녹색의 1x2 쌍)에서 파생됩니다. .

mRAW와 sRAW의 특정 저수준 하드웨어 읽기 및 인코딩 차이점이 무엇인지 정확히 알 수는 없지만 일반적으로 출력 형식이 작을수록 각 출력 픽셀에 사용할 수있는 더 많은 센서 픽셀 입력 정보가 ​​있습니다. m / sRAW에 존재하는 소량의 보간은 두 가지 형식 모두 네이티브 RAW보다 훨씬 적게 보간되므로 불분명합니다. 또한 mRAW 나 sRAW는 일반적인 의미에서 실제 "RAW"형식이 아닙니다. 센서 데이터는 .cr2 파일로 저장되기 전에 처리되고 다른 것으로 변환됩니다.

YUV 파생 형식 및 Canon sRAW에 대한 자세한 내용은 여기에서 내 대답을 참조하십시오. 왜 xvYCC 색 공간이 스틸 사진 촬영에 영향을 미치지 않습니까?

"Canon RAW .CR2 파일에 저장된 내용 이해"에서

sRaw 형식 ( "작은 RAW"용)은 2007 년 1D Mark III에 도입되었습니다. RAW 그림의 작은 버전입니다.

1D Mark III, 1Ds Mark III 및 40D (모두 Digic III의 경우)의 경우 sRaw 크기는 RAW 크기의 1/4 (1/4)입니다. 따라서 4 개의 "센서 픽셀"의 각 그룹이 sRaw에 대해 1 개의 "픽셀"로 요약된다고 가정 할 수 있습니다.

50D 및 5D Mark II (Digic IV 칩 사용)의 경우 1/4 크기 RAW는 여전히 존재하고 (sRaw2), 절반 크기 RAW도 나타납니다 : sRaw1. 7D에서는 절반 크기의 원시를 mraw (sraw1과 동일한 인코딩)라고하고 1/4의 원시를 sraw (sraw2와 같은)라고합니다.

sRaw 무손실 Jpeg는 항상 3 색 구성 요소 (nb_comp)와 15 비트로 인코딩됩니다.

첫 번째 구성 요소의 h = 2 값 (테이블의 회색 배경)으로 인해 sRaw를 처리하도록 Dcraw의 Jpeg 코드가 처음 수정되었습니다 (8.79). 일반 RAW는 항상 h = 1입니다. 50D부터는 v = 1 (표의 주황색) 대신 v = 2가됩니다. Dcraw 8.89는 이것을 다루는 첫 번째 버전이며 50d 및 5D Mark II의 sraw1입니다.

"h"는 수평 샘플링 계수이고 "v"는 수직 샘플링 계수입니다. 각 MCU (최소 코딩 단위)에서 인코딩되는 수평 / 수직 데이터 단위 수를 지정합니다. 36 페이지 T-81을 참조하십시오.

3.2.1 sRaw 및 sRaw2 형식

h = 2는 압축 해제 된 데이터에 첫 번째 구성 요소에 대한 2 개의 값, 열 n에 대해 1, 열 n + 1에 대해 1이 포함됨을 의미합니다. 압축 해제 된 sraw 및 sraw2 (모두 h = 2 & v = 1)의 2 가지 다른 구성 요소를 사용하면 항상 4 개의 기본 값이 있습니다.

[y1 y2 xz] [y1 y2 xz] [y1 y2 xz] ...
(첫 번째 성분의 y1 및 y2)

sRAW 및 mRAW 이미지의 모든 "픽셀"에는 4 개의 구성 요소 (분할 Y '구성 요소 (y1 및 y2)와 x (Chrominance Blue) 및 z (Chrominance Red))가 포함됩니다. 네 가지 구성 요소 (1/2 이미지 관점에서 sRAW1 / mRAW)는 열 높이가 2 (h)이고 너비가 1 (v)입니다. 이는 휘도 값 (Y ')이 FULL 2x2 픽셀 쿼드 ... 또는 y1 및 y2에 저장된 2x1 픽셀 열 2 개로 구성되어 있음을 나타냅니다.

아래 참조는 이것을 구체적으로 언급하지 않는 것이므로 여기서 약간 추측하고 있지만 sRAW2 (1/4 raw)에서는 휘도 정보가 h = 4 및 v = 2 인 4x4 픽셀 블록에서 파생 될 것이라고 생각합니다. 센서의 베이어 컬러 필터 배열이 깔끔한 빨간색과 파란색 열로 배열되지 않기 때문에 1/4 색 이미지에서 색차를 인코딩하는 것이 더 복잡해집니다. 각 Cr 및 Cb 구성 요소에 대해 대체 2x1 높이 열이 처리되는지 또는 다른 형태의 보간이 수행되는지 확실하지 않습니다. 한 가지 확실한 점은 소스 데이터의 보간이 항상 출력 데이터보다 크며 내가 알 수있는 한 겹침 (일반 베이어 보간과 같이)이 발생하지 않는 것입니다.

마지막으로 sRAW1 / mRAW 및 sRAW / sRAW2는 무손실 압축 알고리즘을 사용하여 압축됩니다. 이는 ycc 형식 인코딩을 사용하는 이러한 형식과 JPEG의 중요한 차이점입니다. JPEG는 손실 압축을 수행하므로 픽셀을 원래의 원래 표현으로 복원 할 수 없습니다. Canon의 s / mRAW 형식은 실제로 원래의 정밀 15 비트 이미지 데이터로 복원 할 수 있습니다.

참고 문헌 :


8

이론적으로, 그것은 수있는 카메라는 이미지 크기를 줄이기위한 올바른 전략을 사용합니다.

앞서 언급했듯이 현재 자르기 센서 카메라를 사용하면 설정 한 JPEG 크기에 관계없이 원시 이미지가 동일하게 유지됩니다. JPEG 이미지는 단순히 크기가 조정됩니다. 노이즈의 모양을 다소 줄일 수 있지만 이미지 스케일링 알고리즘으로 인해 크기가 줄어 듭니다. 그러나 노이즈 감소를 수행하고 사실을 파악한 후에는 더 나아지지는 않지만 적어도 더 잘할 수있을 가능성이 높습니다.

진정한 노이즈 감소를 생성하는 전략이 있습니다. 일부 고해상도 중간 포맷 백 (Phase One SensorPlus 시리즈와 유사)은 픽셀 비닝 ( pixel binning ) 이라는 전략을 사용합니다 . 여기서 인접한 센서 그룹은 하나의 큰 센서로 취급되며 누적 전하를 센서에서 읽습니다. 이는 개별 요금을 읽고 평균화하는 것 (사후 읽기 처리에서 제한되는 것)과 다릅니다. 이는 하드웨어 수준에서 발생하며 "원시"의 의미를 변경합니다. 판독 잡음은 상쇄 가능성이 높으며, 누적 전하는 아날로그-디지털 변환을 덜 모호하게한다 (쿼터 변환의 범위는 증폭이 적을수록 더 넓다).

실제로 이것은 일반적으로 해상도를 4 배 (폭의 절반과 높이의 절반)로 자르는 것을 의미합니다. 60 또는 80MP 중간 포맷 백을 사용하면 여전히 15 또는 20MP 이미지가 남습니다. 16MP 자르기 센서 카메라를 사용하면 4MP 원시 이미지가됩니다. 지금 당신은 알고 있고 나는 깨끗한 4MP 이미지가 시끄러운 16MP 이미지보다 낫다는 것을 알고 있지만 모든 사람들이 더 작은 이미지를 생성하기 위해 추가 비용이 들지 않는다는 생각에 사지는 않을 것입니다. 즉, 곧 프로 레벨 카메라보다 적은 양의 픽셀 비닝이 사용되지는 않을 것입니다. 해상도가 계속 올라가면 풀 프레임 카메라에 나타날 수 있지만 자르기 센서에서는 찾지 않습니다. (Pentax는 풀 프레임을하지 않기 때문에 언젠가는 찌를 수도 있습니다.)


RAW 이미지 크기를 명확히해야한다고 생각합니다. Canon 60D를 가지고 있으며 RAW 이미지 크기 (RAW, M-RAW amd S-RAW)에 대한 3 가지 옵션이 있습니다. RAW가 카메라 센서의 덤프 인 경우 어떻게 3 가지 크기를 사용할 수 있습니까? 카메라는 RAW 이미지도 축소합니까?
Viv

@Stan : Canon은 이미 mRAW 및 sRAW 형식으로 설명한 내용을 정확하게 수행합니다. 문자 그대로의 RAW 형식이 아니며 YUV 파생물 (정확히 Y'CrCb)이며 실제로 픽셀 비닝 형태입니다. 자세한 내용은 내 답변을 참조하십시오.
jrista

미래를 다시 : 실제 한계는 센서 영역입니다. 센서 크기가 동일하게 유지되고 해상도가 올라가면 (픽셀 축소) 픽셀 비닝으로 인한 순 이득은 없습니다. 센서의 동일한 물리적 영역을 읽기 위해 더 많은 센서를 사용하는 것입니다. 우리가 기대할 수있는 것은 개별 센서의 감도가 향상되어 센서의 주어진 작은 부분에 더 많은 빛과 더 적은 노이즈가 등록되는 것입니다.
whuber

1
@ jrista : 그것은 비닝이 아니며, 포스트 읽기 평균입니다. 비닝 선형 분해능을 완전히 감소 시켜야하며 누적 된 판독 (별도의 다음 평균이 아닌 판독)이 여러 센서에 대해 수행되므로 개별 포토 사이트 데이터를 처리 할 수 ​​없습니다. Bayer-quad 시스템에서는 영역 또는 픽셀로 표시되는 전체 해상도의 1/4, 1/16, 1/64 등을 의미합니다. 읽기 후 평균화는 기술적으로 스케일링과 다르지 않습니다. 다른 데이터 공간에서 작동하고 있습니다.

1

높은 노이즈가 주요 문제인 경우, 한 가지 해결책은 여러 프레임을 촬영하고 좋은 알고리즘의 소프트웨어를 사용하여 여러 나쁜 이미지의 좋은 이미지를 결합하는 것입니다. 예를 들어 ALE, Anti-Lamenessing Engine 이이를 수행합니다. 움직이는 피사체의 경우 분명히 작동하지 않지만 ISO 1600에서 핸드 헬드를 촬영 한 다음 샷을 결합하여 ISO 400 또는 800에 가까운 노이즈 레벨에 도달 할 수 있습니다.

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.