왜 xvYCC 색상 공간이 스틸 사진 촬영에 영향을 미치지 않습니까?


23

지난 15 년 동안 sRGB는 컴퓨터 모니터 (및 소비자 수준 인쇄)의 기본 표준이었습니다. 더 넓은 범위의 LED 백라이트 모니터가 보편화됨에 따라 이제 바뀌고 있습니다. 일반적으로 사진가들은 반 표준 인 aRGB와 같은 색상 공간에서이 사진을 사용합니다. 예를 들어 카메라는 기본적으로 JPEG를 해당 공간에 저장할 수 있습니다.

그러나 sRGB를 대체하기 위해 AV 업계에서 널리 퍼진 새로운 표준이 있습니다. 이것은 IEC 61966-2-4-xvYCC (또는 마케팅 목적으로 "xvColor")입니다. 이 색 공간은 sRGB보다 1.8 배 더 큰 색 영역을 가지고 있으며, 현재의 공통 분모로 덮히 지 않는 50 %가 아닌 인간 비전 색 범위의 90 %를 차지합니다. xvYCC의 Sony 웹 사이트 에서 훨씬 더 많은 내용을 읽으십시오 .

그러나 중요한 점은 이것이 이론적이지 않다는 것입니다. 이 제품은 HDMI 1.3 표준의 일부이며 색상 당 10 ~ 16 비트의 색상 심도 ( "딥 컬러"라고 함)에 대한 사양과 함께 제공됩니다. 기본적으로 전문적인 틈새 시장 인 aRGB와 달리 소비자 수준의 기어가 광범위하게 지원됩니다.

이것이 배경입니다. 문제는 이것이 널리 퍼지고 있으며 앞으로 몇 년 안에이를 지원할 수있는 컴퓨터 (및 TV!) 하드웨어를 가질 가능성이 높다는 점을 감안할 때 이것이 기본적으로 비디오 로만 판매되는 이유는 무엇입니까? 카메라 업계는 기뻐할 것 같습니다.

소니는이 아이디어에 큰 관심을 가지고 있으며 4 년 전에이를 지원하는 비디오 카메라를 출시했습니다. Playstation 3는 선을 위해 그것을 지원합니다! 소니 알파 dSLR에도 넣지 않겠습니까? 캐논은 비디오 카메라도 지원합니다.

물론 RAW를 촬영하는 경우 카메라 내 지원은 중요하지 않습니다. 탑승해야하는 것은 변환기 소프트웨어 사람들입니다. 왜 이에 대한 압박이 없습니까? 내가 이해하는 것처럼 xvYCC는 YCbCr의 확장이며 이미 JPEG 파일 에서 사용됩니다 . 그러나 문헌을 읽을 때 업데이트 된 MPEG 표준에 대한 언급은 많지만 여전히 사진 이미지는 없습니다.

왜 수 없다 우리는 좋은 일이?

답변:


11

xvYCC는 색상 데이터를 인코딩하는 특별한 영리한 방법입니다. YCC 체계에 사용 된 RGB 공간의 영역 외부의 색상을 나타 내기 위해 이전에 금지 된 값 조합을 사용하여 YCC 표현을 남용합니다. 즉, 일부 YCC 튜플은 음의 RG 또는 B 값을 가진 색상으로 디코딩합니다. 이전에는 이것들이 단순히 불법이었습니다. xvYCC에서는 이것들이 허용되며, RGB 시스템보다 더 큰 색 영역을 가진 디스플레이는 최선을 다해 렌더링 할 수 있습니다. 따라서 실제로 형식을 크게 변경하지 않고도 추가 영역을 얻는 것이 현명한 대부분 호환되는 해킹입니다.

스틸 사진에 사용하는 것이 합리적입니까? 나는 그렇게 생각하지 않습니다. 실제로 YCC와 호환 될 필요가 없으므로 ProPhoto RGB와 같은 넓은 영역을 사용하지 않겠습니까? 또는 비트 비트 심도를 사용하는 것은 스틸에 비용이 많이 들지 않으므로, 사람이 인식 할 수있는 전체 영역을 커버 할 수있는 CIELAB과 같은 것을 사용하지 않겠습니까? 가상의 모든 색상을 인코딩 할 수있어 충분한 색상 해상도가 필요하지 않은 비트가 충분합니다.

물론 카메라 지원 문제는 약간 관련이 없습니다. 실제로 색상에 신경 쓰면 카메라에서 원시 감지기 값을 가져 와서 시작해야합니다. 이 작업을 수행하더라도 카메라의 인식 가능한 색 영역에 여전히 갇히게됩니다. 또한 색상 표현의 정확성은 카메라의 필터가 사람의 원뿔의 스펙트럼 반응에 얼마나 근접한 지에 따라 달라집니다. 잘못 이해하면 눈과 동일한 색상이 카메라와 다르게 보일 것입니다. 인코딩이 해결되지 않습니다. 실제로 이것은 내가 가지고있는 하나의 저렴한 디지털 카메라로 발생했습니다.이 경우 IR 감도로 인해 불씨가 자주색으로 보입니다. IR을 차단하더라도 무지개와 형광등 또는 광물 (아마도 일부 염료)과 같은 뾰족한 스펙트럼을 가진 물체는 연속 스펙트럼이 양호 해 보일 때이 효과를 나타냅니다.


20

간단하게 시작하면 "정지 사진에 사용됩니다!"입니다. 조금 더 설명하겠습니다. 현재 그 사용은 상당히 틈새 시장입니다.

xvYCC의 뿌리

xvYCC 인코딩은 YCC 인코딩을 현대적으로 향상 시키거나 긴 형식으로 Y'CbCr (또는 약간 다른 YCbCr)입니다. YCC 인코딩은 휘도 / 색차 계열에 속합니다. 1930 년대에 CIE에 의해 공식화 된 L a b * (짧은 경우 'Lab') 색 공간에 주로 뿌리를 둔 색 공간. 랩 색 공간은 휘도 / 색도 색 공간이기도하며, 여기서 색의 휘도는 L * 값으로 인코딩되고, 색의 두 색 축은 a *b * 값으로 인코딩 됩니다. a * 값은 녹색 / 자홍색 축을 따라 색도의 절반을 인코딩하고 b * 값은 청 / 황색을 따라 색도의 다른 절반을 인코딩합니다.중심선. 이 두 색 축은 인간의 눈의 네 가지 색 기본 감도를 모방하여 표현하기 위해 선택되었으며, 빨강 / 녹색 및 파랑 / 노란색 축 쌍을 따라 놓여 있습니다 (진정한 사람의 시력에는 이중 피크 빨강 곡선이 포함되지만 파란색 곡선의 중간에서 발생하는 작은 피크는 실제로 사람의 눈이 빨간색이 아닌 자홍색에 직접 민감 함을 의미합니다. 따라서 실험실에서는 녹색 / 자홍색 축입니다.)

YUV 인코딩

Y'CbCr은 아마도 YUV 비디오 인코딩의 형태로 가장 잘 인식 될 것입니다. YUV 인코딩은 비디오 전송을 위해 색상을 인코딩하는 데 필요한 공간을 줄 이도록 특별히 설계되었습니다.대역폭이 부족한 시대로 거슬러 올라갑니다. R, G, B 트리플렛은 상당한 양의 리던던시로 색상을 인코딩하기 때문에 RGB 트리플릿으로 컬러 정보를 전송하는 것은 낭비입니다. 세 가지 컴포넌트 모두 휘도 정보 및 색차 정보를 포함하고 휘도는 세 컴포넌트 모두에 걸쳐 가중치가 적용됩니다. YUV는 저 대역폭의 Y'CbCr 휘도 / 색차 색 인코딩으로 RGB 인코딩의 불필요한 중복성을 갖지 않습니다. YUV는 서브 샘플링 형식에 따라 전체 RGB 신호의 대역폭을 2/3에서 1/4까지 어느 곳에서나 소비 할 수 있습니다 (또한 추가 세부 정보 이미지를 별도의 휘도 채널 Y에 저장했습니다. 단일 인코딩 형식의 컬러 TV 신호). YCC는 실제로 색 공간이 아니라는 점에 유의해야합니다. 오히려 RGB 색상 정보를 인코딩하는 방법입니다. 더 정확한 용어는색상 공간보다 색상 모델 이 다르며 색상 모델이라는 용어는 RGB 및 YUV에 모두 적용 할 수 있습니다.

원래의 질문에 링크 된 참조에서 xvYCC는 YUV보다 더 많은 비트로 인코딩 된 휘도 / 색차 색상 정보를 저장하는 향상된 Y'CbCr 인코딩 형식입니다. xvYCC는 2-4 비트의 인터리브 세트에서 휘도 및 색차를 인코딩하는 대신 최신 10 비트 값으로 색상을 인코딩합니다.

스틸 사진에 사용

흥미롭게도 매우 유사한 것을 사용하는 하나의 DSLR 카메라 브랜드가 있습니다. Canon은 최근 몇 년 동안 sRAW라는 새로운 RAW 형식을 카메라에 추가했습니다. 일반 RAW 이미지에는 전체 센서 데이터의 직접 베이어 덤프가 포함되어 있지만 sRAW는 실제로 실제 RAW 이미지 형식이 아닙니다. sRAW 형식은 베이어 데이터를 포함하지 않으며 기본 베이어 RGBG 픽셀 데이터에서 보간 된 처리 된 Y'CbCr 컨텐츠를 포함합니다. TV 시대와 마찬가지로, sRAW는보다 독창적 인 신호 정보를 사용하여 휘도 및 색차 데이터를 고정밀 (14bpc)의 공간 절약형 이미지 형식으로 인코딩하는 것을 목표로합니다. sRAW 이미지는 RAW 이미지 크기의 40-60 % 사이 일 수 있습니다.

sRAW의 장점은 컴팩트 한 파일 형식으로 높은 사람이 인식 할 수있는 색상 정확도를 유지하고 바이엘 센서에서 RGBG 픽셀을 더 잘 활용한다는 것입니다 (불규칙한 색상 무아레를 생성하는 겹치는 샘플링이 아니라 sRAW는 겹치지 않는 색차 샘플링을 수행함) 중첩 / 분산 된 휘도 샘플링.) 단점은 이것이 실제 RAW 형식이 아니며, 컬러 정보가 풀 베이어 센서로부터 보간 및 다운 샘플링된다는 점이다. 카메라의 전체 RAW 해상도가 필요하지 않은 경우 (즉, 8x10 또는 11x16으로 만 인쇄하려는 경우), sRAW는 공간을 많이 절약 할 수 있으므로 (RAW에 비해 최대 60 % 절약) 실질적인 이점이 될 수 있습니다. ), 원시보다 빠르게 저장하여 더 높은 프레임 속도를 제공하며 풀 해상도 RAW보다 센서에서 캡처 한 색상 정보를 더 잘 활용합니다.


매우 흥미롭고 유익한 정보 – 감사합니다! 그러나 나는 여전히이 틈새 사용이 유일한 방법이라는 것에 놀랐습니다.
mattdm

1
기술적으로 말해서 JPEG를 YCC 호환 방식으로 데이터를 인코딩하는 다른 이미지 형식이라고 생각할 수 있습니다. JPEG 공간 절약의 일부는 RGB 데이터를 휘도 / 색차 형식으로 인코딩하기 때문에 손실 블록 압축을 통해 데이터가 추가로 압축되기 때문입니다. 스틸 사진에서는 특정 인코딩 xvYCC가 일반적이지 않지만, 생각할 때 휘도 / 색차 인코딩이 실제로 가장 널리 사용되는 형식입니다.
jrista

7

거의 완전히 거꾸로 있습니다. 이것은 여전히 ​​사진이 비디오를 "잡을"수있는 경우가 아니며, 이와는 반대로 TIFF (예를 들어)가 수십 년 동안 제공하는 기능을 마침내 따라 잡는 비디오의 문제입니다. 전에 (또는 그렇게).

당신이 확실하지 않았지만 참조 이십년 전에 아주 많은 16 비트 / 채널 TIFFs을, 능력은 이미, 그리고 (TIFF 등 다양한 형식으로) 16 비트 / 채널은 이제 상당히 일반적이다. 동시에, 나는 대부분의 사람들이 8 비트 / 채널이 완전히 적절한 것으로 보인다고 지적해야합니다. 하나의 명백한 예를 들어, JPEG2000은 원본 JPEG보다 16 비트 / 채널 및 더 나은 압축을 지원하지만 원본 JPEG 사양의 사용에 거의 근접하지 않습니다.

xvYCC가 TIFF의 기능을 따라 잡는 거의 동시에 (실제로 조금 전에) openEXR 파일 형식이 개발되었습니다. 최대 32 비트 / 채널을 지원합니다. 아직 널리 사용되지는 않지만 TIFF와 비슷할 것으로 예상되며 결국에는 더 광범위하게 사용될 것입니다.

색상 공간에 관한 한, xvYCC가 sRGB보다 더 큰 범위를 지원하면 비트 / 픽셀 수가 더 많은 것이 사실입니다. 그러나 다시 한 번, ProPhotoRGB (예를 들어)는 훨씬 더 넓은 범위를 제공합니다. 정직하게 말하면 ProPhotoRGB가 이미 제공하는 것보다 더 큰 색 공간이 필요한지 여부에 대해 의문의 여지가 있습니다. ProPhotoRGB에서 표현하는 것은 기본적으로 상상력입니다-대부분의 사람들이 인식 할 수있는 것 이상을 넘어갑니다).

xvYCC의 장점은 주어진 품질 수준을 나타내는 데 필요한 / 사용되는 데이터의 양을 줄이는 것입니다. HD 비디오 (특히)의 경우 대역폭을 최소화하는 것이 매우 중요합니다. 그러나 디지털 스틸 카메라의 경우 대역폭은 훨씬 작은 관심사입니다. 예를 들어 특정 크기의 CF 카드에 두 배의 사진을 넣을 수 있다면 확실히 좋을 것 입니다. 특히 심각한 문제는 아닙니다. 사용 가능한 최대 용량의 CF 카드를 사용하는 사람은 거의 없으며 CF 카드 비용은 일반적인 사진 작가 예산의 상당 부분을 차지하지 않습니다.

결론 : xvYCC는 기술적 기능면에서 아직 사용할 수없는 것을 거의 제공하지 않습니다.

편집 : 아마 하나 더 포인트를 추가해야합니다. LCD는 디지털 카메라가 널리 사용되는 시점에 대해 대부분의 모니터에서 CRT를 대체하기 시작했지만 소비자 용 LCD 모니터는 이제 8 비트 / 채널 컬러 해상도를 초과하기 시작했습니다. 일반적인 모니터가 약 6 개만 표시 할 수있을 때 10 또는 12 비트 / 채널을 갖는 것에 대해 걱정하기가 어려웠습니다.

많은 사람들이 평범하지 않은 사소한 세부 사항도 있습니다. 그들에게는 사진 품질이 합격 / 불합격 기준에 해당합니다. 대부분의 사람들은 실제로 사진을 합리적으로 인식 할 수 있어야합니다. 나는 사람들이 천천히 더 잘 기대하기 시작한다고 생각하지만, 수년간의 Walgreens (또는 누구든지)가 빨간 머리 딸을 금발 등으로 바꾼 후에는 색상이 전혀 정확하다는 아이디어에 익숙해지기까지 시간이 걸립니다.

편집 : 실제로 JPEG 2000 이외의 다른 단계가 있습니다 : JPEG XR . 최대 32 비트 / 채널 (부동 소수점) HDR을 지원합니다. 또한 모든 일반적인 EXIF ​​/ IPTC 유형 데이터, 내장 색상 프로파일 등을 포함 할 수있는 파일 형식을 지정합니다. 여기서 질문과 관련하여 파일에 xvYCC 색상 공간을 사용해야한다는 값을 포함합니다 ( 11TRANSFER_CHARACTERISTICS경우 사람의 염려의 구문 요소 테이블 A.9). 이것은 (적어도 아직은) 널리 사용되지는 않지만 스틸 이미지의 xvYCC 색 공간을 직접 지원합니다.


감사; 그것은 확실히 그것을 보는 한 가지 방법입니다. 이러한 파일 형식과 더 넓은 색 공간이 존재한다는 것을 알고 있습니다. 나는 거기에 왜 내가 정말 관심있어하는 것 같다 푸시 소비자 수준의 사진에있는 A / V의 세계에서 더 큰 색 깊이, 그러나.
mattdm

1
@ mattdm : 밀어 붙이는 이유는 전에 없었던 것 같습니다. 10 년 이상 스틸 사진에 대해 넓은 범위 / 높은 색 농도를 사용할 수 있었으며 디지털 카메라가 Adobe RGB (sRGB보다 넓은 범위를 갖지만 98 %를 지원하지는 않지만)를 지원했습니다. 몇 년 동안 실험실 영역. Canon의 sRAW는 최소 2 년 동안 엔트리 및 ​​미드 레벨 DSLR에서 사용할 수 있습니다. 나는 Jerry에 동의 할 것이다. .. 비디오는 "잡는"도메인이다.
jrista

4

그래서 약간의 연구 후에 내 자신의 질문에 조금 대답하기 위해 :

xvYCC는 아니지만 JPEG 인코딩이 비슷한 구식 체계를 사용하기 때문에 여전히 나를 피하기 위해 "우리 는 좋은 일을 할 수 있습니다!" 에 약간의 고무적인 움직임 이있는 것으로 보입니다 . 최소한 Microsoft 는 스틸 사진에서 더 넓은 색 영역과 더 나은 비트 심도를 중요하게 생각하기 때문 입니다.

느리지 만 확실하게 JPEG XR (이전의 Windows Media Photo, HD Photo) 이라는 새로운 파일 형식 표준을 추진하고 있습니다. "전통적인"JPEG에서 흥미로운 진전으로 동일한 이미지 품질에서 더 나은 압축을 제공하고 (이 시점에서 더 높은 비트 심도 지원)

JPEG 2000도이 작업을 수행하지만, 사용하는 웨이블릿 압축을 다루는 특허 또는 기타 문제에 대한 우려로 인해 크게 퍼졌습니다. 중요한 점은 다음과 같습니다. Microsoft는 JPEG XR을 Internet Explorer 9를 포함한 많은 소프트웨어에 포함시켜 현재 JPEG XR을 홍보하고 있습니다 . 2009 년 현재,이 표준공식적인 실제 국제 표준 이며, Microsoft의 "커뮤니티 약속"에 의해 구현에 대해 적대적인 방식으로 특허를 시행하지 않습니다. 그래서 그것은 미래의 흡수에 아주 좋습니다.

그리고, 그와 함께, 그들은 더 많은 비트 당 채널 "등의 아이디어를 밀어하고 높은 색 오래된 16 비트-for- 정지의 내 마음 속에 있기 때문에 나에게 재미있다", ( 모든 -channels을 비디오 카드 모드). 이것의 일부로 scRGB라는 엄청나게 큰 "중간"색 공간 이 있습니다. 여기에서 멋진 자세한 설명을 읽으십시오 . 원한다면 JPEG XR이 지원합니다. 대부분의 색상이 인간의 인식을 벗어난 "가상"영역에 있기 때문에 최종 색상 공간 으로 특히 유용하지 않을 수 있습니다 . 그러나 어쨌든 요점은 Microsoft 더 높은 비트 수준의 표준을 Windows 운영 체제에 통합하고 있으며 여전히 사진 입니다.그것의 일부. 약간 오래된 CNET 인터뷰 에서 "JPEG XR과 함께 카메라에서 scRGB가 지원 될 것을 기대합니다."

그러나 4 년 반이 지난 지금도 우리는 JPEG XR을 지원하는 카메라를 보지 못합니다. 하지만 어쩌면 나는 단지 참을성이 없습니다. 다른 답변에서 알 수 있듯이, 넓은 범위를 지원하는 디스플레이 하드웨어가 사용 가능해졌으며 세계에서 가장 인기있는 OS에서 지원이 최근에 지원되었으며, 이번 달에 이를 지원하는 최초의 웹 브라우저가 출시되었습니다 . 크롬파이어 폭스에 의해 포착되고 결국에는 선택 될 것이므로 이미지 처리 프로그램 (RAW 변환기 포함)이 지원되며 카메라에서 실제로 직접 출력됩니다.

아니면 모든 것이 퍼질 것입니다. 시간이 말해 줄거야. :)


2
JPEG XR의 좋은 기능은 계산 비용이 저렴하여 예를 들어 카메라 내장 인코딩을 구현하는 것이 가능하다는 것입니다. JPEG 2000은 비용이 많이 듭니다. 아마도 컴퓨팅 성능의 행진이 그렇게 큰 것은 아니지만 아마도 이것은 요인입니다.
PeterT

3

존의 주위에 몇 가지 메모를 추가하겠습니다 ...

  1. Raw 이미지의 경우 "개발"단계에서 색상 공간이 선택되므로 JPEG에 대해 이야기 할 때만 카메라 공간에서 색상 공간이 의미가 있습니다. 일부 카메라 (특정 Pentax semi-pro)는 JPEG 개발을 위해 sRGB 또는 aRGB를 선택할 수 있으므로 3 분의 1 (또는 ProPhoto의 경우 4 분의 1)을 추가 할 수 있습니다. 그런 다음 대부분의 전문가는 의도 한 출력 매체에 원하는 색상 공간으로 이미지를 가져옵니다.

  2. 뷰어 (및 / 또는 장치)도 색 공간을 인식하고 처리 할 수 ​​있어야합니다. 넓은 영역 모니터가 점점 보편화되고 있지만 여전히 소수에 불과하고 따라 잡는 데 시간이 걸릴 것입니다. 도대체 나도 여전히 오래된 CRT 모니터를 가지고있는 사람들이 꽤 괜찮은 컴퓨터에 연결되어 있다는 것을 알고 있습니다.


xvYCC가 '색 공간'이 아니라는 점을 다시 강조하고 싶습니다. 실제로 RGB 색상 정보의 인코딩 형식입니다. 색상 공간이 아니라 더 많은 정보를 사용하여 색상 정보를 저장하고 사람이 광도와 색을 인식하는 방식에 더 가까운 형식으로 저장하기 때문에 더 넓은 범위를 지원합니다.
jrista

IEC 표준 인 @jrista는 특히 "비디오 응용 프로그램을위한 확장 영역 YCC 색 공간-xvYCC"라고하며 실제로 색 공간임을 암시합니다. YCC를 읽은 후, 나는 당신이 어디에서 왔는지 알며, 확신 할 수없는 표준을 읽기 위해 백 달러를 지불하고 싶지는 않지만 현재 가정은 확장 된 지정 방법을 모두 지정한다고 가정합니다. YCC의 색상 정보 실제 더 넓은 RGB 색상 공간.
mattdm

1
사양을 자세히 읽어야합니다. 나는 xv가 아직 무엇을 의미하는지 정확히 알지 못하기 때문에 실제로는 넓은 범위의 색 공간을 의미합니다. 그러나 YCC는 더 많은 비트를 사용하더라도 "범위"가 아니며, 단지 " encoding. RGB는 색 공간이라고 말하는 것과 같습니다. 색상 데이터를 인코딩하는 방법이 아닙니다. A color space는 기본 색상 매핑 세트, 감마 키, 흰색 및 검은 색 점 및 일부 곡선을 통해 각 색상의 광도 및 색도 값을 정의합니다.
jrista

1
"xv"가 "확장 된 값"이라고 생각하지만 "soudns cool"을 의미 할 수도 있습니다.
mattdm

1

xvYCC 색상 공간은 아마도 기존 사진을 개선하는 새로운 표준이 개발 되었기 때문에 스틸 사진에 대한 관심을 보지 못하고 제조업체는 '다음으로 가장 큰 것으로 대체되기 전에 감가 상각 될 수있는 표준에 투자하기를 원하지 않습니다. '. 그들은 VHS와 베타에서 배웠습니다.

HEIF (High Efficiency Image Format), MPEG-H Part 12는 코덱 별 이미지 형식을 도출 할 수있는 구조적 형식을 지정하는 파일 형식입니다.

HEIF에는 또한 고효율 비디오 코딩 (HEVC, ISO / IEC 23008-2 | ITU-T Rec. H.265 또는 MPEG-H Part 2)을 준수하는 이미지 및 이미지 시퀀스를 캡슐화하기위한 사양이 포함되어 있습니다.

Apple의 WWDC 2017 기조 비디오 ( https://youtu.be/oaqHdULqet0?t=58m49s )에 언급되어 있습니다 .

Apple의 iPhone 7 이상은 사진을 촬영하여 JPEG 또는 HEIF 형식으로 저장합니다. HEIF를 사용하면 입력에서 출력으로의 손실 또는 변환 (HEIF 비 압축 사용시)없이 완벽한 인프라를 제공하는 완벽한 카메라 대 스토리지 솔루션을 제공 할 수 있습니다.

모든 기능을 완벽하게 지원하는 것은 아니며 (MPEG가 거의 "완전히 지원되지 않는"것처럼) 다른 사람이 쉽게 수행 할 수없는 것처럼, 이미지에 대한 완벽한 솔루션 (비디오의 경우)에서 가장 먼저 나오는 것 같습니다 우리는 몇 년 동안 HEVC H.264, H.265 및 최근에 HikVision의 H.265 +의 하위 집합을 가졌습니다).

HEIF를 지원하는 다른 카메라를 알고 있다면 의견을 말하거나 편집하십시오. 감사합니다.

특히 높은 다이나믹 레인지에서 이미지와 비디오를 기록하는 카메라 (센서가 색상 당 16 비트를 초과 함)는 종종 데이터를 처리하지 않고 (압축 파일 만들기) 대신 원시 데이터를 직접 출력합니다 (예 : http : // www). .jai.com / en / products / at-200ge- 카메라가 픽셀 당 24 ~ 30 비트를 출력하거나 http://www.jai.com/en/products/at-140cl- 카메라가 픽셀 당 24 ~ 36 비트를 출력 .

끝없이 검색하거나 원하는 것을 정확하게 만들기 위해 특수 카메라 공급 업체에 비용을 지불하려는 경우 CIE 1931 색 공간 카메라 (및 다른 색 공간)를 얻을 수 있습니다. 색 공간에서 다른 프로그램이 사용하는 색 공간으로 변환하십시오.

다음은 Quest Innovations의 Condor3 CIE 1931 카메라에 대한 링크입니다. http://www.quest-innovations.com/cameras/C3-CIE-285-USB .

3,4,5 또는 6 센서가 장착 된 카메라는 스펙트럼을 더 작은 조각으로 분할하고 채널당 더 많은 비트를 제공하여 정확한 색상과 강도를보다 정확하게 해결할 수 있습니다 . .


3 채널 카메라 용 프리즘 3CCD 또는 3MOS

4 채널 카메라 용 프리즘 4CCD 또는 4MOS

5 채널 카메라 용 프리즘 5CCD 또는 5MOS


참고 문헌 :

https://developer.apple.com/videos/play/wwdc2017/503/

https://nokiatech.github.io/heif/technical.html

https://en.wikipedia.org/wiki/High_Efficiency_Image_File_Format

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.