창 / 거울 같은 광학 동작이있는 카메라 + 디스플레이 화면이 존재할 수 있습니까?


9

카메라에 연결된 디스플레이 화면은 창이나 거울과 크게 다릅니다. 창이나 거울을 통해 무한에 초점을 맞출 수 있고 유리한 지점을 움직여 조금 다르게 볼 수 있습니다. 라이브 카메라 영상을 표시하는 디스플레이 화면을 통해 단일 지점 (카메라 위치)에서 시야를 볼 수 있으며 초점은 화면에 있습니다.

창문이나 거울에 훨씬 가까운 화면 + 카메라를 개발할 수 있습니까? 화면과 카메라의 표면적이 같아야한다고 생각합니다. 둘 다 방향과 카메라 픽셀에 민감합니다.(나는,제이)카메라 에서 각도 에서 주파수가 광자를 수신 하면 화면은 위치 에서 방향 로 주파수 의 해당 광자를 전송합니다 에서 는 창 또는 거울 같은 동작을 모방 한 에서 계산됩니다 .ν(ϕ,θ)ν(에스나는,에스제이)(에스ϕ,에스θ)(에스ϕ,에스θ)(ϕ,θ)

그러한 장치는 이론적으로 가능합니까? 그렇다면 오늘날 이러한 장치를 기술적으로 실현할 수 있습니까? 그렇다면 그러한 장치에 심각한 작업이 있었습니까? 이론적으로는 가능하지만 오늘날에는 불가능한 경우 그러한 장치가 수평선에 오기 전에 무엇을 개발해야합니까?

텔레프레즌스 , 증강 현실 , 자동차 엔지니어링 및 기타 많은 분야에서 광범위한 응용 프로그램이 있어야 합니다.


그것이 매우 유용하지만, 당신이 그것을 들어 본 적이 없다는 사실은 타당성에 대한 힌트가 될 것입니다 :-)
Carl Witthoft

@CarlWitthoft True, 타임머신 (-:
gerrit

답변:


5

원하는 것을 수행하는 기술은 수십 년 동안 존재 해 왔으며,이를 홀로그래피 라고 합니다. 일반적인 사진 센서 및 디스플레이의 문제점은 빛에 대한 진폭 정보 만 기록 / 재생한다는 것입니다. 예를 들어 광선의 각도를 알기 위해서는 빛의 위상 정보도 기록해야합니다. 이것이 바로 홀로그래피가하는 일입니다.

하단에 표시된 이미지에서 다른 각도에서 찍은 단일 홀로그램의 두 이미지가 마치 다른 각도에서 본 것처럼 마우스를 보여줍니다. 마우스의 뒷면과 마우스의 가지와 같이 다른 각도에서는 보이지 않는 장면의 일부가 한 각도에서 보입니다.

실시간 홀로그램 (스크린이있는 카메라와 유사)을 만드는 데 필요한 기술은 여전히 ​​R & D 단계에 있으며 매우 기초적인 기술입니다. 공간 광 변조기 는 2D 홀로그램을 실시간으로 생성하는 방법을 제공합니다. 이 그룹 은 렌즈 배열이있는 표준 4K 카메라를 사용하여 홀로그램을 기록 할 수 있었고 공간 광 변조기를 사용하여 홀로그램을 실시간으로 재현했습니다 (특히 그렇지는 않음).

여기에 이미지 설명을 입력하십시오


1

이러한 스크린은 잠재적 인 응용으로 '비 가시성 망토'로 알려진 메타 물질 과 유사한 기술로 가능할 수있다 . 일부 회사는 또한 군대를 위해 이것을 달성했다고 주장하지만, 그 주변의 모든 PR은 스틸 이미지와 모형을 사용하기 때문에 그 효과는 의문의 여지가 있습니다.

트릭은 모든 방향에서 빛을 집어 들고 다른 쪽 (또는 화면)에서 같은 산란을 재현하는 것입니다. 굴절사용하여 중앙 물체 주위에 EM 파를 구부리는 것을 사용하여 일부 파장에 대해 '보이지 않는' 방법을 만들 수 있지만, 광섬유 묶음으로 어떻게 든 다른 쪽 끝에서 정확하게 그것을 재현합니다 (아웃 바운드 분산의 '비틀림'없이).

여기에서 찾고있는 실제 응용 프로그램에 대해 상당히 흐릿하고 너무 저개발 된 것으로 보입니다. 아마도 당신이 달성 할 수있는 가장 좋은 것은 머리 / 눈 추적 기능이있는 3D 렌티큘러 화면 일 것이므로 화면 / 헤드 상대 위치에 따라 이미지를 조작 할 수 있습니다.

이것은 내가 아는 한 현재의 기술로 한 번에 한 사람에게만 효과가 있습니다. 그런 다음 입력을 다른 각도에서 다시 표시 할 수 있도록 3D 장면으로 처리해야합니다. 이 기술은 상당히 성숙하고 소프트웨어 처리를 통한 순수한 카메라 기반 가시광 캡처부터 여러 개의 능동 및 수동 입력을 결합한 능동 3D 스캐닝 카메라에 이르기까지 다양한 기술이 있습니다. 대안 적으로, 밀집된 2D 카메라 어레이를 사용할 수 있고 상대 헤드 스크린 방향에 맞게 두 개의 적절한 카메라를 선택할 수 있습니다. 그들의 시야는 여전히 헤드 스크린 거리에 따라 조작 될 필요가있을 것이다. 이것은 광각 렌즈로부터 이미지를 자르고 스케일링함으로써 디지털 방식으로 수행하기가 더 쉽다.


1

필요한 계산량을 고려할 때 각 개별 광자를 전송하는 것은 불가능하지만 들어오는 빛의 방향에 대한 일부 정보를 캡처하는 기술은 이미 존재하며 Lytro 에서 사용됩니다. "light field"카메라에 사용됩니다.

내가 아는 한 해당 라이트 필드 디스플레이가 존재하지 않습니다. Lytro 시스템은 사진을 촬영 한 후 초점, 피사계 심도 등을 조정할 수있는 사후 처리 기능이있는 일반 디스플레이를 사용합니다.


글쎄요, 당신은 들어오는 N 개의 광자 마다 N 개의 광자를 전송할 수 있습니다 ... 문자 그대로 각 광자를 처리하는 것은 아닙니다.
gerrit

네, 거기에 대해 걱정할만한 각도 양자화 문제가 있지만, 리시버의 각 지점에 대해 찾고있는 방향의 특정 N 개의 "버킷"만 가질 수 있습니다. 버킷이 많을수록 더 많은 노이즈가 발생합니다.
pjc50

아무도 쉽지 않을 것이라고 아무도 말하지 않았다 ;-)
gerrit

0

3D 카메라

깊이 인식을 위해 두 대의 카메라로 구성된 3D 카메라는 오랫동안 사용되어 왔습니다. 유일한 층은 뇌가 이해할 수있는 방식으로 한 쌍의 사람의 눈에 표시하는 것이 어렵다는 것입니다. 오늘날 대부분의 노력은 각 눈에 하나의 이미지 만 표시하는 데 집중하고 뇌는 이미지를 하나의 일관된 내러티브에 동기화하는 데 집중할 수 있습니다.

문제는 눈에 매우 가까운 디스플레이 또는 한 쌍의 편광 안경이 필요하다는 것입니다.


흥미롭지 만 이것은 내가 요구하는 것과 다릅니다. 거울이나 창의 효과를 에뮬레이트하는 것은 스테레오 시청보다 훨씬 더 중요합니다.
gerrit

The problem with that is either you need a display very close to the eyes, or a pair of polarized glasses.또는 시차 장벽 .
Dan Henderson
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.