사람들이 로봇 탐색을 위해 레이저 센서 대신 카메라를 사용하는 이유는 무엇입니까?


11

도시 환경에서 로봇 현지화 및 탐색 작업을하고 있습니다. 카메라를 사용하고 싶습니다. 그러나 나는 LRF 데이터 또는 다른 레이저 데이터에 대해 약간 혼란 스럽습니다.

사람들이 왜 카메라를 사용하고 싶습니까?

왜 LRF 또는 다른 레이저 데이터가 아닌가?

누구든지 카메라에 찬성하여 설명 할 수 있습니까?

답변:


15

구글 카와 같은 3D 레이저 거리 측정기 나 LIDAR 는 카메라보다 훨씬 비싸다. 다른 이유는 LIDAR의 경우 모든 픽셀의 거리가 이용 가능하지만, 처리 될 생성 된 데이터는 엄청 나기 때문이다. 비용이 증가함에 따라 데이터를 더 빨리 전송하고 처리해야합니다. 마지막으로 카메라는 일반적으로 수명이 길기 때문에 유지 관리가 덜 필요합니다.

비교적 저렴한 카메라와 컴퓨터 비전으로 꽤 좋은 결과를 얻을 수 있습니다.

예 :

  1. 물체 감지 (사람이 가져온 가방은 빨간색으로 강조 표시되지 않습니다).
  2. 추적

3
비용은 절대적으로 답입니다. 고품질 레이저 스캐너는 (최종 사용자를 위해) 일반적으로 약 $ 10,000에서 시작합니다. 고품질 카메라는 약 10 분의 1의 비용입니다.

1
어떤 종류의 LIDAR를 생각하십니까? 스캔 당 약 1000 포인트 (2D 평면에서)를 반환하는 카메라를 사용했지만 일반적인 최신 카메라는 수백만 개의 픽셀을 반환하므로 훨씬 더 많은 데이터입니다.
user253751

2
@immibis-Velodyne VLP-16은 16 개 평면에서 초당 약 300k 포인트를 수행하고 SICK LMS511은 1 개 평면에서 초당 약 50k 포인트를 수행합니다. VLP-16은 360 도의 시야각을 가지며 약 8k이고, LMS511은 190 도의 시야각을 가지며 약 10k이지만 산업용으로 견고합니다. 이것들은 사진이 아닌 거리 측정 입니다. 카메라는 물론 더 높은 해상도를 반환 할 수 있지만 일반적으로 프레임 등이 매우 낮은 해상도의 흑백으로 다운 샘플링되거나 재생률이 매우 낮은 스테레오 등을 수행하려면 높은 화력이 필요합니다.

1
따라서 초당 300 만 포인트 대 초당 5 천만 픽셀입니다. 카메라에 여전히 전송할 데이터가 더 있습니다. 물론 두 경우 모두 데이터를 충분히 빨리 처리 할 수 ​​없으면 데이터 / 다운 샘플을 폐기 할 수 있습니다.
user253751

4

Bence의 답변에 나오는 포인트 외에도 카메라는 다음을 수행 할 수 있습니다.

  • 프레임간에 매우 강력한 일치 및 객체 인식을 제공하는 많은 복잡한 기능 계산
  • 높은 각도 분해능 (일반적으로 낮은-> 높은 범위는 -> 0.025 ° )0.50.025
  • 저전력 사용
  • 패시브 센서 (레이저의 '깨끗한'신호가 필요하지 않음)

3

도시 환경 내비게이션

레이저에 따라 사용할 수있는 위치에 법적 제약이있을 수 있습니다. 레이저 광선을 던지는 마을을 돌아 다니려면 특별한 허가 / 허가가 필요할 수 있습니다.


5
물론 레이저에 따라 다릅니다 . 그러나 우리는 우주선 무기에 대해 이야기하고 있지 않습니다. 예를 들어 바코드 스캐너를 사용하기 위해 허가 나 라이센스가 필요하지 않습니다.
David Richerby

대부분의 상업용 LRF (Velodyne, Hokuyo)는 클래스 1 레이저를 사용하며 완전히 안전합니다. Google, Uber 등은 이미 LRF를 설치하여 이미 프로토 타입을 테스트하고 있습니다. 나는 그들의 법무 부서가 분노한 부모의 불만으로 가득 차 있다고 생각하지 않습니다 ..
HighVoltage

2

이미 다른 사람들처럼 대답했습니다. 카메라는 일반적으로보다 훨씬 저렴 L ASER R의 플랜지 F의 inders.

카메라에 대해 이야기 할 때 2D 카메라가 아닌가? ifm O3D3xx 카메라 제품군 과 같은 일부 3D 카메라가 있습니다. 이 카메라는 레이저 스캐너의 정확도는 없지만 ~ 1k의 가격대에서 합리적인 프레임 속도로 3D 깊이 데이터를 제공합니다.


1

SLAM 용 LIDAR과 표준 RGB 카메라를 사용하면 어떤 이점이 있습니까?

이전에 다소 비슷한 질문에 대답 한이 링크를 확인할 수 있습니다. (각각의 장단점)

도시 환경에서

Google과 같은 자율 주행 자동차를 언급하는 경우 고려해야 할 사항과 제약 (안전, 비용 등)이 많이 있습니다.

연구 및 학습에 관심이 있다면 사용 가능한 모든 하드웨어 플랫폼을 사용하는 것이 좋습니다.

명심하십시오 :

  1. LIDAR가 매우 비싼 자동차는 쉽게 팔 수 없습니다.
  2. 사람들 주위에서 자율적으로 움직이는 자동차는 실수로 사망 할 수 있습니다. 따라서 고려 사항은 연구 및 학습을 위해 알고리즘을 개발하는 것과 다릅니다.

0

사람들이 카메라 만 사용하고 싶어한다고 생각하지 않습니다. 모든 연구원이 LiDAR을 감당할 수 있다면 LiDAR을 실외 환경을위한 로봇에 장착 할 수 있습니다.

카메라는 매우 싸고 범위에 대한 유일한 제한은 알고리즘 / 소프트웨어에서 처리 할 수있는 픽셀 / 슈퍼 픽셀 해상도입니다.

저를 포함한 대부분의 연구자들은 구조화 된 라이트 카메라를 사용합니다 (야외에서는 작동하지 않지만 로봇이 실외에있을 때는 이러한 센서에서 RGB 카메라로 전환합니다). 이 빛 문제에 대한 해결책은 컨트롤러 / CPU의 처리 능력에 따라 대략적으로 깊이를 결정하기 위해 스테레오 카메라 (계산적으로 비싼 스테레오 비전 / 멀티 뷰 깊이)를 사용한다는 것입니다. 아직 개인적으로 살펴 보지 않은 또 다른 솔루션은 여러 Kinects / Asus Xtions 등을 사용하는 것입니다. 여기에서 심도 강화 및 실외용 여러 RGB 카메라를 얻을 수 있습니다.

LiDAR는 일반적으로 매우 비쌉니다 (정말 좋은 것의 경우 수천 달러). 비록 이것이 일부 회사가 Sweep 과 같은 $ LiDARs $ 250를 내 놓으면서 미래에 변경 될 수 있지만 .

또한 LRF / LiDAR는 범위와 해상도가 제한적입니다 (즉, 특정 거리를 넘어 서면 깊이를 명확하게 해결할 수 없으므로 0 값을 반환합니다 (LiDAR에 대해서는 확실하지 않지만 깊이 카메라는 또한 최소 범위 (아래)가 깊이를 제공하지 않습니다.

도움이 되었기를 바랍니다.


0

솔직히 다른 사람이 자라길 바라는 또 다른 이유를 추가하려고합니다. 왜 우리는 처음에 로봇을 만드는가? 우리의 더러운 일을하기 위해 감정이없는 기계?

로봇이 우리의 포유류처럼 "비전"에만 전적으로 의존 할 수 있다는 사실은 우리를 더 좋아하게 만든다고 생각합니다. 나를 위해 레이저와 소나가 바람을 피우고 있습니다. 부정 행위 대신 IMHO가 집중해야하는 것은 더 높은 프레임 속도, 높은 동적 범위 및 아티팩트를 가진 더 나은 카메라를 만들고 필요한 데이터를 얻을 수있는 소프트웨어를 작성하는 것입니다. 또는 2012 년 이후에 말하면 네트워크에서 필요한 데이터를 얻도록 교육합니다.

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.