비전 센서가 장착 된 로봇의 확률 적 신념을 계산하는 가장 좋은 방법은 무엇입니까?


12

카메라를 기본 센서로 사용하는 로봇에 대한 '믿음 공간'계획을 구현하려고합니다. SLAM과 마찬가지로 로봇은 3D 포인트 맵을 가지고 있으며 모든 단계에서 환경과 2D-3D 매칭을 수행하여 현지화합니다. 이 질문의 목적 상지도가 바뀌지 않는다고 가정합니다.

신념 공간 계획의 일환으로 로봇을 처음부터 목표로 나아가는 경로를 계획하고 싶지만, 위치 정확도는 항상 극대화됩니다. 따라서 실제로 이동하지 않고 로봇의 가능한 상태를 샘플링해야하며 로봇이 그 상태에 있었을 때 로봇이 관찰 한 결과는 함께 (내가 틀렸다면 정정하십시오) 로봇의 '믿음'을 형성합니다. 그 시점에서 현지화 불확실성을 인코딩합니다. 그리고 내 플래너는 가장 불확실성 (공분산)을주는 노드를 연결하려고 시도했습니다.

이 카메라 기반 로봇의 현지화 불확실성은 주어진 위치에서 몇 개의 특징점이 보이는지, 로봇의 방위각 등의 것들에 전적으로 달려 있습니다. 특정 샘플에서 현지화가 얼마나 '나쁜'지 추정해야합니다. 버릴 것인지 결정하는 것입니다. 이를 위해 측정 모델을 어떻게 정의합니까, 카메라의 측정 모델입니까, 아니면 로봇의 위치와 관련이 있습니까? 미리 측정을 '추측'하고 추측 한 측정을 통해 로봇의 공분산을 어떻게 계산합니까?

편집 : 나를위한 주요 참고 자료는 Belief Road Maps 방법의 확장 인 Random Belief Trees빠르게 탐색 한다는 아이디어입니다 . 다른 관련 논문 은 제한 계획에 RRBT를 사용합니다. 이 논문에서 상태는 그래프로 정점으로 표시되는 기존 RRT와 유사하게 샘플링되지만 정점이 연결될 때 알고리즘은 현재 정점에서 새로운 정점으로 신념을 전파합니다 (섹션 V의 섹션 1의 PROPAGATE 함수 ) 나는 여기에 붙어 있습니다 : 나는 실제로 그것을 통과하고 새로운 측정을 얻지 않고 지역화로부터 새로운 공분산을하지 않고 가장자리를 따라 신념을 전파 할 수있는 방법을 완전히 이해하지 못합니다. RRBT 용지 "공분산 예측 및 비용 기대 방정식은 PROPAGATE 함수에서 구현됩니다"라고 말합니다. 그러나 예측 만 사용하는 경우 향후 위치에 현지화 정확도를 향상 / 분해 할 수있는 충분한 기능이 있는지 어떻게 알 수 있습니까?


이것에 대한 문헌을 읽었습니까?
Jakob

예, 제가 접한 관련 논문에 대한 질문에 더 자세한 내용을 추가했습니다.
HighVoltage

Ooooh 이해합니다. 내가 그것을 이해하고 다른 사람들을 위해 참조 할 수 있는지 말로 표현해 드리겠습니다. 전체 지역을 샘플링하여 많은 위치에서 잠재적 인 뷰를 결정할 수 있고 시작부터 끝까지의 경로 "좋은"랜드 마크의 뷰를 가능하게하는 뷰를 모두 제공하는 일련의 위치를 ​​선택하려고합니다. SLAM 스타일 지역화와 함께 사용하십시오. 귀하의 질문은보기가 "좋은"또는 "나쁜"양을 측정하는 방법과 그 "보기 좋은 것"이 공분산과 어떻게 관련이 있는지입니다. 이것이 공정한 요약입니까?

1
간단히 말해서, 그렇습니다! 이것은 이미 RRBT 논문에서 이미 달성되었지만 그 배후의 수학을 이해하는 데 어려움을 겪고 있습니다.
HighVoltage

1
이것은 멋진 개념처럼 들립니다. 나는 오늘 모바일에 있지만 내일 논문을 읽고 차임하려고합니다. 전체 알고리즘이 특정 단계에서 감지 할 것이라고 생각 하는 것 (믿음)을 기반으로 추측 합니다. 즉, 실제 측정은 알고리즘에 속하지 않기 때문에 실제로 공간을 탐색 할 필요가 없습니다. 전체 알고리즘이 맵에 대한 사전 지식을 바탕으로 구축 된 것으로 들리며 품질 결과에 대해 정확한 것으로 간주됩니다.

답변:


2

베어링 전용 현지화를 사용하여 카메라 정보를 모델링하고 노이즈가없는 측정 (예 : 혁신 없음)을 시뮬레이션하십시오.

여러 가지 이유로, 이것은 이론적으로 경로의 정보를 추정하는 건전한 방법입니다.

Fisher Information Matrix 와 같은 많은 "측정이 필요없는"정보 제공 지표가 있습니다. 랜드 마크 위치를 측정하여 로봇 위치에 대한 정보의 양을 결정하려면 로봇의 위치와 맵의 랜드 마크 위치 만 있으면됩니다. (또는 비자의 경우, 측정의 혁신은 대상과 로봇 모두에 적용됩니다 (SLAM이 맞습니까?), 동일한 메트릭이 두 가지 모두에 적용됩니다).

베어링 센서부터 시작하겠습니다. 비전 센서의 훌륭하고 잘 받아 들여진 모델입니다. 세계에서 피처를 찾는 데 몇 픽셀의 오류가 있다고 가정하여 베어링 측정에서 "노이즈"를 파악하십시오. 시스템의 상태를 로봇의 위치에 불확실성을 더한 다음 경로를 샘플링하십시오 (제안한대로). 샘플링 된 경로의 각 위치에서 FIM을 사용하여 예측 된 불확실성을 다시 계산합니다 . 측정하기에는 오류가 없다고 가정합니다 (즉, 로봇의 신념에 대한 "혁신"은 없을 것임). 그러나 로봇의 위치 추정치에서 공분산이 줄어듦에 따라 불확실성이 떨어질 것입니다. 랜드 마크의 위치 나 불확실성을 업데이트하지 말고 문제를 단순화하십시오.

이것은이 문헌에 대한 나의 마지막 검토에서 내가 기억하는 것으로부터 상당히 잘 이해 된 접근법이지만, 그것에 대한 나의 말을 받아들이지 않습니다 (자신을 검토하십시오!). 최소한 이것은 시뮬레이션하기 쉬운 기본 접근 방식을 형성해야합니다. 문학의 힘을 사용합시다. 설정 및 방정식 에이 논문 을 숙독 할 수 있습니다 .

요약

  1. xΣ
  2. Σi
  3. 궤적의 "비용"목표를 향해 진행 일부 볼록 조합 공분산의 역하자 (예, 정보 행렬 )

일부 미묘

가장 작은 상태 벡터를 사용하십시오. 로봇이 모션과 독립적으로 카메라를 가리 키거나 여러 대의 카메라가 있다고 가정 할 수있는 경우 방향을 무시하고 위치를 추적하십시오. 2D 위치에서만 진행하겠습니다.

선형화 된 시스템을 도출해야하지만, 위의 논문에서 시스템을 빌릴 수 있습니다. 측정 시뮬레이션을 방해하지 않아야합니다 (예 : "시뮬레이션 측정"으로 EKF 업데이트 만 수행하는 경우 측정이 참이고 노이즈가없는 것으로 가정).

Pi|i1=FiTPi1|i1Fi+Q
P=PPHT(HPHT+R)1HP

Woodbury 매트릭스 아이덴티티를 적용하면

P1=P1+HTR1H

n

I=i=1nHiTR1Hi

Ri=1nHiTR1Hi

HHnx2nn2Rn×nσIn×nσ

측정 방정식은 무엇입니까? 이것의

tan1ytyrxtxr

tr


재귀 풀기. 다음과 같이 진행합니다.

  1. 불확실성을 고려하지 않고 길을 찾는 경로 검색 알고리즘을 작성하십시오.
  2. H
  3. trace(HTRH)
  4. 결과는 궤적의 FIM (리더에게 남은 운동)과 일치하며 가장 이론적 인 방법으로 가장 유익한 궤적을 결정했습니다.

훌륭한 답변에 감사드립니다! 실제로 RRT와 결합 된 R의 추측으로 카메라 기반 메트릭을 사용하여 매우 유사한 경로를 실제로 사용했습니다 (최근에 내 질문에 대답해야한다고 생각했지만 당신이 나를 이겼습니다!). 그건 그렇고, 단순화 된 업데이트 방정식에 inv (R)가 있어야한다고 생각합니다. 경로의 합계 (inv (R))를 최대화하거나 경로를 통해 sum (R)을 최소화하는 것과 같습니다 (H 무시)
HighVoltage

잘 잡았다. 업데이트하겠습니다.
Josh Vander Hook
당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.