2 차원 평면에서 객체를 정확하게 이동시키는 방법


9

이것은 이전 질문 의 반대 / 보완 사항으로 , 짧은 기간 동안 누군가가 객체를 움직일 때 정확한 위치를 측정 하는 것과 관련 이 있습니다. @Rocketmagnet의 제안 된 접근법 중 하나 (아마도 선형 인코더 사용)를 사용한다고 가정하면 다음과 같습니다.

객체가 누군가에 의해 2 차원 평면을 가로 질러 어떤 패턴을 통해 임의로 이동함에 따라 XY 위치 데이터를 추적 / 기록했다고 가정 해 봅시다.

목표 : 이제 객체 가 동일한 기록 된 이동 패턴 을 복제 하고 싶습니다. 즉, 객체가 동일한 XY 위치를 통해 이동하기를 원하지만 이번에는 자동화되었습니다.

즉, 시스템이 기록 된 (X1, Y1)에서 (X2, Y2)에서 (X3, Y3) 등으로 물체를 운반 / 변위하고 싶습니다. 다시 한번, 2D 평면 / 표면에 완전히 구속됩니다.

여기에 이미지 설명을 입력하십시오

제약 사항 :

  • 0.5mm 이하 의 객체로 상당히 제어되고 정확한 움직임을 원합니다 .
  • 물체가 움직일 지점이 30cm X 30cm 정사각형으로 확장됩니다.
  • 점들 사이의 정확한 지속 시간 / 경로는 중요하지 않습니다-상당히 잘 채워진 점 세트를 가질 것이기 때문에 (이미 계속 연속적인 움직임에 가깝습니다)

내가 이것에 대해 고려한 하나의 잠재적 인 해결책 (그리고 구현하기 쉬운 것)은 가장자리에 있지만 모터와 연결된 모터를 사용하는 것입니다. 그러나 2 자유도를 동시에 허용하는 방식으로 연결하는 방법을 잘 모르겠으며, 모터를 사용하여 원하는 이동 정확도를 얻는 방법 / 가능한지 확실하지 않습니다.

그래서 내 질문은 :이 종류의 정확하게 제어 된 2 차원 운동을 시도 할 수있는 잠재적 인 방법은 무엇입니까? 현재 설정에 대한 물리적 제한은 거의 없으므로 모든 수준의 복잡성을 합리적인 수준으로 구현할 수 있습니다!

좋은 소식은 다음과 같습니다. ( 이전 질문의 ) 정확한 측정 / 추적 시스템이 있기 때문에 이동 중에 피드백 / 보정을 통합 할 수 있습니다. 0.5를 보장하려면 필수적이라고 생각합니다. mm 최대 오차.

편집 : 정확한 응용 프로그램에 관심이있는 경우 : 시스템은 단순화 된 전자 기술의 행동 복제 데모를 시도합니다. 즉, 사람의 행동이 기록 된 다음 기간이지나거나 복제 시스템에서 복제됩니다. 근처. 처음에는 형상 기억 합금 (특히 니티놀)으로 작업을 시도했지만 다 지점 형상의 3 차원 움직임을 기록하는 것은 쉽지 않았습니다 (FAR부터!). 따라서 2에서 "단일 점"객체로 단순화했습니다. -D 비행기.


이 시스템이 무엇인지 물어볼 수 있습니까? 내가 알면 더 나은 답변을 제공하는 데 도움이 될 수 있습니다.
Rocketmagnet

또한 로봇 공학에 관심이 있으시면 Robotics Stackexchange Proposal
Rocketmagnet

@Rocketmagnet : 위의 설명을 추가했습니다. 그리고 로봇 공학 제안 : 감사합니다. 그리고 그것은 100 % 매우 빠른 속도로 움직이고있는 것 같습니다!
boardbite

이것이 미술 데모라면, 정말로 그러한 정확성이 필요합니까? 당신이 정말로 필요한 것은 해결책이라고 생각합니다. 예를 들어, 도면이 완벽하게 복제되었지만 2mm 오프셋이면 실제 문제입니까?
Rocketmagnet

@Rocketmagnet : 30cm X 30cm에 비해 0.5mm 사운드가 약간 극단적이라고 생각합니다. 내 생각은 이론적으로 높은 정밀도를 가진 방법으로 작업을 시작했다면 실제로 내 구현은 오류를 조금 확대하여 결국 1 또는 2mm에이를 것이라고 생각했습니다.
boardbite

답변:


9

측정 및 복제를 하나의 시스템으로 결합 할 수도 있습니다. 귀하의 질문에 대한 이전 답변으로 시작하겠습니다 : 아이디어 4

이미 물체의 움직임을 측정하기 위해 선형 베어링과 인코더가 설정되어 있습니다. 이제 베어링을 작동시키기 만하면됩니다. 일반적으로 CNC 밀링 머신과 같은 것을 제작하고 직선 운동을 원한다면 볼 스크류와 스테퍼 모터를 사용합니다.

볼 스크류

이것의 문제점은 그것들이 역 구동 가능하지 않기 때문에 객체를 스스로 움직일 수 없다는 것입니다. 두 가지 옵션 :

  1. 힘 센서를 추가하십시오 ( 스트레인 게이지 사용 ). 이제 시스템은 물체를 밀고있는 것을 감지 할 수 있으며 모터가 전혀 없다는 환상을 만들기 위해 모터를 구동합니다. 신중하게 수행하고 모터가 충분히 빠르면 매우 효과적입니다. 이를 능동 준수 라고 합니다 .
  2. 리니어 모터를 사용하십시오 . 전원을 끄면 완전히 역 구동 할 수 있습니다.

리니어 모터


좋은 소식은, 여유가 있다면 Aerotech 또는 Baldor Motion 같은 회사에서 완전한 리니어 모터 모션 시스템을 구입할 수 있다는 것 입니다. 또는 소규모 로봇 공학 회사 에 전체 시스템을 구축 하도록 요청할 수 있습니다 . 다시 말하지만이 시스템은 매우 정확합니다. 0.01mm 정확도가 일반적인 요구 사항, 심지어 0.001mm 정확도 (그러나 온도 제어 환경이 필요한 경우)에서 사용됩니다.


스크류의 리드 각도가 충분히 낮 으면 리드 스크류 시스템을 백 드라이브 할 수 있습니다. 손으로 쉽게 역주행 할 수있는 Kerk 볼 스크류 / 너트 조합이 있습니다.
lyndon

@Rocketmagnet : Wikipedia는 "역주행 (backdriving)"이라는 용어를 "출력에서 입력을 얻기 위해 구성 요소를 반대로 사용하는 것"으로 정의합니다. 여기의 관련성에서와 같이 "[스테퍼 모터]가 역 구동 가능하지 않다"는 의미를 설명 할 수 있습니까? 데모에서는 시스템이 객체를 이동하는 동안 사람이 동시에 객체를 이동하지 않거나 그 반대의 경우도 있습니다 (사실 데모의 자동 복제 섹션과 사람의 이동 섹션이 완전히 분리 될 수 있음)
boardbite

7

귀하의 편집 결과에 따르면, 선형 모터와 관련된 나의 솔루션은 약간 오버 톱이라고 생각합니다. 당신의 응용 프로그램은 단순히 누군가의 그림을 재현하는 예술 데모입니다. 충실한 재현을 위해서는 제어와 해상도가 우수해야하지만 원래 지정한 정확도는 실제로 필요하지 않습니다.

먼저 우리는 종종 오해의 소지가있는 정확성, 해상도 및 반복성을 정리해야합니다. Wikipedia 기사의 정확성과 정밀도를 읽는 것이 좋습니다 .

필요한 것은 측정 부분의 좋은 해상도, 아마도 0.1mm입니다. 아마도 꽤 좋은 반복성이 필요할 것입니다. 다시 0.1mm라고합시다. 그러나 실제로 큰 정확도는 필요하지 않습니다. 예를 들어, 복제품이 항상 원본과 동일하지만 왼쪽으로 3mm 오프셋 된 경우 행복 할 것입니다. 마찬가지로, 재생산이 0.5 %가 너무 크면 어떻게됩니까? 정말 문제가 될까요?

측정 단계에서는 끈 냄비를 사용하는 것이 좋습니다. 설정이 간단합니다.

재생산 단계의 경우 플로터입니다.

음모자

이것들은 자신을 만들기가 어렵지 않으며 사람들은 항상 그들을 만듭니다. 예를 들어 Contraptor Plotter 를 확인하십시오 . 또는 웹상 의 많은 다른 예 .


5

여기에 이미지 설명을 입력하십시오 "I"= 아이들러 "D"= 구동 다크 그레이 플랫폼이 슬라이드 # 3,4에 부착 됨 라이트 그레이 플랫폼이 다크 그레이에 고정 된 슬라이드 # 1,2에 부착 됨 플랫폼

케이블은 "H"그림에서 아이들러와 풀리를 감싸는가는 선입니다.

케이블이 연한 회색 플랫폼에 고정되어 있습니다 (화살표 표시).

종동 풀리가 반대 방향 (CW 및 CCW)으로 동일한 속도로 구동되는 경우. 더 큰 플랫폼은 페이지를 위아래로 번역합니다.

종동 풀리가 같은 방향 (CCW)으로 작동하는 경우 작은 플랫폼이 페이지의 왼쪽과 오른쪽에 큰 플랫폼에서 작동합니다.

구동 풀리의 속도와 방향을 변경하면 원하는 방향으로 번역 할 수 있습니다.

"D"풀리에 스테퍼 모터를 사용하십시오.


3

2D 플로터를 구현하는 또 다른 방법은 다음과 같습니다.

2D 플로터

Mind Out 에서 큰 그림을 그리는 데 사용 되었습니다. 축제 .

보시다시피, 스트링 포트를 사용한 2D 측정과 매우 유사하며 포트를 모터로 교체합니다.

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.