어제 끄적 끄적 공책에 디자인 해 놓았던 데이터 수집 프로그램을 완성하였다. 사실 뭐 대단한 건 없고, 그냥 랜덤하게 로봇의 위치와 방향들을 생성하고 그 데이터를 적용하여 로봇을 해당 위치로 옮긴 다음, 센서 값을 저장하고, 다음 위치로 다시 이동시키고.. 간단한 프로그램이다. Haptic Device를 제어하는데 약간 문제가 있었는데, Haptic Device가 가까운 거리를 이동할 때는 잘 작동하다가, 꽤 먼 거리를 이동할 때는 갑자기 프로그램이 에러를 내면서 그냥 죽어버리는 거다. -_-; 어디서 에러가 났다는 메시지도 없고, 그냥 Error입니다. 한 마디를 던지고 죽어버린다. 나보고 어쩌라고 -.-;; 고치려고 상당한 노력을 들여봤으나.. 앞으로 해야 할 일을 적어놓은 노트를 보고 한 숨 푹 쉬..
Mobile Haptic Display 시스템에서는 두 개의 sensor를 사용하는데, 하나는 로봇의 움직임을 추적하기 위한 센서이고, 다른 하나는 사용자의 움직임을 추적하기 위한 센서이다. 그런데 여기서 문제가 되는 것이, 로봇에 부착한 센서인데, 실제로 센서를 로봇의 중심에 딱! 맞게 위치시킬 수 없으므로, 적당한 위치에 센서를 달고, offset만큼을 빼 줘서 로봇의 위치를 계산하게 된다. 로봇 좌표축의 중심을 모바일 로봇 원판의 중심으로 정의하고, 센서가 달려있는 곳에서부터 로봇의 중심까지의 거리를 자로 직접 재는 삽질을 했는데.. 사실 전자과에서 로봇을 만들 때 로봇의 무게를 줄이기 위해서 로봇 원판의 반 정도를 구멍을 뚫어 버리는 바람에 T.T 정확한 중심을 확인할 수 없는데다, 센서의 중심도..
원래 내가 연구하고 있는 Mobile Haptic Display에서 논문이 될만한 부분은 haptic rendering 파트였다. 나머지 부분은 사실 독일 그룹과 이탈리아 그룹에서 연구가 많이 진행되었고, conference와 journal에 몇 편의 논문이 발표된 상태이다. 단지, 다른 나라 그룹들은 mobile haptic display를 telepresence system차원에서 접근하는 기계과 사람들이 대부분이었기 때문에, 다른 그룹들이 소홀이 여기는 haptic rendering을 연구 주제로 잡은 것이었다. 그러나 실상은 haptic rendering도 virtual proxy algorithm이라는 걸출한 스타가 자리잡고 있기 때문에, 기존 알고리즘을 최대한 이용하는 방향으로 연구를 진행하고..
간만에 연구를 좀 하셔서 드디어 최종 transformation을 유도했다! 이렇게 생긴 Mobile Haptic Display 의 최종 tooltip까지의 transformation을 알기 위해서 위와 같은 coordinate들을 정의하고, 모든 matrix를 곱해서 최종 transformation을 구해보면, 위와 같이 복잡한 matrix가 나옴! 지금 계산해보니 대략 +- 5cm의 오차로 계산이 된다! 이렇게 기쁠 때가 있나! 처음에 column major order matrix로 계산을 했는데, vector를 왼쪽(pre multiply)에 곱해야 하는지 모르고, 오른쪽(post multiply)에 곱하는 바람에 계산이 엉망이 된 점, 최종 tooltip의 위치를 계산해서 그려보면 저기~ 어디 이..
World frame에서 PHANToM tooltip frame 까지의 trasnformation을 유도해야 하는데.. World coordinate에서 Robot coordinate까지는 transformation이 맞는데, robot coordinate에서 phantom coordinate로 가는 변환이 자꾸 어긋난다. 벌써 며칠 째 삽질인지.. 에휴. 분명 하나 하나 따져보면 다 맞는데, 막상 합쳐서 곱해보면 값이 영~ -_-; transformation 유도가 얼른 끝나야 Jacobian을 유도하고, tool tip에 적용되는 force도 계산해낼텐데.. 과연 5월에 디펜스를 할 수 있을까? 허허..
Mobile Haptic Display의 현 시스템 구성도 mobile robot과 user에 tracker를 달아서 위치 정보를 추적하고, 이를 이용해서 visual rendering을 하고, 이 정보를 다시 모바일 로봇 안에 있는 노트북으로 전송한 뒤, 노트북에서 haptic rendering과 mobile robot의 velocity control을 해 준다. but.. 아직 전자과에서 만들고 있는 로봇은 뒤뚱 뒤뚱 거리고 있고, 난 아직 haptic rendering 부분을 손도 못 대고 있는데, 12월에 결과보고서를 써야 한단다. 아이고 ㅠ.ㅠ
실험 설계 및 분석 숙제를 내일까지 내야되서, 이 시간까지 열심히 풀고 있는데.. 왜 랩에 남아 있는 사람은 나 밖에 없는건지. ㅡ,.ㅡ 분명히 수업 듣는 사람은 네 명이나 되는데 -_- 내일 보여 달라 그럼 한껏 미소를 머금고 "한 장에 백 원!" ㅋㅋ Mobile Haptic Display를 만들 때 밑단의 mobile robot이 움직임으로써 haptic device를 통해 사람에게 전달되는 힘을 측정하기 위해서 Force sensor를 사기로 했다. 지난주 랩미팅 때 foce sensor얘기가 나와서 이틀 동안 구글링을 통해 만만한 force sensor를 찾아보았다. 이 얇팍한 녀석은 FlexiForce라고 굉장히 싸고 간단한 모델이다. 그런데 이 모델은 기껏해야 1차원 force를 재는 넘라서..