Mobile Haptic Display 시스템에서는 두 개의 sensor를 사용하는데, 하나는 로봇의 움직임을 추적하기 위한 센서이고, 다른 하나는 사용자의 움직임을 추적하기 위한 센서이다. 그런데 여기서 문제가 되는 것이, 로봇에 부착한 센서인데, 실제로 센서를 로봇의 중심에 딱! 맞게 위치시킬 수 없으므로, 적당한 위치에 센서를 달고, offset만큼을 빼 줘서 로봇의 위치를 계산하게 된다. 로봇 좌표축의 중심을 모바일 로봇 원판의 중심으로 정의하고, 센서가 달려있는 곳에서부터 로봇의 중심까지의 거리를 자로 직접 재는 삽질을 했는데.. 사실 전자과에서 로봇을 만들 때 로봇의 무게를 줄이기 위해서 로봇 원판의 반 정도를 구멍을 뚫어 버리는 바람에 T.T 정확한 중심을 확인할 수 없는데다, 센서의 중심도..
원래 내가 연구하고 있는 Mobile Haptic Display에서 논문이 될만한 부분은 haptic rendering 파트였다. 나머지 부분은 사실 독일 그룹과 이탈리아 그룹에서 연구가 많이 진행되었고, conference와 journal에 몇 편의 논문이 발표된 상태이다. 단지, 다른 나라 그룹들은 mobile haptic display를 telepresence system차원에서 접근하는 기계과 사람들이 대부분이었기 때문에, 다른 그룹들이 소홀이 여기는 haptic rendering을 연구 주제로 잡은 것이었다. 그러나 실상은 haptic rendering도 virtual proxy algorithm이라는 걸출한 스타가 자리잡고 있기 때문에, 기존 알고리즘을 최대한 이용하는 방향으로 연구를 진행하고..
World frame에서 PHANToM tooltip frame 까지의 trasnformation을 유도해야 하는데.. World coordinate에서 Robot coordinate까지는 transformation이 맞는데, robot coordinate에서 phantom coordinate로 가는 변환이 자꾸 어긋난다. 벌써 며칠 째 삽질인지.. 에휴. 분명 하나 하나 따져보면 다 맞는데, 막상 합쳐서 곱해보면 값이 영~ -_-; transformation 유도가 얼른 끝나야 Jacobian을 유도하고, tool tip에 적용되는 force도 계산해낼텐데.. 과연 5월에 디펜스를 할 수 있을까? 허허..
Mobile Haptic Display의 현 시스템 구성도 mobile robot과 user에 tracker를 달아서 위치 정보를 추적하고, 이를 이용해서 visual rendering을 하고, 이 정보를 다시 모바일 로봇 안에 있는 노트북으로 전송한 뒤, 노트북에서 haptic rendering과 mobile robot의 velocity control을 해 준다. but.. 아직 전자과에서 만들고 있는 로봇은 뒤뚱 뒤뚱 거리고 있고, 난 아직 haptic rendering 부분을 손도 못 대고 있는데, 12월에 결과보고서를 써야 한단다. 아이고 ㅠ.ㅠ