로봇 손은 시각이 아닌 터치를 사용하여 물체를 회전시킵니다.
인간이 물체를 보지 않고 쉽게 다루는 방식에 영감을 받아 캘리포니아 샌디에고 대학의 엔지니어가 이끄는 팀은 로봇 손이 시각에 의존하지 않고 터치만으로 물체를 회전시킬 수 있는 새로운 접근 방식을 개발했습니다.
연구원들은 그들의 기술을 사용하여 작은 장난감, 캔, 심지어 과일과 채소까지 다양한 물체를 멍들거나 찌그러뜨리지 않고 부드럽게 회전시킬 수 있는 로봇 손을 만들었습니다. 로봇 손은 터치 기반 정보만을 사용하여 이러한 작업을 수행했습니다.
이 작업은 어둠 속에서 물체를 조작할 수 있는 로봇의 개발에 도움이 될 수 있습니다.
이 팀은 최근 2023 Robotics: Science and Systems Conference에서 작업을 발표했습니다.
시스템을 구축하기 위해 연구원들은 4개의 손가락 로봇 손의 손바닥과 손가락에 16개의 터치 센서를 부착했습니다. 각 센서의 가격은 약 12달러이며 간단한 기능을 수행합니다. 물체가 터치하는지 여부를 감지합니다.
이 접근 방식을 독특하게 만드는 것은 로봇 손 안에서 회전을 수행하기 위해 간단한 이진 신호(터치 또는 노터치)를 사용하는 많은 저비용, 저해상도 터치 센서에 의존한다는 것입니다. 이 센서는 로봇 손의 넓은 영역에 퍼져 있습니다.
이것은 로봇 손의 작은 영역, 주로 손가락 끝에 부착된 몇 가지 고가의 고해상도 터치 센서에 의존하는 다양한 다른 접근 방식과 대조됩니다.
현재 연구를 이끈 UC San Diego의 전기 및 컴퓨터 공학 교수인 Xiaolong Wang은 이러한 접근 방식에는 몇 가지 문제가 있다고 설명했습니다. 첫째, 로봇 손에 적은 수의 센서가 있으면 물체와 접촉할 가능성이 최소화됩니다. 이는 시스템의 감지 능력을 제한합니다. 둘째, 질감에 대한 정보를 제공하는 고해상도 터치 센서는 매우 비싸다는 것은 말할 것도 없고 시뮬레이션하기가 매우 어렵습니다. 따라서 실제 실험에서 사용하기가 더 어렵습니다. 마지막으로, 이러한 접근 방식 중 상당수는 여전히 비전에 의존합니다.
“여기서 우리는 매우 간단한 솔루션을 사용합니다.”라고 Wang은 말했습니다. “우리는 이 작업을 수행하기 위해 물체의 텍스처에 대한 세부 정보가 필요하지 않다는 것을 보여줍니다. 센서가 물체에 닿았는지 여부에 대한 간단한 이진 신호만 있으면 시뮬레이션하고 실제 세계로 전송하기가 훨씬 쉽습니다. ”
연구원들은 더 나아가 바이너리 터치 센서의 넓은 적용 범위를 갖는 것이 물체의 3D 구조 및 방향에 대한 충분한 정보를 로봇 손에 제공하여 비전 없이 물체를 성공적으로 회전시킬 수 있다는 점에 주목합니다.
그들은 먼저 불규칙한 모양을 가진 물체를 포함하여 다양한 물체 세트를 회전시키는 가상 로봇 손의 시뮬레이션을 실행하여 시스템을 훈련했습니다. 시스템은 회전하는 동안 지정된 시점에서 물체가 손의 어떤 센서를 터치하고 있는지 평가합니다. 또한 손 관절의 현재 위치와 이전 동작을 평가합니다. 이 정보를 사용하여 시스템은 다음 시점에 어떤 관절이 어디로 가야 하는지 로봇 손에 알려줍니다.
그런 다음 연구원들은 시스템이 아직 만나지 못한 물체를 사용하여 실제 로봇 손에서 시스템을 테스트했습니다. 로봇 손은 멈추거나 홀드를 잃지 않고 다양한 물체를 회전시킬 수 있었습니다. 물체에는 토마토, 후추, 땅콩버터 캔, 장난감 고무 오리가 포함되어 있었는데 모양 때문에 가장 어려운 물체였습니다. 더 복잡한 모양의 개체는 회전하는 데 시간이 더 오래 걸립니다. 로봇 손은 다른 축을 중심으로 물체를 회전시킬 수도 있습니다.
Wang과 그의 팀은 현재 보다 복잡한 조작 작업에 대한 접근 방식을 확장하기 위해 노력하고 있습니다. 예를 들어 그들은 현재 로봇 손으로 잡고, 던지고, 저글링할 수 있는 기술을 개발하고 있습니다.
“손 조작은 우리 인간이 가진 매우 일반적인 기술이지만 로봇이 마스터하기에는 매우 복잡합니다.”라고 Wang은 말했습니다. “로봇에게 이 기술을 부여할 수 있다면 로봇이 수행할 수 있는 작업의 문이 열릴 것입니다.”
논문 제목: “보지 않고 회전: 터치를 통한 손재주를 향하여.” 공동 저자로는 Binghao Huang*, Yuzhe Qin, UC San Diego; 및 Zhao-Heng Yin* 및 Qifeng Chen, HKUST.
*이 저자들은 이 작업에 동등하게 기여했습니다.
출처: https://www.sciencedaily.com/releases/2023/07/230726113044.htm

댓글 없음
아름다운 덧글로 인터넷문화를 선도해 주세요