광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
로고

[새로운 VR/AR 인터페이스는 AI를 사용하여 피부를 터치 감지 컨트롤러로 전환한다] CMU의 인간-컴퓨터 상호작용 연구소 연구자들이 만든 새로운 도구는 AR/VR 환경을 손 안에서 제어할 수 있게 해준다.

https://www.innovations-report.com/information-technology/future-ar-vr-controllers-could-be-the-palm-of-your-hand/

운영자 | 기사입력 2024/11/18 [00:00]

[새로운 VR/AR 인터페이스는 AI를 사용하여 피부를 터치 감지 컨트롤러로 전환한다] CMU의 인간-컴퓨터 상호작용 연구소 연구자들이 만든 새로운 도구는 AR/VR 환경을 손 안에서 제어할 수 있게 해준다.

https://www.innovations-report.com/information-technology/future-ar-vr-controllers-could-be-the-palm-of-your-hand/

운영자 | 입력 : 2024/11/18 [00:00]

 

새로운 VR/AR 인터페이스는 AI를 사용하여 피부를 터치 감지 컨트롤러로 전환한다.

 

카네기 멜론 대학교의 에고 터치(EgoTouch)는 가상 및 증강현실을 위한 간단한 인터페이스를 만든다.

새로운 세대의 증강 및 가상현실 컨트롤러는 손바닥에 딱 맞는 것이 아닐 수도 있다손바닥이 될 수도 있다.

 

카네기 멜론 대학교의 인간-컴퓨터 상호작용 연구소 연구자들이 최근 발표한 논문에서 손가락으로 피부를 만져서 AR/VR 인터페이스를 제어하는 ​​AI 도구인 에고 터치(EgoTouch)를 소개한다.

 

이 팀은 궁극적으로 표준 AR/VR 헤드셋에 포함된 센서만을 사용하여 촉각적 피드백을 제공하는 컨트롤을 설계하고자 했다. HCII의 준교수이자 Future Interfaces Group의 책임자인 크리스 해리슨이 개발한 이전 방법인 OmniTouch는 근접했다.

 

하지만 이 방법은 특수하고 엉성한 깊이 감지 카메라가 필요했다해리슨의 지도를 받은 박사 과정생인 비말 몰린은 머신러닝 알고리즘을 사용하여 일반 카메라가 터치를 인식하도록 훈련시키는 아이디어를 냈다.

"손가락을 가져다가 피부를 만졌을 때 어떤 일이 일어나는지 살펴보라피부를 만질 때만 나타나는 그림자와 국소적 피부 변형이 있다는 것을 알게 될 잇다."라고 몰린이 말했다. "이런 것을 볼 수 있다면 머신러닝 모델을 훈련시켜서 같은 일을 할 수 있고그게 바로 우리가 한 일이다."

 

몰린은 검지 손가락 아랫부분과 손바닥을 따라 움직이는 맞춤형 터치 센서를 사용하여 에고터치(EgoTouch)의 데이터를 수집했다이 센서는 카메라에 보이지 않으면서도 다양한 힘으로 다양한 유형의 터치에 대한 데이터를 수집했다그런 다음 이 모델은 인간의 주석 없이도 그림자와 피부 변형의 시각적 특징을 터치와 힘과 연관시키는 법을 배웠다이 팀은 훈련 데이터 수집 범위를 확대하여 피부 톤과 머리카락 밀도가 다른 15명의 사용자를 포함시키고 다양한 상황활동 및 조명 조건에서 수 시간 분량의 데이터를 수집했다.

 

에고 터치(EgoTouch) 96% 이상의 정확도로 터치를 감지할 수 있으며 5%의 거짓 양성률을 보인다누르기들어올리기끌기를 인식한다이 모델은 터치가 가볍거나 강한지 98%의 정확도로 분류할 수도 있다.

 

"이는 피부에 마우스 오른쪽 버튼 클릭 기능을 구현하는 데 매우 유용할 수 있다."라고 몰린은 말했다.

 

터치의 변화를 감지하면 개발자가 피부에서 터치스크린 제스처를 모방할 수 있다예를 들어스마트폰은 페이지를 위아래로 스크롤하거나확대하거나오른쪽으로 스와이프하거나아이콘을 누르고 있을 때를 인식할 수 있다이를 피부 기반 인터페이스로 변환하려면 카메라가 터치 유형과 터치 강도의 미묘한 차이를 인식해야 한다.

 

정확도는 다양한 피부 톤과 모발 밀도그리고 팔 앞부분팔 뒤부분손바닥손등과 같이 손과 팔뚝의 다른 부분에서 거의 동일했다이 시스템은 관절과 같은 뼈가 많은 부분에서는 성능이 좋지 않았다.

 

"아마도 그 부위에 피부 변형이 그렇게 많지 않았기 때문일 것이다."라고 몰린이 말했다. "사용자 인터페이스 디자이너로서 할 수 있는 일은 그 부위에 요소를 배치하지 않는 것이다."

 

몰린은 야간 투시 카메라와 야간 조명을 사용하여 EgoTouch 시스템이 어둠 속에서 작동할 수 있도록 하는 방법을 모색하고 있다그는 또한 연구자들과 협력하여 이 터치 감지 방법을 피부 이외의 표면으로 확장하고 있다.

 

"처음으로모든 헤드셋에 이미 있는 카메라만 사용하는 시스템을 만들었다우리 모델은 보정이 필요 없고 바로 사용할 수 있다."라고 몰린이 말했다. "이제 피부 인터페이스에 대한 이전 작업을 기반으로 실제로 구현할 수 있다."

 

 

 

 
AR, VR, 터치, 피부, 센스, 인공지능, 머신러닝 관련기사목록
광고
광고
광고
광고
광고
광고
광고
AI메타홈서비스 많이 본 기사
광고
광고