UNIST·KIST·서울대 연구팀 공동연구 성과


‘로봇 비전 센서’ 개발 연구진. 왼쪽부터 권종익 UNIST 연구원(공동 제1저자), 최문기 UNIST 교수, 최창순 KIST 박사, 김대형 서울대 교수, 김지수 서울대 연구원(공동 제1저자). UNIST 제공
국내 연구진이 밝기가 일정하지 않은 상황에서 사물의 윤곽 정보를 효율적이고 정확하게 추출하는 비전 센서를 개발했다. 자율주행, 드론, 로봇 기술에서 주변 환경을 더 빠르고 정확하게 인식하는 데 도움이 될 전망이다.
울산과학기술원(UNIST) 신소재공학과 최문기 교수팀은 한국과학기술연구원(KIST) 최창순 박사팀, 서울대학교 김대형 교수팀과 공동 연구로 시냅스 모방 로봇 비전 센서를 개발했다고 4일 밝혔다.
비전 센서는 기계의 눈 역할을 하는 부품이다. 센서가 감지한 정보는 뇌 역할을 하는 프로세서로 전달돼 처리된다. 이때 정보가 여과 없이 전달되면 전송 데이터가 늘어나 처리 속도가 느려지고, 인식 정확도도 떨어진다. 조명이 급격히 바뀌거나 밝고 어두운 영역이 뒤섞인 상황에서 이런 문제는 더 두드러진다.
이에 연구진은 뇌 시냅스에서 일어나는 도파민-글루타메이트 신호 전달 경로를 모방해 윤곽선처럼 명암 대비가 큰 시각 정보만을 골라낼 수 있는 비전 센서를 개발했다. 연구진은 뇌에서 도파민이 글루타메이트를 조절해 중요한 정보를 강화하는 원리를 모방하도록 센서를 설계했다.
연구진은 실험을 통해 이 비전 센서가 영상 데이터 전송량을 기존 대비 91.8% 줄이면서 객체 인식 시뮬레이션의 정확도는 86.7%까지 끌어올린 것으로 확인했다.
최문기 교수는 “눈 자체에 뇌의 일부 기능을 부여한 ‘인 센서 컴퓨팅’ 기술을 적용해 영상 데이터의 밝기와 대비를 스스로 조절하고, 불필요한 정보는 걸러낸다”며 “초당 수십 기가비트에 달하는 영상 데이터를 처리해야 하는 로봇 비전 시스템의 부담을 근본적으로 줄여줄 수 있다”고 밝혔다. 최창순 박사는 “이번 기술은 로봇·자율주행 자동차·드론·사물인터넷 기기 등 다양한 비전 기반 시스템에 폭넓게 적용할 수 있다”며 “데이터 처리 속도와 에너지 효율을 동시에 높일 수 있어 차세대 인공지능 비전 기술의 핵심 설루션으로 활용될 수 있을 것”이라고 설명했다.
이번 연구 결과는 지난달 ‘사이언스 어드밴시스’ 온라인판에 실렸다.
Copyright ⓒ 서울신문 All rights reserved. 무단 전재-재배포, AI 학습 및 활용 금지