|
|
|
갑자기 누가 어깨를 툭 치면 눈이 휘둥그레지거나 몸을 움찔하게 된다. 사람은 이런 자극에 즉각 반응하고, 같은 자극이 반복되면 점차 무뎌지거나 표현 방식이 달라진다. 이러한 ‘감정 변화의 흐름’을 흉내 낼 수 있는 로봇이 나왔다. 감정 교감 몰입도를 높인 소셜 로봇 개발에 활용될 것으로 기대된다. UNIST 디자인학과 이희승 교수팀은 감정을 눈과 움직임으로 표현하고 그 반응이 시간에 따라 변화하는 적응형 로봇 기술을 개발했다고 8일 밝혔다. 이 로봇은 눈 모양과 색상, 움직임의 조합으로 총 6가지 감정을 표현한다. 자극은 로봇 머리를 쓰다듬거나 두드리는 방식으로 입력되며, 쓰다듬기는 긍정 자극, 두드리기는 부정 자극으로 인식되도록 설정됐다. 예를 들어 갑자기 로봇을 두드리게 되면 눈이 커지고 청색으로 변하며 몸을 뒤로 젖히는 동작을 통해 놀람 감정을 표현한다. 만약 같은 자극이 반복되면 단순히 동일한 반응을 반복하지 않고, 이전 감정 상태와 자극의 누적값에 따라 감정 표현이 달라진다. 이러한 적응형 표현은 실제 사람과 비슷한 감정 흐름을 재현한 것이다. 사용자 평가에서는 “같은 자극에도 상황에 따라 반응이 조금씩 달라지는 점이 단순한 기계 반응과는 다르게 느껴져 인상적”이라는 의견이 많았으며, 참가자의 80% 이상이 감정 표현이 “자연스럽고 생동감 있다”고 평가했다. 이 교수팀은 감정을 고정 상태가 아닌 시간에 따라 변화하는 ‘벡터(vector)’로 해석해 로봇 제어 모델에 반영함으로써 이 같은 기술을 개발했다. 강한 자극은 감정 벡터의 크기를 빠르게 키우고, 약한 자극은 서서히 반응을 변화시키도록 제어하는 방식이다. 이희승 교수는 “기존 로봇은 자극에 따라 정해진 감정을 보여주는 데 그쳤지만, 이 모델은 감정의 변화 흐름까지 구현해 사용자가 로봇을 생명체처럼 느끼게 만든다”며 “반려로봇이나 정서지원 기술 등 다양한 인간 중심 로봇 분야에 활용될 수 있을 것”이라고 말했다. 이번 연구는 박하은 박사과정 학생이 제1저자로 참여했으며, 로봇 분야 권위 국제학회인 ICRA(International Conference on Robotics and Automation)에 채택돼, 지난 5월 21일에 미국 애틀란타에서 열린 2025 ICRA 연례 학술대회에서 발표됐다. 연구 수행은 산업통상자원부의 지원을 받아 이뤄졌다. (논문명: Adaptive Emotional Expression in Social Robots: A Multimodal Approach to Dynamic Emotion Modeling) |
|
[붙임] 연구결과 개요 |
1.연구배경 소셜 로봇은 사람과의 상호작용이 주요 기능으로, 인간-로봇 상호작용(HRI, Human-Robot Interaction) 연구가 꾸준히 진행되고 있으나 주로 단순 명령 인지와 행동하는 수준에 머물러 있다. 사람은 로봇이 자신의 감정과 상황을 이해하고 이에 적절히 반응하기를 기대하지만, 현재 다형식(multimodal)-실시간(real time) 정서 상태를 이해하고 표현하는 로봇 시스템은 부재하다. 또한, 로봇의 감정 상태를 인간이 효과적으로 이해할 수 있도록 표현하는 기술도 부족한 상황이다. 많은 소셜 로봇은 마치 매뉴얼이 있는 것처럼 특정 자극에 해당하는 특정 감정 표현만이 존재하여, 사용자에게 빠른 콘텐츠 소비를 초래하여 로봇의 장기적 사용을 어렵게 한다. 이는 시스템이 가질 수 있는 '상태'를 미리 정해 놓고, 특정 입력이 들어왔을 때 어떤 상태로 전이할지를 규칙에 따라 결정하는 ‘finite state machine’ 방식으로 감정 표현을 시도하기 때문이다. 2.연구내용 본 연구에서는 감정 상태를 연속적인 정서 공간(affect space) 상의 좌표로 표현하고, 입력 자극이 들어오는 패턴에 따라 감정 위치를 동역학적으로 이동시키는 방식의 적응형 감정 모델을 제안한다. 이 모델은 터치 센서와 IMU(관성센서)를 탑재한 모바일 로봇 프로토타입에 구현되었으며, 사용자는 쓰다듬기와 두드리기를 통해 로봇의 긍정 자극과 부정 자극을 생성한다. 이러한 긍정/부정 자극의 시간 간격, 세기 등에 따라 로봇의 감정 요소가 결정되고, 로봇의 감정은 실시간 변화한다. 실험 결과, 제안된 모델을 사용한 로봇은 고정 반응 기반 모델보다 높은 의인화(anthropomorphism), 생명력(animacy), 지능(perceived intelligence) 점수를 기록했다. 또한, 감정 변화의 예측 불가능성은 로봇의 생명력 인식에 긍정적으로 작용하여, 전반적인 사람-로봇 상호작용 경험을 향상시키는 것으로 나타났다. 3.기대효과 소셜 로봇, 특히 반려로봇의 경우 사용자의 성향과 생활 패턴에 적응하고 그에 맞게 반응한다면, 사용자는 로봇을 기계가 아닌 정서적 교감을 하고 개성을 가진 별도의 생명체로 인식하게 되고 더 쉽게 감정 이입을 하게 될 것이다. 장기적으로는 정서지원, 사회적 소통, 교육용 로봇 등 다양한 인간 중심 로봇 분야에서 용 될 수 있을 것이다. |
[붙임] 용어설명 |
1.감정 모델 로봇의 감정 상태를 내부적으로 생성하고 변화시키며, 이를 외부에 표현할 수 있도록 구조화한 모델 2.정서 공간 (Affect Space) 로봇의 감정 상태를 수치적으로 표현하기 위한 다차원 공간. 각 감정은 정서 공간 내의 위치 혹은 영역으로 나타나며, 감정은 자극에 따라 이 공간 안에서 이동함. 3.감정 동역학 (Emotion Dynamics) 감정의 시간에 따른 변화 과정을 묘사하는 모델. 힘(r)이 작용하면 감정 벡터(e)가 감정 공간 내에서 움직이도록 설계됨. 4.표현 제어점 (Control Point, CP) 로봇의 감정 표현 요소(눈의 위치, 색상, 바퀴 속도 등)를 수치적으로 제어하는 단위값. |
[붙임] 그림설명 |
그림1. 사용자의 자극에 따라 로봇이 혼합 감정을 표현함. 사용자가 로봇을 반복적으로 자극하자 ‘혐오(Disgust)’와 ‘분노(Anger)’가 동시에 활성화된 혼합 감정 상태가 나타났다. 로봇은 눈 모양과 색을 통해 복합 감정을 표현하며, 아래 그래프는 시간에 따라 감정이 어떻게 변화했는지를 시각적으로 보여준다. 노란색(분노)과 보라색(혐오) 곡선이 동시에 상승하는 구간이 혼합 감정 상태를 의미한다. 그림2. 감정 표현을 위한 주요 파라미터 (a) 얼굴 제어점을 활용한 얼굴 표정 (b) 모터를 통한 움직임 표현 |
![]() |
UNIST 홍보팀 news@unist.ac.kr TEL : 052)217-1230FAX : 052)217-1229 |