기계가 사람의 얼굴 표정의 변화를 이해할 수 있을까요? 캠브리지 대학교의 피터 로빈슨(Peter Robinson - 관련 페이지 보기) 교수팀이 이것에 관해 연구하고 있다고 합니다.
카메라로 얼굴 특징 읽어내는 챨스
화면에서 보시는 대로 표정 변화에 따라 감정의 변화를 읽어내고 있습니다. 빨간색은 흥미, 녹색은 동의, 파란색은 집중 등으로 얼굴표정을 이렇게 저렇게 변화시키는데 따라서 즉각적으로 사람의 감정을 읽어냅니다.
카메라로 사람의 얼굴을 보면서 사람 얼굴에 나타나는 입이나 눈이나 눈썹 등 주요 특성들(key features)이 어떻게 변하는지 관찰합니다. 여러 동작이 동시에 일어나기도 하는데, 예를들어 고개를 끄덕이며 미소를 짓는것은 동의를 의미하는데 이런 모든 것을 컴퓨터가 이해한다고 합니다(실제로 리포터가 웃으며 고개를 끄덕이자 녹색의 동의 그래프가 증가합니다).
사람의 감정 412가지
심리학자들은 컴퓨터가 배워야 할 412가지의 감정을 찾았다고 합니다. 이 얘기를 듣고 보니 내가 그렇게나 다양한 감정을 갖고 있는지 의문이 들기도 합니다. 기쁨, 슬픔, 분노, 우울, 행복.... 기껏 단어 5개 쓰고 생각이 안나는데 412가지라니요. 결국 컴퓨터가 사람보다 더 많은 정보를 읽어낼 것이라는 것은 여기서도 예외가 아닌것 같습니다.
표정 별 특징을 읽어내는 챨스
사람이 입을 벌리는 이유는 크게 두 가지라면서 하나는 놀랄 때 이고 하나는 불쾌할 때라고 설명합니다. 이 두 가지 표정 변화에서 입 주변의 색이 다르기 때문에 컴퓨터가 이걸 읽을 수 있다고 설명합니다. 생각해 보니 놀랄 때는 아무래도 입을 아래위로 벌리게 되고 입 안의 혀 등 뭔가 분홍 빛 물체가 많이 보일 것이고, 불쾌할 때는 아무래도 입을 다문채로 좌우로 길게 벌리고 이가 드러나서 하얀색이 많이 보이게 됩니다. 사람의 표정이 패턴으로 읽힐 수 있는 겁니다.
컴퓨터가 점점 사람에 가까워지고 있다고 얘기하면서 이렇게 사람과 공감할 수 있는 컴퓨터를 갖게 되는 것이 좋은 것일지 묻습니다.
감정을 얼굴로 표현하는 기계 챨스
챨스 라는 이름의 기계 |
정말 사람같이 생겼습니다. 기계라고 생각하고 보니 어색한 부분이 보이기도하지만 이 기계가 화면에서 움직이는 걸 처음 본 순간 이것이 기계라는 사실에 많이 놀랐습니다. 머리에 24개의 모터가 달린 기계라고 합니다.
사람의 얼굴에 드러난 표정 변화로 감정에 대해 학습한 챨스(기계)가 이런 저런 표정을 지으면 리포터가 그게 무슨 표정인지 맞추는 게임을 합니다. 리포터는 챨스의 표정을 보고 고통스러워 하는 것 같다, 좌절하는 것 같다, 뭔가 역겨워 하는 것 같다는 등의 의견을 냅니다. 어떤 부분에서는 기계와 인간이 공감을 형성하고 어떤 부분에서는 서로가 공감대를 형성하는 데 실패합니다. (역겨워 하는 것 같다고 했는데 사실은 오만한 표정을 지은 것이라는 군요.) 챨스와 감정적으로 소통하는 것이 쉽진 않았지만 미래 어느 날엔가는 이런 일이 가능하지 않을까, 하면서 마무리 합니다.
감정도 패턴이다?!
감정 표현과 같이 우리가 그동안 감성적이고 기계로 측정하기 어렵다고 생각했던 영역들 조차 점점 기계가 읽을 수 있는 패터을 가지고 있음이 드러나고 있습니다. 이런 것의 대표적인 영영은 예술일 텐데요. 예를 들어 사람은 특정 음악을 들으며 슬픔, 기쁨, 희망 등을 느끼고 이런 감정을 많은 사람들과 공유합니다. 사람의 표정에서 특정한 패턴이 발견되고 그것을 컴퓨터가 읽어 내듯이, 음악에도 감정에 따른 패턴화 가능한 소리의 파형이 존재하고 그것을 컴퓨터가 읽을 수도 있지 않을까, 라는 생각을 하게 됩니다.
댓글 없음:
댓글 쓰기