Skip Navigation
Skip to contents

STRESS : STRESS

Sumissioin : submit your manuscript
SEARCH
Search

Articles

Page Path
HOME > STRESS > Volume 28(2); 2020 > Article
Review Article
우울증의 얼굴표정 정서정보 처리 연구에 대한 통합적 문헌고찰
박혜진, 조성근
stress 2020;28(2):41-50.
DOI: https://doi.org/10.17547/kjsr.2020.28.2.41
Published online: June 30, 2020

덕성여자대학교 심리학과

Department of Psychology, Duksung Women’s University, Seoul, Korea

• Received: May 14, 2020   • Revised: June 11, 2020   • Accepted: June 14, 2020

Copyright © 2020 by stress. All rights reserved.

  • 1,532 Views
  • 66 Download
  • 본 연구는 얼굴 표정 자극을 사용하여 우울증의 정서 정보 처리 양상을 밝혀낸 문헌들에 대한 통합적 문헌고찰 연구이다. 지난 20년간 발표된 국내외 학술지 논문을 대상으로 최종 19편의 논문을 선정하였다. 연구 결과, 우울한 사람들은 우울하지 않은 사람들과 비교했을 때 다음과 같은 특징을 보였다. 첫째, 정확한 정서 처리를 위해 더 오랜 시간이 소요된다. 둘째, 긍정정서는 높은 강도로 제시해야 맞추는 반면 부정정서는 낮은 강도로 주어져도 잘 맞춘다. 셋째, 부정정서의 강도를 과대추정하는 경향이 있다. 넷째, 모호하거나 중립적인 얼굴 표정에 부적 해석편향을 보인다. 한편 정확성에서는 연구 결과가 일관되지 않았다. 추후 연구들에서는 보다 정밀한 연구 설계와, 우울증의 개입 방안 개발이 요구된다.
  • Background
    This study is an integrative review of literatures of research on emotion processing in depression using facial expression stimuli.
  • Methods
    For the review, we searched domestic and international research articles over the past 20 years according to the integrative review procedure and selected the final 19 papers.
  • Results
    The results of the review revealed that depressed people, compared with those who were not depressed, had the following differences. First, they needed longer time for precise processing of emotion. Second, they managed to recognize positive emotion with high intensity while easily recognized negative emotions with low intensity. Third, they tended to overestimate the intensity of negative emotion. Fourth, they showed a negative interpretation bias to ambiguous or neutral facial expressions. Meanwhile, consistent results across the studies were not found for the variable of accuracy.
  • Conclusions
    Our results suggest that it is necessary to develop more elaborate intervention program and design more sophisticated experiment for further coherent understanding of depression.
우울장애(depressive disorder)는 마음의 감기라고 불릴 정도로 매우 흔한 정신장애이지만, 주요 기능 영역에서 현저한 고통이나 손상을 초래하며 극단적으로는 자살로까지 이어질 수 있다는 점에서 결코 가볍게 여길 수 있는 장애가 아니다. 우울은 스트레스가 직접적인 원인일 수 있는데(Kessler, 1997), 우울증을 야기하는 스트레스 요인에는 개인차가 있겠지만 그 중에서도 특히 대인관계 갈등으로 인한 스트레스가 우울과 가장 밀접한 관련이 있는 것으로 보고되고 있다(Bolger et al., 1989; Persad et al., 1993; Park K, 2003). 실제로 우울한 사람들은 대인관계 갈등이 많으며(Hammen, 1991), 자신이 겪고 있는 사회적 갈등이 높은 것으로 지각하여 대인관계에서 어려움을 호소하고 있다(Kwon HI et al, 2010).
원만한 대인관계의 형성 및 유지를 위해서는 관계적 상황에서 나타나는 정서적 정보를 정확히 판단하여 이에 적절한 행동을 취하는 능력이 필수적이다. 다양한 정서적 정보 중에서도 특히 얼굴 표정은 가장 직접적으로 타인의 정서를 관찰할 수 있는 중요한 비언어적 정보이다. 정서 정보의 전달은 93%가 비언어적 정보를 통해 이루어지며 이 중에서도 얼굴 표정을 통한 전달이 가장 높은 비율을 차지하고 있다(Mehrabien, 1972). 얼굴 표정의 정서를 제대로 지각하지 못하거나 편향된 방식으로 해석하는 것은 대인관계에의 어려움과 깊은 관련이 있으며(Yang et al., 2011), 우울증을 지속시키는 위험 요인이 될 수 있다(Bouhuys et al., 1999). 따라서 학자들은 정서의 주요 전달원인 얼굴 표정 자극을 사용하여 우울증의 정서 정보 처리 양상을 파악하는 연구를 진행해 왔다.
그러나 지금까지 진행된 연구들을 살펴보면 결과들이 혼재되어 있어 일관된 결론을 내리기 어렵다. 우울한 사람들이 정상인들에 비해 얼굴 표정에 대한 정서 인식 능력이 전반적으로 떨어진다는 연구 결과가 있는 반면(Feinberg et al., 1986; Weniger et al., 2004), 정상인들과 별반 차이가 없다는 연구 결과들도 있었다(Archer et al., 1992; Bediou et al., 2005; Schaefe et al., 2010; Fieker et al., 2016). 한편으로는 특정 종류의 정서를 지각할 때만 우울한 사람들과 정상인들 간 차이가 있다는 주장이 있다. 이는 우울의 기분 일치 가설(mood congruent hypothesis)로, 우울한 사람들이 부정적 정보는 자신의 정서 상태와 일치하기 때문에 민감하게 처리하는 반면 긍정적 정보는 자신의 정서 상태와 일치하지 않으므로 덜 민감하게 처리한다는 내용이다(Weightman et al., 2014). 우울한 사람들이 얼굴 표정에 담긴 정서를 지각할 때 행복 정서를 덜 정확하게(Surguladze et al., 2004), 그리고 슬픔 정서를 더 정확하게 지각(Gollan et al., 2010; Milders et al., 2010)한다는 선행연구의 결과들은 얼굴 표정 지각 과제가 사용된 연구에서도 기분 일치 가설이 지지될 수 있음을 보여준다. 그러나, 기분 일치 가설에 부합하지 않는 결과, 즉, 우울한 사람들의 슬픔 정서 인식 능력이 정상인에 비해 오히려 떨어진다는 연구 결과들(Rubinow et al., 1992; Gollan et al., 2008; Csukly et al., 2009)도 일부 보고된 바 있어 본 주제에 대한 보다 심도 있는 이해가 요구된다.
이러한 문제점들을 인식한 연구자들은 우울증의 얼굴 표정 정서 지각을 주제로 한 메타 분석을 수행하였다. Kohler et al.(2011)는 기분 장애의 얼굴 표정 정서 지각에 대한 연구들을 종합하기 위해 양극성 장애에 관한 문헌 31편과 우울증에 관한 문헌 20편을 분석하였다. 그 결과, 양극성 장애와 우울증 모두 얼굴 표정의 정서를 지각할 때 중간(moderate) 정도의 손상을 보이는 것으로 나타났으며, 양극성 장애와 우울증 집단 간에는 정서 지각의 정확성에서 유의한 집단 차가 없는 것으로 보고되었다. 그러나 그들의 연구는 얼굴 표정에 대한 기분 장애자들의 정서 지각 결함이 구체적으로 어떤 종류의 정서에서 나타나는지를 파악하지 못하였다. 이 점에 주목한 Dalili et al.(2014)는 우울증 환자들이 보이는 얼굴 표정 정서 자극에 대한 지각 결함이 전반적인 것인지 혹은 일부 정서에 대해서만 특수하게 나타나는 것인지를 확인하기 위해 22편의 문헌을 분석하였다. 그 결과 우울한 사람들은 얼굴 표정의 정서를 지각할 때, 슬픔을 제외한 모든 정서에서 경미한(small) 정도의 손상을 보이는 것을 확인하였다.
이후 최근까지도 우울증의 얼굴 표정 정서 정보의 처리에 관한 연구가 활발하게 진행되고 있다. 그러나 성과들의 누적에 따라, 후속연구들에서는 과제의 유형이나 얼굴 표정 자극의 속성, 측정 변인을 포함한 연구 설계 방법이 더욱 정교해졌다. 그러므로, 최근의 연구들을 비롯한 선행 연구 결과들의 해석에는 더욱 포괄적이고 신중한 접근을 필요로 한다. 이러한 맥락에서 가장 최근 수행된 Dalili et al.(2014)의 메타 분석은 정서 인식의 정확성에 대한 분석에만 국한되었다는 점에서 우울증의 정서 정보 처리 양상에 대해 포괄적인 이해를 제공해주지 못하였다. 이에 따라 본 연구에서는 지난 20년간에 걸쳐 이루어진 연구들의 성과를 중심으로, 얼굴 표정 자극을 사용하여 밝혀낸 우울증의 정서 정보 처리 양상에 대하여 전반적으로 개관해 보고자 한다.
본 문헌고찰에서는 우울 증상을 가진 성인들이 얼굴 표정 자극에 내포된 정서 정보를 처리하는 과정이 증상이 없는 성인들과 비교해 어떤 차이점을 보이는지를 알아본 국내 및 국외 연구들을 개관하여 종합적으로 결과를 살펴보고자 하였다. 이를 위해 본 연구에서는 통합적 문헌고찰의 절차를 따랐다.
통합적 문헌고찰이란 관련 주제에 대한 연구들을 검토, 비판, 종합함으로써 새로운 지식을 창출하는 연구 방식으로(Torraco, 2005), 이는 다양한 문헌고찰 방식 중에 가장 광범위한 유형이며, 상호배타적인 연구 방법론을 사용한 논문들을 동시에 분석할 수 있다는 장점이 있다(Whittemore et al., 2005). 본 연구의 개관 과정은 엄밀성을 담보하기 위해 Whittmore et al.(2005)이 제시한 통합적 문헌고찰 5단계 지침을 따랐다.
1. 문헌검색
문헌검색은 2019년 12월부터 2020년 2월까지 이루어졌다. 국내논문은 DBpia, RISS, KISS의 데이터베이스를, 국외논문은 Google scholar, Pubmed, PsycARTICLE의 데이터베이스를 활용하여 검색을 수행하였다. 국내 데이터베이스에서는 ‘얼굴표정, 우울’과 ‘정서자극, 우울’의 검색어를, 국외 데이터베이스에서는(“emotional perception” OR “emotional recognition” OR “interpretation bias” OR “cognitive bias” OR “facial emotion” OR “facial affect” OR “face emotion” OR “face affect”) AND (“depression” OR “depressive” OR “MDD") - “modification”의 검색어를 사용하였다. 단, 국외 데이터베이스의 경우에는 검색의 특이도를 높이고자 검색 세부설정을 전체가 아니라 제목으로 한정시켰다.
위와 같은 방법으로 검색하여 학술대회 자료집(n=28), 도서(n=1), 인용(n=24)과 같은 자료들을 제외한 결과, 국내 159편(DBpia 51편, RISS 97편, KISS 11편)과 국외 192편 (Google scholar 95편, Pubmed 90편, PsycARICLE 7편)의 문헌이 검색되었다. 이후 중복 문헌을 확인하여 국내 62편, 국외 48편을 제거한 후 국내 97편, 국외 144편이 연구에 포함되었다.
2. 문헌선정
검색 과정을 통해 포함된 국내 97편, 국외 144편의 문헌에 대하여 문헌선정 절차를 실시하였다. 구체적인 문헌선정 기준은 다음과 같다: (1) 얼굴 표정 자극을 사용하여 우울 집단과 비우울 집단의 정서 정보 처리 양상을 비교한 것, (2) 성인 참가자들을 대상으로 한 것, (3) 2000년 이후에 출판된 것, (4) 한국어 혹은 영어로 기술된 것.
우선 제목과 초록을 통해 주제에서 벗어난 문헌을 일차적으로 배제하였다. 이 과정에서 국내 92편, 국외 109편이 배제되었다. 다음으로 원문을 꼼꼼히 읽고 확인하는 과정을 통해 이차 배제가 이루어졌다. 그 결과 국내 1편, 국외 11편이 이차적으로 선정되었다. 또한 원문을 확인하는 과정에서 참고문헌 목록을 통해 관련된 논문을 수기 검색하여 7편이 추가되었다. 이와 같은 배제 및 추가 과정을 거친 결과, 최종적으로 국내 1편, 국외 18편으로 총 19편이 선정되었다(Fig. 1).
1. 연구의 일반적 특성
상기한대로, 본 연구의 선정기준을 충족한 논문은 최종 19편이었다. 발표 연도별로 분류했을 때, 2000∼2004년에 3편, 2005∼2009년에 3편, 2010∼2014년에 7편, 2015∼2019년에 6편이 보고되어 최근까지도 지속적으로 연구가 이루어지고 있음을 확인할 수 있었다. 연구 대상자 수는 50명 이하가 6편, 51∼100명이 10편, 101∼150명이 2편, 151∼200명이 0편, 200명 이상이 1편으로 나타나 101명 이상의 대단위 연구는 적음을 알 수 있었다. 참가자들의 우울을 평가하기 위해 평균 2.37개의 도구를 중복으로 사용하였으며, 단일 도구를 활용한 연구는 2편이었다. 보다 구체적으로는 DSM-IV (11회), DSM-5 (2회), ICD-10 (3회), BDI (7회), BDI-II (6회), HDRS (10회), MADRS (3회)와 같은 도구들이 주로 사용되었으며, GDSC (Geriatric Depression Scale), QIDS (Quick Inventory of Depressive Symptomatology), PHQ-2 (Patient Health Questionnaire-2)와 같은 도구들도 각각 1회씩 사용되었다. 연구 대상자의 연령에 대해서 살펴보면 20대가 2편, 30대가 6편, 40대가 7편, 50대가 0편, 60대가 0편, 70대가 2편이었다. 나머지 2편의 논문(Ryu KH et al., 2008; Rosa et al., 2017)은 연령을 수량적으로 기술하진 않았지만 대학생을 대상으로 한 연구임을 밝혔다. 성별의 경우, 2편의 논문은 여성만을 대상으로 하였으나 나머지 17편의 논문은 남녀 모두를 대상으로 하였다. 남녀 모두를 대상으로 한 연구에서 여성의 비율은 43.48%에서 78.30%에 이르는 것을 확인하였다. 연구 대상자의 약물 복용 상태를 알아본 결과, 10편의 논문에서는 참가자들이 항우울제 등의 정신과적 약물을 복용하고 있는 상태였고, 3편의 논문에서는 약물을 사용하지 않은 상태였다. 6편의 논문에서는 약물 복용 상태에 대해 따로 기술하지 않았다.
2. 실험 자극의 분석
본 통합적 고찰에서는 실험 자극의 속성을 2차에 걸친 분류 과정을 통해 분석하였다. 먼저 얼굴 자극의 몰핑(morphing) 여부를 파악하여 몰핑된 자극과 몰핑되지 않은 자극으로 1차 분류하였다. 얼굴 표정 자극을 사용한 연구의 초창기에는 대부분 특정 정서가 매우 과장되게 표현된 자극이 사용되었으나, 이러한 자극의 생태학적 타당도 및 난이도의 문제로 인해 최근의 많은 연구들은 몰핑 기법을 도입하여 사용하고 있다. 몰핑 기법이란 컴퓨터 프로그램을 통해 자극의 정서 강도를 일정 단위로 정교하게 세분화하는 방법으로, 얼굴 표정 자극에 몰핑 기법을 적용하게 되면서 서로 다른 정서가 혼합된 미묘한 얼굴 표정 이미지를 얻을 수 있게 되었다. 이를테면, 부정 정서와 긍정 정서를 6:4의 비율로 몰핑하여 부정적인 정서에 약간 더 가까운 얼굴 표정을 표현할 수 있다. 본 연구에 포함된 문헌에는 몰핑되지 않은 자극을 사용한 연구가 6편, 몰핑된 자극을 사용한 연구가 14편 있었다. 총 20편인 이유는 한 연구(Bomfim et al., 2019)에서 2개의 자극을 사용하였기 때문이다.
몰핑된 자극은 정서 강도의 세분화 방식에 따라 정적(static)인 형태뿐만 아니라, 동적(dynamic)인 형태로도 제시할 수 있다. 즉, 얼굴 표정에 포함된 정서가의 미묘한 시간에 따른 변화를 정량화하여 시각적으로 구현할 수 있다. 예를 들어 Rosa et al.(2017)은 정서의 강도를 4가지(25%, 50%, 75%, 100%)로 몰핑하여 자극을 사진과 같은 정적인 형태로 제시한 반면, Ryu KH et al.(2008)은 정서의 강도를 2%씩 변화시키는 방식을 통해 자극을 동영상과 같은 동적인 형태로 제시하였다. 따라서, 본 연구에 포함된 문헌들에 사용된 자극들의 특징을 추가적으로 파악하여 몰핑된 정적(static) 자극과 몰핑된 동적(dynamic) 자극으로 2차 분류하였고, 그 결과, 몰핑된 정적 자극을 사용한 연구가 10편, 몰핑된 동적 자극을 사용한 연구가 4편인 것을 확인하였다.
3. 실험 패러다임의 분석
19편의 문헌 중 17편은 모니터를 통해 실험 자극이 제시되고 키보드나 마우스 등을 통해 반응을 하는 컴퓨터 실험 연구였으나, 나머지 2편은 인쇄된 형태로 자극이 제시되고 수기로 반응을 하는 비컴퓨터 실험 연구였다. 실험 개수를 살펴보면, 대다수의 연구들이 1개의 실험을 진행하였으나, 2개의 실험을 진행한 연구도 2편 있었다. 예를 들어, Bomfim et al.(2019)의 연구는 몰핑된 정적 자극을 사용한 실험과 몰핑된 동적 자극을 사용한 실험을 비교하였다. 그 결과, 몰핑된 정적 자극에서는 우울 집단이 우울하지 않은 집단보다 슬픔과 분노에 대한 정확성이 높았으나, 몰핑된 동적 자극에서는 우울 집단의 행복에 대한 정확성이 우울하지 않은 집단보다 떨어지는 것을 관찰하여 자극 유형에 따라 정서 처리 양상이 달라지는 것을 확인하였다. 한편 Milders et al.(2010)의 연구는 과제 유형에 따라서도 우울한 사람들이 얼굴 표정에 담긴 정서를 처리할 때 수행의 차이가 나타날 수 있음을 보여주었다. 이 연구의 첫 번째 실험에서는 마지막에 제시되는 얼굴 표정의 정서가 앞서 제시된 두 가지 얼굴 표정 중 어떤 것과 더 비슷한지를 선택하는 과제를 실시하였고, 두 번째 실험에서는 단일 얼굴 표정을 보여주면서 어떤 정서인지 맞추는 과제를 수행하였다. 그 결과 첫 번째 실험과 같은 과제 유형에서는 우울한 사람과 우울하지 않은 사람 간에 집단 차가 보이지 않았으나, 두 번째 실험과 같은 과제 유형에서는 우울한 사람이 우울하지 않은 사람보다 슬픔에 대한 정확성이 높아지는 것을 확인하였다.
위에서 예시한 실험 패러다임을 비롯하여, 본 개관에 포함된 연구들에서 실행된 정서 관련 과제의 시행 수는 최소 12 시행에서 최대 264 시행으로 다양하였는데, 보다 구체적으로 살펴보면 100 미만이 12편, 100 이상 200 미만이 6편, 200 이상이 3편이었다. 논문 편수와 숫자가 일치하지 않는 이유는 시행 수를 보고하지 않은 연구가 1건 있었고, 실험을 2개 진행한 연구가 3건 있었기 때문이다.
연구들에서는 6가지 기본 정서(Ekman, 1992)인 행복(happy), 슬픔(sad), 분노(angry), 혐오(disgust), 두려움(fear), 놀람(surprise)를 사용하였고, 중립을 제외했을 때 평균 4.84개의 정서를 사용하였다. 19편 모두 슬픔과 행복을 포함하였으며 두려움(16편), 분노(15편), 혐오(12편), 놀람(10편) 순으로 사용되었다. 추가적으로 사용된 정서는 자신감(pride)으로, Zwick et al.(2017)는 긍정 정서에 행복만 있는 것을 우려해 난이도를 높이고자 새로운 긍정 정서인 자신감을 추가하여 실험을 진행하였다.
연구자들의 이론적 관점에 따라 몇 가지 정서를 범주화하여 실험 결과를 분석하는 문헌도 있었다. Csukly et al.(2009)은 슬픔과 혐오를 저 각성(low arousal) 정서로, 공포와 분노 및 놀람을 고 각성(high arousal) 정서로 범주화하여 분석하였다. 또한 Gollan et al.(2008)는 분노, 혐오, 공포를 거친(harsh) 정서라고 범주화한 후 3가지 정서의 평균 점수를 내어 연구 결과를 분석하였다.
연구의 일반적 특성, 실험 자극의 분석, 실험 패러다임의 분석을 표로 요약하여 제시하였다(Table 1).
4. 결과 변인의 분석
본 통합적 고찰에 포함된 19편의 문헌에 대한 검토를 통해, 각 연구자들이 측정하는 결과 변인을 정확성(Accuracy), 반응시간(Reaction Time), 민감도(Sensitivity), 강도(Intensity), 해석편향(Interpretation Bias)이라는 5가지 범주로 분류할 수 있었다.

1) 정확성

정확성이란 참가자가 특정 정서를 정확하게 맞추는 것을 뜻한다. 정확성의 계산 방식을 살펴보면, 대부분의 연구들에서는 참가자가 정답을 맞춘 개수 혹은 정답을 맞춘 비율을 사용하였으나, 정확성이 식별(discrimination)에 의한 것인지 반응편향(response bias)에 의한 것인지를 명확히 구분하기 위해 신호탐지이론(signal detection theory)의 계산 방식을 사용한 논문이 2편(Anderson et al., 2011; Douglas et al., 2012), 2HT 이론(two high threshold theory)의 계산 방식을 사용한 논문이 2편(Surguladze et al., 2004; Milders et al., 2010) 있었다.
19편의 문헌 중, 3편은 정확성에 대한 분석을 실시하지 않았다(Douglas et al., 2012; Liu et al., 2012; Munkler et al., 2015). 정확성을 측정한 연구들을 살펴보면 그 결과가 매우 비일관적이다. 정확성에 대한 분석을 실시한 16편 중, 9편에서는 우울 집단과 비우울 집단 간 정확성의 차이가 유의함을 관찰하였지만, 7편의 문헌에서는 두 집단 간의 정확성에 유의한 차이가 없다고 밝혔다(Gollan et al., 2008; Ryu KH et al., 2008; Schaefer et al., 2010; Anderson et al., 2011; Fieker et al., 2016; Branco et al., 2017; Rosa et al., 2017).
정확성을 분석한 16편의 연구 결과를 정서별로 기술하면 다음과 같다. 먼저 행복은 3편의 연구에서 집단 차를 보였고, 3편 모두 우울 집단의 정확성이 비우울 집단보다 떨어지는 것으로 나타났다(Surguladze et al., 2004; Zwick et al., 2017; Bomfim et al., 2019). 슬픔은 5편의 연구에서 유의한 집단 차를 보였다. 그러나 우울 집단이 우울하지 않은 집단보다 슬픔을 더 정확하게 지각한다고 보고한 연구들이 있는 반면(Gollan et al., 2010; Milders et al., 2010; Bomfim et al., 2019), 다른 연구들에서는 반대로 우울 집단이 우울하지 않은 집단보다 슬픔을 덜 정확하게 지각한다고 보고하였다(Surguladze et al., 2004; Csukly et al., 2009). 혐오(disgust)는 1편의 문헌에서 유의한 집단 차를 관찰하였고, 우울 집단의 정확성이 더 낮은 것으로 보고되었다(Csukly et al., 2009). 분노(angry)와 두려움(fear)도 Orgeta(2014)의 연구를 통해 우울 집단의 정확성이 더 낮은 결과를 볼 수 있었다. 그러나 분노는 반대로 우울 집단에서 정확성이 더 높다는 결과도 존재한다(Bomfim et al., 2019). 마지막으로 놀람(surprise)은 유의한 집단 차를 보고한 연구가 없었다.

2) 반응시간

타인의 얼굴 표정에 나타나는 정서적 정보를 정확하게 지각하는 것은 물론 매우 중요하다. 그러나 실제 대인관계 상황에서는 상대방의 정서를 정확하고도 빠르게 파악할 수 있어야 적절한 사회적 반응을 제때 나타낼 수 있다. 따라서, 일부 연구들(Leppanen et al., 2004; Gollan et al., 2008; Anderson et al., 2011)에서는 정확성에 더해 반응시간도 추가적으로 측정하여, 우울한 사람들이 정서 정보를 처리할 때 필요한 시간이 우울하지 않은 사람들과 차이가 있는지를 알아보고자 하였다.
먼저 Gollan et al.(2008)의 연구에서는 우울 집단이 슬픔 정서를 정확하게 지각하기 위해서는 정신 장애가 없는 건강한 집단에 비해 더 오랜 시간이 소요된다는 결과를 보고하였다. 또한 Leppanen et al.(2004)의 연구에서는 중립 정서의 처리 과정에서도 우울 집단이 더 긴 반응시간을 기록했다는 것을 확인하여, 우울 증상을 가진 사람들은 슬픔 정서뿐 아니라 중립 정서의 처리 과정에서도 정보 처리 과정이 지연될 수 있음을 보여주었다. 보다 최근의 Anderson et al.(2011)의 연구에서는 연구 대상 집단을 세 집단(현재 우울 집단, 우울 관해 집단, 비우울 집단)으로 분류하여 정서별 반응시간을 측정하였다. 그 결과 집단과 정서 간 상호작용이 통계적으로 유의한 것으로 나타났으며, 사후 분석을 통해 행복 정서는 두 우울 집단(현재 및 관해 집단)이 비우울 집단보다 조금 더 느리게 지각하는 반면, 슬픔 정서는 우울 관해 집단이 비우울 집단보다 조금 더 빠르게 지각하는 경향이 있다고 해석하였다. 그러나 이 연구에서의 사후 분석 결과는 통계적으로 유의한 수준에 미치지 못하였다. 따라서 이 연구 결과에서 나타난 슬픔과 행복에 대한 반응시간의 집단 차는 경향성 수준에서만 이해하는 편이 옳을 것이다.
반응시간에 관한 상기 연구 결과들을 종합해보면, 얼굴 표정의 정서 정보를 처리할 때 우울 집단은 우울하지 않은 집단보다 지연된 처리 속도를 보이는 것으로 나타난다. 그러나 반응시간을 결과 변인으로 측정한 연구의 수가 부족하기 때문에 연구 결과를 일반화하기에는 아직 무리가 있으며, 추후 연구가 진행되어야 할 필요가 있다. Anderson et al.(2011)의 연구에서는 우울 집단이 비우울 집단에 비해 행복은 상대적으로 지연된 처리를 하고, 슬픔은 상대적으로 빠른 처리를 하는 모습을 관찰하였지만, 통계적으로 유의한 수준에 미치지 못하였다. 하지만 이 연구 결과를 통해 우울의 기분 일치 가설이 반응시간에도 부합될 가능성을 생각해볼 수 있다. 최근 발표된 우울증의 인지적 처리 속도에 관한 문헌고찰 연구에 따르면(Ahorsu et al., 2018), 우울한 사람들이 슬픔 정서는 우울하지 않은 사람보다 더 빠르게 처리하나, 행복 정서와 중립 정서에는 지연된 처리 속도를 나타낸다고 보고하였다. 비록 이 연구에 포함된 문헌이 6편밖에 되지 않는다는 점에서 한계가 있겠으나, 반응시간에 대한 기분 일치 가설의 적용 가능성을 함께 시사한다고 볼 수 있다.

3) 민감도

정서 연구를 위한 얼굴 표정의 자극에 몰핑 기법을 도입함으로써, 자극 정서의 정교한 강도 조절이 가능하게 되었고 이에 따라 특정 정서가 어느 정도의 강도로 주어져야 이를 정확하게 지각하는지, 즉, 정서 인식의 민감도를 측정할 수 있게 되었다. 우울 집단과 건강한 집단 간 민감도의 차이를 알아본 연구들 중, Ryu KH et al.(2008)의 연구는 비임상군 대학생 305명을 대상으로 BDI-II를 실시하여 상위 20%와 하위 20%를 각각 우울 집단과 비교 집단으로 분류하였다. 이들을 대상으로 얼굴 표정이 중립에서 특정 정서를 가지도록 서서히 변화하게 하는 몰핑된 동적 자극을 제시하고, 얼굴 표정에서 해당 정서를 인식하는 정서 강도를 측정하였는데, 우울 집단의 경우 슬픔 정서는 통제 집단에 비해 낮은 정서 강도에서도 인식할 수 있었던 반면, 행복 정서는 통제 집단보다 더 강한 강도로 주어져야 인식한다는 결과가 관찰되었다. Munkler et al. (2015)의 연구에서는 주요 우울 장애 환자 31명과 통제 집단인 건강한 사람 28명을 대상으로 연구를 진행하였다. 연구자들은 Ryu KH et al.(2008)이 몰핑된 동적 자극을 사용한 것과 달리, 10% 단위로 정서가 몰핑된 일련의 정적 자극을 사용하였다. 이 연구에서도 Ryu KH et al.(2008)의 결과와 일관되게 우울 집단은 통제 집단에 비해 행복 정서가 더 강한 강도로 제시되어야 정확히 인식할 수 있다는 것이 확인되었다. 두 연구 결과는 우울 증상을 가진 사람들이 정서 인식의 민감도에서도 기분 일치 가설과 일치하는 결과를 나타냄을 시사한다. 즉, 우울한 사람들은 부정적인 정서는 낮은 강도에서도 민감하게 지각하는 반면, 긍정적인 정서는 높은 강도로 주어져야 지각할 수 있다는 것이다. 상기 기술된 연구 결과들은 정서 인식의 민감도를 측정한 연구 결과에서도 우울의 기분 일치 가설이 부합됨을 시사한다.
그러나 정서 인식의 민감도에서 우울장애의 기분 일치 가설을 지지하지 않는 연구 결과도 존재한다. 예를 들어, Schaefer et al.(2010)의 연구에서는 주요 우울장애 환자 34명, 양극성 장애의 우울기에 있는 환자 21명, 그리고 건강한 사람 24명을 대상으로 얼굴 표정 자극에 대한 정서 인식의 민감도를 비교하였다. 그 결과, 연구자들의 가설과 달리 정서 인식의 민감도에서 주요 우울장애 집단과 건강한 집단은 유의한 차이가 나타나지 않음을 확인하였다. 그 대신 양극성 장애의 우울기에 있는 집단은 건강한 집단과 유의한 집단 차를 보여주었다. 즉, 양극성 장애의 우울기에 있는 집단은 모든 정서에서 정확한 정서 인식을 위해 건강한 집단보다 높은 강도를 요구하였지만, 주요 우울장애 집단은 건강한 집단과의 차이가 없었다. 이 연구 결과는 같은 우울 증상을 가졌더라도 우울 장애와 양극성 장애는 서로 구분되는 정서 처리 양상을 나타낼 수 있음을 시사한다. 따라서 정서 정보의 처리 양상을 연구하는 후속 연구들에서는 두 장애의 구분되는 특징을 규명해야 할 필요가 있겠다.

4) 강도

타인의 얼굴 표정에 담긴 정서를 지각할 때 빠르고 정확하며 민감한 정서 인식 능력이 물론 필요하지만, 정서의 강도를 적절한 수준으로 판단하는 것 역시 사회적 상황에서 매우 중요하다. 정서 강도의 과소 추정 혹은 과대 추정은 사회적 판단의 오류 및 역기능적 행동을 야기할 수 있기 때문이다(Branco et al., 2017). Branco et al.(2017)의 연구에서는 참가자들에게 자극에 담긴 정서를 맞추는 절차에 더하여, 추가적으로 그 정서의 강도를 평정하도록 지시하였다. 그 결과, 우울 집단이 건강한 집단에 비해 분노 정서의 강도를 실제보다 더 과대추정하는 경향이 있다는 것을 관찰하였다. 다른 정서에서는 평정된 정서 강도의 집단 차이가 발견되지 않았다. Branco et al.(2017)의 연구 결과와는 다르게, 그보다 앞선 Gollan et al.(2008)의 연구에서는 우울 집단이 건강한 집단에 비해 슬픔 정서의 강도를 과대 평가하는 것으로 보고되었고, 슬픔 정서뿐 아니라 이른바 거친(harsh) 정서 군으로 범주화될 수 있는 분노, 혐오 및 공포 정서에 대해서도 더 강한 강도의 정서 판단을 하는 것으로 조사되었다.
정서 강도에 관한 연구들은 아직까지 그 수가 충분하지 않기 때문에 보다 확실한 결론을 얻기 위해서는 추가적인 연구가 필요하다. 본 개관에서 인용한 연구들의 결과를 종합해보면 우울 집단은 우울하지 않은 집단에 비해 대체로 부정적인 정서의 강도를 실제보다 과대추정하는 경향이 있는 것으로 보인다고 할 수 있을 것이다.

5) 해석편향

해석편향이란 모호한 정보를 긍정적 혹은 부정적인 방식으로 해석하는 경향성을 말한다(Schoth et al., 2017). 여러 연구에서 우울 집단은 중립적이거나 모호한 얼굴 표정 자극을 부정적인 정서를 가진 것으로 해석하는 부정적 해석편향을 일관되게 보이는 것으로 보고하고 있다(Leppanen et al., 2004; Surguladze et al., 2004; Gollan et al., 2008; Csukly et al., 2009; Gollan et al., 2010; Milers et al., 2010; Douglas et al., 2012; Munkler et al., 2015; Rosa et al., 2017). 예를 들면, 우울 집단은 우울하지 않은 집단에 비해 중립적인 얼굴 표정 자극을 슬픈 표정으로 편향된 판단을 하는 경향을 보이거나(Leppanen et al., 2004; Gollan et al., 2008; Douglas et al., 2012; Munkler et al., 2015), 얼굴 표정이 슬픔을 나타내기 보다는 슬픈 표정을 연기하는 자극일 경우에도 이를 슬픔 정서로 해석하는 경향을 보인다(Munkler et al., 2015). Rosa et al.(2017)은 정상인 범주의 비임상군 내에서 150명의 대학원생을 모집하여 BDI점수를 기준으로 이들을 고우울 집단과 저우울 집단으로 나누고 정서의 해석편향을 비교하였다. 그 결과 비임상군 내에서도 고우울 집단은 저우울 집단에 비해 정서중립적 얼굴 표정을 부정적 정서(공포)로 해석하는 경향이 더 강한 것으로 나타났다.
한편으로는, 우울 집단이 나타내는 얼굴 표정 자극에 대한 해석편향을 긍정적 해석편향의 부재라는 관점에서 바라볼 수도 있다. 즉, 일반적인 사람들은 자기 자신과 자신의 능력 및 미래에 대해 긍정적인 방향으로 해석하는 반면, 우울한 사람들에게서는 그와 같은 긍정적 해석 편향이 나타나지 않는다(Taylor et al., 1988)는 것이다. 예를 들어, Surguladze et al.(2004)의 연구에서 건강한 집단에서는 50%로 몰핑된 행복한 얼굴 표정과 중립적인 얼굴 표정을 행복으로 해석하는 긍정적인 해석 편향이 나타났다. 그러나 우울 집단에서는 이러한 긍정적 해석 편향이 발생하지 않았다. 이와 유사하게, Gollan et al.(2008)의 연구에서도 중립적인 얼굴 표정을 행복한 정서를 가진 표정이라고 해석하는 편향이 건강한 집단에서 나타난 반면, 우울 집단에서는 이를 슬픔 정서를 가진 표정이라고 해석했다는 경향을 보였다고 보고한 바 있다.
우울에 관한 가장 대표적인 접근법인 우울증의 인지이론에서는 부정적인 인지 편향이 우울 증상의 발병, 유지 및 심화에 핵심적인 요인으로 작용한다고 설명한다(Beck, 1979). 즉, 자신을 둘러싼 정보를 처리하는 과정에서 발생하는 부정적 편향이 자기 자신과 세상, 미래에 대한 부정적 관점을 형성하거나 강화하여 우울 증상으로 이어지게 된다는 것이다. 이러한 우울 관련 인지 편향을 연구하는데 주로 사용된 자극은 얼굴 표정 자극으로(Kwak YT et al., 2016), 정서의 주요 전달원이면서 여러 가지 정서를 다양한 방법으로 제시할 수 있다는 장점으로 인해 다양한 영역의 연구들에서 줄곧 사용되었다. 그러나, 서론에서 제기하였듯이, 얼굴 표정 자극을 사용한 실험들에서 보고된 우울한 사람들의 정보 처리 양상은 그 결과들이 혼재되어 있어 일관된 결론을 내리기가 어려웠다. 또한 점차 실험의 특성과 설계가 복잡해져 관련 연구의 동향을 파악하기가 쉽지 않다는 문제점이 있었다.
이에 통합적인 개관을 제공하고자 본 연구에서는 국내ㆍ외에서 수행된 연구들 중, 19편의 문헌에 대해 Whittmore et al.(2005)이 제시한 과정에 따라 통합적 문헌고찰을 수행하였다. 먼저 연구의 일반적인 특성을 파악하여 논문 발표 연도, 연구 대상자의 숫자와 연령 및 성비, 우울 평가 도구, 약물 복용 상태와 같은 내용을 파악하였다. 또한 실험에서 사용된 얼굴표정 자극의 특성을 분석하기 위해 몰핑 여부와 동적-정적 속성을 기준으로 2차적으로 분류하였고, 컴퓨터 실험 절차 여부, 실험 개수, 시행 수, 연구에서 사용된 정서를 확인하여 실험 패러다임의 특성을 구체화하였다. 그리고 마지막으로는 연구에서 측정하고 있는 결과 변인을 정확성, 반응시간, 민감도, 강도, 해석편향이라는 5가지 범주로 나누어서 선행연구 결과들을 개관하였다. 그 결과는 다음과 같다.
먼저, 정확성에 대해서는 매우 일관적이지 못한 연구 결과가 나타났다. 얼굴 표정 자극에 담긴 정서 정보를 처리할 때, 절반 이상의 문헌에서 우울한 사람들과 우울하지 않은 사람들이 정서 지각의 정확성에서 차이가 난다고 보고하였지만, 차이가 나지 않는다고 보고한 문헌도 상당수 존재하는 것을 확인하였다. 유의한 집단 차를 관찰한 연구 결과를 정서 별로 분석한 결과, 행복과 혐오 그리고 두려움은 우울한 사람들이 덜 정확하게 맞추는 정서였지만, 슬픔과 분노는 오히려 우울한 사람들이 우울하지 않은 사람들보다 더 정확하게 맞추는 정서인 것으로 나타났다. 하지만 슬픔과 분노에 대한 우울 집단의 정확성이 우울하지 않은 집단보다 낮다는 정반대의 결과도 있었다. 정확성에 대한 연구 결과가 상충되는 이유에 대해서는 따로 논의하는 편이 좋을 것이라고 판단하여 하단부에 따로 기술해 두었다.
다음으로 반응시간에 대한 연구에서는 우울한 사람들이 얼굴 표정에 나타나는 정서를 정확하게 맞추려면 우울하지 않은 사람보다 긴 시간을 요한다는 것이 밝혀졌다. 다시 말해, 얼굴 표정의 정서 정보를 처리할 때 우울한 사람들은 그렇지 않은 사람보다 지연된 처리를 하는 것으로 보인다.
민감도를 측정한 연구들에서는 정서에 따라 다른 연구 결과를 보여주었다. 즉, 행복 정서를 지각하기 위해서는 우울한 사람들이 높은 강도를 요구한 반면, 슬픔 정서는 낮은 강도에서도 정확하게 지각하는 것을 알 수 있었다.
강도에 대한 연구 결과를 살펴보면, 부정적인 정서의 얼굴 표정이 제시되면 우울한 사람들은 우울하지 않은 사람들에 비해 정서의 강도가 높다고 판단하는 것으로 나타났다. 즉, 우울한 사람들이 우울하지 않은 사람들보다 부정적인 정서를 과대 추정하는 경향이 있는 것으로 보인다.
마지막으로 해석 편향에 대해서는 다양한 연구들에서 일치되는 연구 결과를 보여주었다. 모호하거나 중립적인 정서의 얼굴 표정이 제시될 때, 우울한 사람들은 그렇지 않은 사람들에 비해 해당 얼굴 표정을 부정적인 정서를 가진 것으로 해석하는 편향을 보였다. 반대로 우울하지 않은 사람들은 모호하거나 중립적인 얼굴 표정을 긍정적인 정서를 가진 것으로 보는 편향을 나타냈으나, 우울한 사람들에게는 이러한 긍정적인 해석편향이 관찰되지 않았다.
앞서 기술한 바와 같이, 정확성은 연구 결과가 매우 비일관적인 결과 변인이었다. 이처럼 정서 지각의 정확성에서 연구 결과들이 상충되는 것에 대한 가능한 이유들을 다음과 같이 생각해볼 수 있을 것이다. 첫째로, 정서별 처리의 난이도가 다를 수 있다는 점이다. 즉, 정서별 난이도의 차이가 존재하여 특정 정서에서는 집단 간 차이가 관찰되거나 관찰되지 않았을 가능성이 있다. 얼굴 표정 자극의 일반적인 특성에 관해 연구한 Calvo et al.(2008)에 따르면, 행복은 다른 정서들에 비해 상대적으로 쉽게 맞출 수 있는 정서라고 한다. 본 고찰에 포함된 연구들 중 상당수에서도 90%에 달하는 행복 정서 처리의 정확도를 보고한 것을 확인할 수 있었다(Leppanen et al., 2004; Ryu KH et al., 2008; Miders et al., 2010; Douglas et al., 2012; Orgeta, 2014; Zwick et al., 2017; Bomfim et al., 2019). 즉, 행복 정서의 경우 정서 처리 자체의 낮은 난이도로 인한 천장 효과(ceiling effect)가 발생하여 유의한 집단 차가 발견되지 않았을 가능성을 고려해 볼 수 있을 것이다.
두 번째는 실험 자극의 특성에 따라 다른 결과가 나왔을 가능성이다. 본 연구에서 살펴본 문헌들 가운데, 슬픔 정서에 대한 정확성에서 유의한 집단 차이를 보고한 논문이 5편이었는데 이들 모두 몰핑된 정적 자극을 사용했다는 공통점이 있으며(Surguladze et al., 2004; Csukly et al., 2009; Gollan et al., 2010; Milders et al., 2010; Bomfim et al., 2019), 이와 대조적으로 몰핑된 동적 자극을 사용한 연구들(Ryu KH et al., 2008; Schafer et al., 2010; Zwick et al., 2017; Bomfim et al., 2019)에서는 유의한 집단 차이를 보고한 연구가 없었다. 이와 일관되게, 몰핑된 동적 자극과 정적 자극을 모두 사용한 Bomfim et al.(2019)의 연구에서는 슬픔 정서가 몰핑된 정적 얼굴 자극으로 제시된 경우에만 정확도에서 우울 집단과 비우울 집단 간 차이가 나타남을 관찰하였다. 정확히 어떤 자극 간 차이 요인에 의하여 대조적인 결과가 연구들 간에 나타났는지는 확실하지 않다. 그러나, 동적 자극의 경우 정적 자극에 비해서 더욱 많은 정보를 내포(Schafer et al., 2010)할 뿐만 아니라 시간의 흐름에 따른 변화 역시 정교하게 표상할 수 있으므로, 우울 집단도 동적 자극으로부터 정서를 정확히 파악할 수 있는 충분한 정보를 얻을 수 있었을 것으로 추측할 수 있다.
마지막으로는 자극 제시 시간에 따라 다른 연구 결과가 나타났을 가능성이다. 예를 들어, Surguladze et al.(2004)의 연구에서는 얼굴 표정 자극이 100 ms와 2000 ms 지속시간의 조건으로 제시되었다. 그 결과, 100 ms로 제시된 조건에서는 행복과 슬픔 정서 모두 정확성에서 유의한 집단 차가 나타났으나, 같은 자극이 2000 ms로 제시되었을 때는 집단 간에 유의한 차이가 없어지는 것을 관찰하였다. 자극과 정서 조건 및 참가자 집단에서 모두 유사한 Gollan et al.(2010)의 연구와 Gollan et al.(2008)의 연구를 비교했을 때도 같은 결과가 나타난다. 슬픔 정서 자극이 짧게(500 ms) 제시된 실험에서는 우울 집단과 비우울 집단 간 차이가 있었으나(Gollan et al., 2010), 자극을 길게(3000 ms) 제시한 실험에서는 집단 차이가 사라졌다(Gollan et al., 2008). 최근에 수행된 Branco et al.(2017)의 연구에서도 우울 집단을 대상으로 다양한 자극 제시 시간 조건에 따라 얼굴 표정 자극을 제시하였고, 자극 제시 시간이 긴 조건에서 정서 재인의 정확도가 더 높은 것을 관찰하였다. 자극 제시 시간에 따른 연구 결과들을 종합해보면, 우울 집단이 비우울 집단에 비하여 얼굴 표정의 정서를 재인하는 정확성이 떨어지는 경향이 있다고 할 수 있으나, 이는 자극의 처리 시간이 짧은 경우에 한정된다고 볼 수 있을 것이다. 다시 말하면, 우울 집단은 정서 재인 능력 자체의 결함을 가지고 있다기보다는 정서 처리의 속도가 비우울 집단에 비해 현저히 떨어질 가능성이 있다고 할 수 있다. 이는 본 고찰에서 기술한 반응시간에 관한 연구 결과들(Leppanen et al., 2004; Gollan et al., 2008; Anderson et al., 2011)과도 상통한다. 즉, 우울한 사람들은 얼굴 표정에 담긴 정서 정보를 처리할 때 우울하지 않은 사람들보다 오랜 시간이 걸리지만, 충분한 시간만 주어지면 건강한 사람과 유사한 수준으로 정확하게 정서를 지각할 수 있는 것으로 보인다.
본 고찰에서는 선행연구 결과를 개관하기 위해 결과 변인을 정확성, 반응시간, 민감도, 강도, 해석편향이라는 5가지 범주로 나누어서 분석하였다. 이와 함께, 5가지의 범주를 정서 지각 능력과 정서 판단 경향성이라는 2가지 범주로 다시 묶어서 연구 결과를 해석할 수 있다. 정확성(특정 정서를 정확하게 지각하는 것), 반응시간(특정 정서를 정확하게 지각하기 위해 걸리는 시간), 민감도(특정 정서가 어느 정도의 강도로 주어져야 정확하게 지각할 수 있는지)는 모두 참가자의 정확한 정서 지각 능력 범주로 묶일 수 있다. 반면 강도(제시되는 정서의 강도를 판단하는 것)와 해석편향(제시되는 모호한 정서를 특정 정서를 가진 것으로 판단하는 것)은 참가자의 정서 판단 경향성 범주로 묶일 수 있다. 이러한 관점에서 볼 때, 우울증의 정서 정보 처리 양상에 대한 연구 결과가 상충되는 것은 주로 정서 지각 능력에 대한 연구들이며, 정서 판단 경향성에 대해서는 반복적이고 일관된 연구 결과들이 제시되었다. 따라서 본 논문에서는 두 범주를 구분하여 후속 연구를 위한 제안을 하고자 한다.
먼저 얼굴 표정 자극에 대한 우울증의 정서 인식 능력 즉, 정확성이나 반응시간 혹은 민감도를 파악하고자 하는 연구들에서는 정밀한 연구 설계의 중요성이 더욱 대두된다고 볼 수 있다. 앞서 기술한 바와 같이, 과제의 난이도, 실험 자극의 특성, 자극 제시 시간 등과 같은 변인들로 인해 실제로는 우울한 사람들의 정서 인식 능력이 우울하지 않은 사람들과 다름에도 불구하고 유의한 집단 차를 발견하지 못하는 연구를 수행하게 될 가능성이 있다. 같은 맥락에서, 이러한 변인에 따른 결과의 차이를 검증하는 연구들이 진행되어야 할 필요성도 함께 제기된다. 자극이 제시되는 조건을 다양화하여, 어떤 조건에서는 집단 차가 나타나고 어떤 조건에서는 집단 차가 사라지는지를 확인한다면 우울한 사람들의 정서 인식 능력을 보다 정교하게 파악할 수 있을 것이다.
다음으로 얼굴 표정 자극에 대한 우울증의 정서 판단 경향성 특히 해석편향에 대해서는 반복적으로 나타난 일관된 연구 결과를 기반으로 우울증의 예방 혹은 치료적 개입 방안을 강구 할 필요가 있을 것으로 보인다. 최근 국외에서는 얼굴 표정 자극을 사용한 인지 편향 수정(Cognitive Bias Modification)이 우울증 치료의 효과적인 개입 방안이 될 수 있다는 연구 결과가 발표되었다(Penton-Voak et al., 2017; Nejati et al., 2019). 얼굴 표정 자극을 사용한 인지 편향 수정 프로그램은 예컨대 다음과 같은 방식으로 진행된다. 먼저, 양극단의 긍정 정서와 부정 정서를 연속선 상에 둔 후 몰핑 기법을 활용하여 얼굴 표정의 정서를 긍정 정서에서 부정 정서로(혹은 반대 방향으로) 변화하게끔 조작한다. 그 결과, 긍정 정서인지 부정 정서인지 확실하지 않은 모호한 얼굴 표정이 생겨나게 되는데, 이와 같은 모호한 얼굴 표정을 참가자들에게 제시한 후 어떤 정서인지 맞추는 과제를 수행하게끔 하고, 각 시행마다 참가자들에게 맞았거나 틀렸다는 피드백을 준다. 피드백을 통해 참가자들은 점차적으로 부정 정서를 높은 강도일 때만 부정 정서라고 판단하게 되는 반면, 긍정 정서는 낮은 강도일 때도 긍정 정서라고 판단하게 된다. 다시 말해, 피드백 훈련을 통해 참가자들의 부정적인 해석편향을 줄이고 긍정적인 해석편향을 높이는 것이다. 이와 같은 형태의 인지편향 수정 프로그램은 비교적 단순해 보이는 프로그램이지만 기존의 약물치료나 심리치료에 잘 반응하지 않거나 쉽게 접근하지 못하는 내담자들에게는 좋은 선택지가 될 수 있다. 따라서 국내에서도 이와 같은 개입 방안에 주목을 하고 효과연구를 수행해야 할 필요가 있겠다.
한편, 선행연구들은 항우울제의 복용이 정서 지각에 영향을 미칠 가능성이 있다고 밝힌 바 있다(Harmer et al., 2004; Anderson et al., 2011). 이에 본 고찰에서도 약물복용 여부에 따른 효과의 분석을 수행하고자 했으나, 선택된 연구들에서 사용된 약물의 종류가 다양하며, 우울 집단 내에서도 약물을 복용한 사람과 그렇지 않은 사람들이 뒤섞여 있었으므로 해당 분석을 진행할 수 없었다. 추후 연구를 통하여 본 연구의 약물복용 효과에 관한 분석의 제한점을 보다 체계적으로 다룰 필요가 있을 것이다.
본 논문에서는 우울한 사람들이 얼굴 표정에 담긴 정서 정보를 처리하는 양상에 관한 선행 연구들을 통합적 문헌고찰의 방식을 통해 전반적으로 개관하였다. 이를 통해 지난 20년에 걸쳐 진행되었던 연구들의 다양한 연구 설계 방식 및 연구 결과들에 대한 포괄적인 이해를 꾀하였으며, 앞으로 진행되어야 할 후속 연구의 방향도 두 갈래로 나누어서 제안하였다. 이 연구를 바탕으로 국내에서도 본 주제에 관해 더욱 적극적인 연구가 진행되고, 국내 실정에 맞는 우울의 예방 및 치료적 개입 방안이 개발되기를 기대한다.

Conflicts of interest

The authors declared no conflict of interest.

Fig. 1
Flow chart of study selection.
stress-28-041-f1.jpg
Table 1
Summary of general characteristic, experimental stimulus and paradigm in studies
Author Year Participants Stimulus type Emotion Experiment Emotion


N (M:F), Average age Assessment tool Medication H S A D F Su etc
Anderson et al. 2011 Case (currently): 30 (8:22), 38.6
Case (remitted): 99 (20:79), 34.2
DSM-IV, MADR Medicated 2 Type 76 Computer
Control: 101 (43:58), 30.3
Bomfim et al. 2019 Case: 23 (8:15), 70.3 DSM-5, PHQ-2 Medicated 2, 3 Type 99, 96 Computer
Control: 23 (8:15), 69.1
Branco et al. 2017 Case: 18 (5:13), 32.0 DSM-5, HDRS Medicated 1 Type 78 Computer
Control: 45 (24:21), 26.1
Csukly et al. 2009 Case: 23 (13:10), 48.1 DSM-IV, ICD-10, BDI Medicated 2 Type 35 Non-Computer
Control: 23 (13:10), 48.6
Douglas et al. 2012 Case: 68 (26:42), 39.2 DSM-IV, MADR NR 1 Type 12 Computer
Control: 50 (18:32), 38.5
Fieker et al. 2016 Case: 45 (only F), 44.2 BDI-Ⅱ, HDRS NR 1 Type NR Computer
Control: 30 (only F), 41.9
Gollan et al. 2008 Case: 37 (19:18), 36.8 DSM-IV, BDI-Ⅱ, HDRS Drug-free 1 Type 110 Computer
Control: 29 (15:14), 32.9
Gollan et al. 2010 Case: 44 (19:25), 27.9 DSM-IV, BDI-Ⅱ, HDRS Drug-free 2 Type 200 Computer
Control: 44 (14:30), 31.0
Lappanen et al. 2004 Case: 18 (7:11), 45.1 ICD-10, BDI Medicated 1 Type 96 Computer
Control: 18 (7:11), 44.7
Liu et al. 2012 Case: 27 (11:16), 28.5 DSM-IV, HDRS Medicated 2 Type 264 Computer
Control: 37 (13:24), 27.8
Miders et al. 2010 Case: 19 (8:11), 46.0 ICD-10, BDI-Ⅱ, HDRS Medicated 2 Type 160, 100 Computer
Control: 25 (7:18), 47.8
Munkler et al. 2015 Case: 26 (11:15), 39.3 DSM-IV, BDI, HDRS Medicated 2 Type 176, 216 Computer
Control: 28 (13:15), 40.2
Orgeta 2014 Case: 32 (NR), 70.6 BDI-Ⅱ, GDSC NR 2 Type 108 Computer
Control: 35 (NR), 69.1
Rosa et al. 2017 Case: 17 (NR), undergraduate BDI NR 2 Type 40 Computer
Control: 23 (NR), undergraduate
Ryu KH et al. 2008 Case: 20 (10:10), undergraduate BDI-Ⅱ NR 3 Type 20 Computer
Control: 20 (11:9), undergraduate
Schaefer et al. 2010 Case: 34 (19:15), 45.0 DSM-IV, MADR Drug-free 3 Type 36 Computer
Control: 24 (12:12), 45.3
Surguladze et al. 2004 Case: 27 (12:15), 46.9 DSM-IV, BDI, HDRS Medicated 2 Type 100 Computer
Control: 29 (12:17), 43.0
Weniger et al. 2004 Case: 21 (only F), 35.0 DSM-IV, BDI, HDRS Medicated 1 Type 16 Non-Computer
Control: 30 (15:15), 39.0
Zwick et al. 2017 Case (acutely): 42 (13:29), 43.7
Case (remitted): 43 (12:31), 36.9
DSM-IV, HDRS, QIDS Medicated 3 Type 50 Computer
Control: 38 (15:23), 42.5

NR: Not reported, DSM: Diagnostic and Statistical Manual of mental disorders, ICD: International Classification of Diseases, BDI: Beck Depression Inventory, HDRS: Hamilton Depression Rating Scale, MADRS: Montgomery–Åsberg Depression Rating Scale, GDSC: Geriatric Depression Scale, QIDS: Quick Inventory of Depressive Symptomatology, PHQ: Patient Health Questionnaire, 1 Type: Not Morphed Stimulus, 2 Type: Morphed Static Stimulus, 3 Type: Morphed Dynamic Stimulus, H: Happy, S: Sad, A: Angry, D: Disgust, F: Fear, Su: Surprise.

  • 1. Ahorsu DK, Tsang HWH. 2018;Do People with Depression Always Have Decreased Cognitive Processing Speed? Evidence through Electrophysiological Lens. Neuropsychiatry. 8(4):1227-1231. doi: 10.4172/Neuropsychiatry.1000451.Article
  • 2. Anderson IM, Shippen C, Juhasz G, et al. 2011;State-dependent alteration in face emotion recognition in depression. Br J Psychiatr. 198(4):302-208. doi: 10.1192/bjp.bp.110.078139.Article
  • 3. Archer J, Hay DC. 1992;Face processing in psychiatric conditions. Br J Clin Psychol. 198:45-61. doi: 10.1111/j.2044-8260.1992.tb00967.x.Article
  • 4. Beck A. 1979, Cognitive Therapy of Depression. The Guilford Press; NY.
  • 5. Bediou B, Krolak-Salmon P, Saoud M, et al. 2005;Facial Expression and Sex Recognition in Schizophrenia and Depression. Can J Psychiatry. 50(9):525-533. doi: 10.1177/070674370505000905.ArticlePubMed
  • 6. Bolger N, DeLongis A. 1989;Effects of Daily Stress in Negative Mood. J Pers Soc Psychol. 57(5):808-818. doi: 10.1037//0022-3514.57.5.808.PubMed
  • 7. Bomfim AJL, Ribeiro RADS, Chagas MHN. 2019;Recognition of Dynamic and Static Facial Expressions of Emotion among Older Adults with Major Depression. Trends Psychiatry Psychother. 41(2):159-166. doi: 10.1590/2237-6089-2018-0054.ArticlePubMed
  • 8. Bouhuys AL, Geerts E, Gordin MCM. 1999;Gender-Specific Mechanisms Associated with Outcome of Depression: Perception of Emotions, Coping and Interpersonal Functioning. Psychiatry Res. 85(3):247-261. doi: 10.1016/s0165-1781(99)00003-7.ArticlePubMed
  • 9. Branco LD, Cotrena C, Ponsoni A, et al. 2017;Identification and Perceived Intensity of Facial Expressions of Emotion in Bipolar Disorder and Major Depression. Arch Clin Neuropsychol. 33(4):491-501. doi: 10.1093/arclin/acx080.Article
  • 10. Calvo MG, Lundqvist D. 2008;Facial Expression of Emotion(KDEF): Identification Under Different Display-Duration Conditions. Behav Res Methods. 40(1):109-115. doi: 10.3758/brm.40.1.109.ArticlePubMed
  • 11. Csukly G, Czobor P, Szily E, et al. 2009;Facial expression recognition in depressed subjects. J Nerv Ment Dis. 197(2):98-103. doi: 10.1097/NMD.0b013e3181923f82.ArticlePubMed
  • 12. Dalili MN, Penton-Voak IS, Harmer CJ, et al. 2014;Meta-Analysis of Emotion Recognition. Psychol Med. 45(6):1135-1145. doi: 10.1017/S0033291714002591.ArticlePubMedPMC
  • 13. Douglas KM, Porter RJ, Johnston L. 2012;Sensitivity to posed and genuine facial expressions of emotion in severe depression. Psychiatry Res. 196(1):72-78. doi: 10.1016/j.psychres.2011.10.019.ArticlePubMed
  • 14. Ekman P. 1992;Are There Basic Emotions? Psychol Rev. 99(3):550-553. doi: 10.1037/0033-295X.99.3.550.ArticlePubMed
  • 15. Feiker M, Moritz S, Kother U, et al. 2016;Emotion recognition in depression: An investigation of performance and response confidence in adult female patients with depression. Psychiatry Res. 99:226-232. doi: 10.1016/j.psychres.2016.05.037.
  • 16. Feinberg TE, Rifkin A, Schaffer C, et al. 1986;Facial Discrimination and Emotional Recognition in Schizophrenia and Affective Disorders. Arch Gen Psychiatry. 43(3):276-279. doi: 10.1001/archpsyc.1986.01800030094010.ArticlePubMed
  • 17. Gollan JK, McCloskey M, Hoxha D, et al. 2010;How do depressed and healthy adults interpret nuanced facial expressions? J Abnorm Psychol. 119(4):804-810. doi: 10.1037/a0020234.ArticlePubMedPMC
  • 18. Gollan JK, Pane H, McCloskey M, et al. 2008;Identifying differences in biased affective information processing in major depression. Psychiatry Res. 159(1-2):18-24. doi: 10.1016/j.psychres.2007.06.011.ArticlePubMedPMC
  • 19. Hammen C. 1991;Generation of Stress in the Course of Unipolar Depression. J Abnorm Psychol. 100(4):555-561. doi: 10.1037/0021-843X.100.4.555.ArticlePubMed
  • 20. Harmer CJ, Shelley NC, Cowen PJ, et al. 2004;Increased Positive versus Negative Affective Perception and Memory in Healthy Volunteers following selective serotonin and norepinephrine Reuptake Inhibition. Am J Psychiatry. 161(7):1256-1263. doi: 10.1176/appi.ajp.161.7.1256.ArticlePubMed
  • 21. Kawk YT, Yang YS, Koo MS. 2016;Depression and Cognition. Dement Neurocogn Disord. 15(4):103-109. doi: 10.12779/dnd.2016.15.4.103.ArticlePubMedPMC
  • 22. Kessler RC. 1997;The Effects of Stressful Life Events on Depression. Annual Review of Psychology, 48, 191-214. Psychiatry Res. 188(3):303-309. doi: 10.1146/annurev.psych.48.1.191.
  • 23. Kohler CG, Hoffman LJ, Eastman LB, et al. 2011;Facial Emotion Perception in Depression and Bipolar Disorder: A Quantitative Review. Psychiatry Res. 188(3):303-309. doi: 10.1016/j.psychres.2011.04.019.ArticlePubMed
  • 24. Kwon HI, Paik JW, Ham BJ, et al. 2010;Psychosocial Functioning in Depression. Kor J Clin Psychol. 29(4):1117-1133. doi: 10.1155/2014/302741.Article
  • 25. Leppanen JM, Milders M, Bell S, et al. 2004;Depression biases the recognition of emotionally neutral faces. Psychiatry Res. 128(2):123-133. doi: 10.1016/j.psychres.2004.05.020.ArticlePubMed
  • 26. Liu WH, Haung J, Wang LZ, et al. 2012;Facial perception bias in patients with major depression. Psychiatry Res. 197(3):217-220. doi: 10.1016/j.psychres.2011.09.021.ArticlePubMed
  • 27. Mehrabian A. 1972, Nonverbal Communication. Aldine Transaction; USA.
  • 28. Milders M, Bell S, Platt J, et al. 2010;Stable expression recognition abnormalities in unipolar depression. Psychiatry Res. 179(1):38-42. doi: 10.1016/j.psychres.2009.05.015..ArticlePubMed
  • 29. Munkler P, Rothkirch M, Dalati Y, et al. 2015;Biased recognition of facial affect in patients with major depressive disorder reflects clinical state. PLoS One. 10(6):e0129863. doi: 10.1371/journal.pone.0129863.ArticlePubMedPMC
  • 30. Nejati V, Fathi E, Shahidi S, et al. 2019;Cognitive Training for Modifying Interpretation and Attention Bias in Depression: Relevance to Mood Improvement and Implications for Cognitive Intervention in Depression. Asian J Psychiatr. 10:23-28. doi: 10.1016/j.ajp.2018.11.012.Article
  • 31. Orgeta V. 2014;Emotion recognition ability and mild depressive symptoms in late adulthood. Exp Aging Res. 40(1):1-12. doi: 10.1080/0361073X.2014.857535..ArticlePubMed
  • 32. Park K. 2003;Effect of Negative Life Stress and Interpersonal Problem on Woman's Depression. Kor J Health Psychol. 8(3):581-593. uci: http://uci.or.kr/I410-ECN-0102-2009-180-003734991
  • 33. Penton-Voak IS, Munafo MR, Looi CY. 2017;Biased Facial-Emotion Perception in Mental Health Disorders: A Possible Target for Psychological Intervention? Curr Dir Psychol Sci. 26(3):294-301. doi: 10.1177/0963721417704405.Article
  • 34. Persad SM, Polivy J. 1993;Differences Between Depressed and Nondepressed Individuals in the Recognition of and Response to Facial Emotional Cues. J Abnorm Psychol. 102(3):358-368. doi: 10.1037/0021-843X.102.3.358.ArticlePubMed
  • 35. Rosa NMF, Borges VF, Cheffer L, et al. 2017;Symptoms of Anxiety and Depression Modulate the Recognition of Facial Emotion. Univ Psychol. 16(4):1-6. doi: 10.11144/javeriana.upsy16-4.sadm.Article
  • 36. Rubinow DR, Post RM. 1992;Impaired Recognition of Affect in Facial Expression in Depressed Patients. Biol Psychiatry. 31(9):947-953. doi: 10.1016/0006-3223(92)90120-O.ArticlePubMed
  • 37. Ryu KH, Oh KJ. 2008;Effect of Depressive Mood on Identification of Emotional Facial Expression. Sci Emot Sensib. 11(1):11-21. uci: http://uci.or.kr/G704-001372.2008.11.1.002
  • 38. Schaefer KL, Baumann J, Rich BA, et al. 2010;Perception of Facial Emotion in Adults with Bipolar or Unipolar Depression and Controls. J Psychiatr Res. 44(16):1229-1235. doi: 10.1016/j.jpsychires.2010.04.024.ArticlePubMedPMC
  • 39. Schoth DE, Liossi C. 2017;A Systematic Review of Experimental Paradigms for Exploring Biased Interpretation of Ambiguous Information with Emotional and Neutral Associations. Front Psychol. 8:Article 171. doi: 10.3389/fpsyg.2017.00171..Article
  • 40. Surguladze SA, Young AW, Senior C, et al. 2004;Recognition accuracy and response bais to happy and sad facial expression in patients with major depression. Neuropsychology. 18(2):212-218. doi: 10.1037/0894-4105.18.2.212.ArticlePubMed
  • 41. Taylor SE, Brown JD. 1988;Illusion and Well-Being: A Social Psychological Perspective on Mental Health. Psychol Bull. 103(2):193-210. doi: 10.1037/0033-2909.103.2.193.ArticlePubMed
  • 42. Torraco RJ. 2005;Writing Intergrative Literature Reviews: Guidelines and Examples. Hum Resour Dev Rev. 4(3):356-367. doi: 10.1177/1534484305278283.
  • 43. Weightman MJ, Air TM, Baune BT. 2014;A Review of the Role of Social Cognition in Major Depressive Disorder. Front Psychiatry. 5:Article 179. doi: 10.3389/fpsyt.2014.00179.Article
  • 44. Weniger G, Lange C, Ruther E, et al. 2004;Differential impairments of facial affect recognition in schizophrenia subtypes and major depression. Psychiatry Res. 128(2):135-146. doi: 10.1016/j.psychres.2003.12.027.ArticlePubMed
  • 45. Whittemore R, Knafl K. 2005;The Intergrative Review: Updated Methodology. J Adv Nurs. 52(5):546-553. doi: 10.1111/j.1365-2648.2005.03621.x.ArticlePubMed
  • 46. Yang JW, Park Na Rae, Chung KM. 2011;Facial Expression Recognition in Adolescents: Association with Psychosocial Adjustment and Peer Relationships. Kor J Clin Psychol. 30(2):475-495. doi: 10.15842/kjcp.2011.30.2.007.Article
  • 47. Zwick JC, Wolkenstein L. 2017;Facial emotion recognition, theory of mind and the role of facial mimicry in depression. J Affect Disord. 30:90-99. doi: 10.1016/j.jad.2016.12.022.Article

Figure & Data

References

    Citations

    Citations to this article as recorded by  

      • PubReader PubReader
      • Cite
        CITE
        export Copy
        Close
        Download Citation
        Download a citation file in RIS format that can be imported by all major citation management software, including EndNote, ProCite, RefWorks, and Reference Manager.

        Format:
        • RIS — For EndNote, ProCite, RefWorks, and most other reference management software
        • BibTeX — For JabRef, BibDesk, and other BibTeX-specific software
        Include:
        • Citation for the content below
        An Integrative Review of Facial Emotion Information Processing in Depression
        STRESS. 2020;28(2):41-50.   Published online June 30, 2020
        Close
      • XML DownloadXML Download
      Figure
      Related articles

      STRESS : STRESS