감정 분류용 데이터셋
외부 데이터는 해당 기관의 이용정책과 다운로드 절차를 따라야 하며 AI 허브와 관련이 없음을 알려 드립니다. [저작권 및 이용정책 상세보기]
구축량
- 연기 지망생/연기 전문가 100명, 7가지 감정에 대해 약 100번씩 발화 및 연기, 총 10,351개 영상
필요성
- 이미지 감정인식 관련 기존 공개 데이터중 FER2013의 경우 감정별로 데이터 개수가 큰 차이를 보이며 저화질 데이터로 얼굴 감정 인식에 적합하지 않음. 한편 SFEW와 같은 고화질 데이터셋의 경우 2,000건 정도의 규모에 그침
- 멀티모달 데이터의 측면에서 바라보면, 발화 단위의 감정 데이터까지 포함하고 있는 데이터셋은 CMU-MOSI (Zadeh et al., 2016b) 정도이나 발화 도메인이 영화 리뷰로 한정되어 있기 때문에 감정 분류도 긍정/부정 레벨에 머물러 있음
구축 내용

- 감정 유추가 가능한 대화 데이터를 사람이 연기하여 결과를 저장하고, 동시에 해당 데이터의 감정 상태와 감정 주체 부여
- 연기 지망생/연기 전문가 100명 대상, 7가지 감정에 대해 1인당 약 100번씩 발화 및 연기 수행, 총 10,351개 영상 구축
데이터 구조
- 참가자별 나이/성별 정보는 participant_info.xlsx 파일에서 확인
- 영상 포맷 : FHD, 30fps, m2ts format
- 음성 포맷 : 16 bit, 48 KHz으로 영상에 포함
- 텍스트 : 총 350개의 상황 준비 (script.hwp 참조)
- 영상 파일명은 참가자번호-문장번호 로 되어있으며 문장번호별 감정은 하기와 같음
1~50 : Happiness
51~100 : Surprise
101~150 : Neutral
151~200 : Fear
201~250 : Disgust
251~300 : Anger
301~350 : Sadness