콘텐츠로 건너뛰기 메뉴로 건너뛰기 푸터로 건너뛰기
데이터를 불러오고 있습니다
데이터를 저장하고 있습니다
#자연어 #음성

일반상식 문장 교정 데이터

일반상식 문장 교정 데이터 아이콘 이미지
  • 분야한국어
  • 유형 텍스트
구축년도 : 2022 갱신년월 : 2023-12 조회수 : 21,538 다운로드 : 158 용량 :
샘플 데이터 ?

샘플데이터는 데이터의 이해를 돕기 위해 별도로 가공하여 제공하는 정보로써 원본 데이터와 차이가 있을 수 있으며,
데이터에 따라서 민감한 정보는 일부 마스킹(*) 처리가 되어 있을 수 있습니다.

※ 내국인만 데이터 신청이 가능합니다.

  • 데이터 변경이력

    데이터 변경이력
    버전 일자 변경내용 비고
    1.1 2023-12-22 데이터 최종 개방
    1.0 2023-07-31 데이터 개방(Beta Version)

    데이터 히스토리

    데이터 히스토리
    일자 변경내용 비고
    2023-12-22 산출물 전체 공개

    소개

    ■ 국어를 사용하는 사람들이 매일매일의 생활에서 듣고 보고 사용하는 기초적이고 핵심적인 문장으로 구성된 데이터로 이를 통해 AI 모델이 사람의 생활에서 납득 가능한 논리적 추정을 할 수 있을 것으로 기대함
    
    ■ 데이터 구축 목적에 부합하는가는 AI 모델이 일상생활에서 두루 쓰이는 용어 및 문장을 이해하고 이로부터 기대되는 감정과 상황 변화에 대한 보편적 지식을 산출해 내는지가 중요한 요인으로 작용함

    구축목적

    ■ 일반상식 추론에 적합한 문장은 일상 생활의 평범한 상황에 대해 납득가능한 논리적 추정을 할 수 있는 문장을 의미한다( B. Y. Lin 외, 2020 참조). 따라서 일상 생활을 기반으로 한 문장을 수집 정제한 후 50만 문장의 개념 집합을 추출하는 것을 일반상식 문장 교정 데이터의 구축 목적으로 함
  •  

    1) 전체 문장수 : 508,120

     

    2) 데이터 분포

     

     
    데이터 분포
    ❍ 형태소 분포 ❍ 개념집합 분포 ❍ 문장 어절수 분포 ❍ 개념어의 품사 분포
    형태소 개수 수량 개념집합 개수 수량 문장 어절수 수량 품사 수량
    합계 479,776 합계 508,120 합계 508,120 합계 2,537,910
    9 30,407 3 46,923 3 11,230 MAG 108
    10 46,424 4 122,171 4 50,289 MMN 1
    11 68,994 5 170,058 5 122,708 NNB 1
    12 89,511 6 121,591 6 167,744 NNG 1,389,359
    13 83,366 7 47,377 7 117,242 NNP 61,956
    14 83,270     8 33,951 NP 135,319
    15 77,515     9 4,538 NR 1
    16 229     10 374 VA 212,014
    17 47     11 41 VV 739,151
    18 10     12 3    
    19 2            
    21 1          
     

    2) 도메인 분포

    2) 도메인 분포
    domain COUNT 비율
    생물과학 10,882 1.96%
    의식주 29,038 5.23%
    경제 36,711 6.61%
    정치와 행정 23,084 4.16%
    예술 14,668 2.64%
    자연환경 21,367 3.85%
    인간심리 묘사 37,212 6.70%
    언어와 문학 17,705 3.19%
    건강 25,259 4.55%
    철학 및 교육 21,730 3.91%
    법과 보안 21,431 3.86%
    기타 13,859 2.50%
    사회 43,369 7.81%
    취미와 운동 23,178 4.17%
    인간행동 묘사 76,173 13.72%
    인간의 삶 51,547 9.28%
    사물 및 상황묘사 66,909 12.05%
    역사 8,875 1.60%
    공학과 정보통신 12,370 2.23%
    합계 555,367 100%
     


     

  • 저작도구 설명서 및 저작도구 다운로드

    저작도구 설명서 다운로드 저작도구 다운로드
  • AI 모델 상세 설명서 다운로드

    AI 모델 상세 설명서 다운로드 AI 모델 다운로드

    1) 학습 모델 후보

    ● 본 임무와 직접적으로 관련된 두 개의 선행 연구 Lin et al. (2019)와 Seo et al. (2021)을 중점적으로 비교 분석함

     
    1) 학습 모델 후보
    데이터 명  15-1 일반 상식 문장 교정 데이터
    학습 모델 후보  알고리즘  성능지표  선정 여부  선정 사유
    KoGPT2 Transformer의 디코더를 차용한 대표적인 자기 회귀 모델인 GPT2를 한국어로 사전학습한 모델. 앞선 n개의 토큰을 보고 다음 토큰을 예측하는 Causal language model ROUGE-2: 50.0, ROUGE-L: 50.0, Coverage: 70.0 이상 X Lin et al. (2019)에서 GPT2를 실험했고 이에 착안하여 Seo et al. (2021)에서 KoGPT2를 실험했음
    KoBART Transformer 네트워크에 Denoising Auto Encoder (DAE) 기법을 적용한 BART를 한국어로 사전학습한 모델 ROUGE-2: 40.0, ROUGE-L: 50.0, Coverage: 70.0 이상 X Lin et al. (2019)에서 BART를 실험했고 이에 착안하여 Seo et al. (2021)에서 KoBART를 실험했음
    mBART-50 BART를 한국어가 포함된 50개의 다국어로 학습한 모델 ROUGE-2: 50.0, ROUGE-L: 50.0, Coverage: 70.0 이상 Lin et al. (2019)에서 BART를 실험했고 이에 착안하여 Seo et al. (2021)에서 mBART를 실험했음
    KE-T5 학습과 추론을 모두 seq2seq 형식으로 일원화하여 다량의 데이터로 학습한 T5 모델을 한국어로 구현한 모델 ROUGE-2: 30.0, ROUGE-L: 50.0, Coverage: 70.0 이상 X Lin et al. (2019)에서 T5를 실험했으나 Seo et al. (2021)에서는 실험에 포함하지 않았음. 이에 자체적으로 실험을 진행함
    한국어와 영어가 약 7:3 비율로 섞인 30GB 코퍼스로 학습했으며, 24개의 레이어와 16개의 헤드, 770M개의 모델 파라미터로 구성
    현재 공개된 한국어 Seq2seq 모델 중 가장 큰 사이즈(770M)의 모델
    Ko-GPT-Trinity KoGPT의 모델 파라미터 수를 12억 개로 늘린 모델 ROUGE-2: 10.0, ROUGE-L: 20.0, Coverage: 65.0 이상 X Lin et al. (2019)에서 GPT2를 실험했으나 Seo et al. (2021)에서는 실험에 포함하지 않았음. 이에 자체적으로 실험을 진행함
     
    350억 개의 한국어 텍스트 토큰으로 72,000 스텝 동안 학습. 1.2B개의 모델 파라미터로 구성
    모델 구조는 KoGPT2와 동일함

     

    ● KoGPT2, KoBART, mBART-50은 Seo et al. (2021)에서 성능이 보고된 반면, KE-T5와 Ko-GPT-Trinity의 성능은 보고되지 않음. 이에 동일한 설정 하에 과제 준비 기간 동안 두 모델에 대해 예비 실험을 진행하였음
    ● 즉 Seo et al. (2021)에서 제안된 KommonGen 데이터를 해당 깃허브(https://github.com/ nlpai-lab/ KommonGen)에서 내려받고 해당 학습 데이터와 테스트 데이터를 이용해 실험을 진행함
    ● 이를 통해 보다 종합적으로 모델의 성능을 검증하고, 최종적으로 구현할 모델을 결정하고자 함
    ● 실험 결과

     
    실험 결과
    항목 후보1 후보2 후보3 후보4 후보5
    모델 KoGPT2 KoBART mBART-50 KE-T5 Ko-GPT-Trinity
    근거 논문 보고 논문 보고 논문 보고 예비실험 예비실험
    파라미터수 125M 124M 610M 770M 1.2B
    품질 ROUGE-2 34.78 44.53 64.95 38.79 16.92
    지표 ROUGE-L 53.02 60.64 73.9 57.17 31.19
      Coverage 77.04 89.8 94.06 78.2 72.19
     

     

    ● 실험 결과 분석
    ▸KE-T5은 KoGPT보다 근소하게 우세함
    ▸Ko-GPT-Trinity은 다섯 개의 모델들 중 가장 성능이 낮음
    ▸ROUGE-2/L, Coverage 모두 mBART-50가 가장 높은 성능을 보임
    ▸따라서 학습모델 후보군 중 가장 높은 성능을 보인 mBART-50을 최종 과제 수행시 구현하기로 결정함

    2) 학습 모델 개발
    (개발 목표)
       - 입력된 개념 정보를 활용하여 자연스러운 상식 문장을 생성하는 모델을 구축
         예: (입력) 고양이 선반 올라가다 => (생성) 고양이가 선반에 올라가 있다

    (개발 내용)
        - mBART
    ● 학습 모델은 페이스북에서 개발한 mBART(엠바트) 모델을 사용했습니다. 
    ● 해당 모델은 한국어를 포함한 50여가지의 언어로 사전학습한 모델이며, 모델 사이즈가 다른 공개된 모델과 비교하여 더 커서, 한국어에서도 일반적으로 좋은 성능을 보여주고 있습니다.
    ● 해당 모델은 전형적인 sequence-to-sequence 모델로, 일정 조건(개념집합)을 인코더에서 입력 받아서 디코더에서 문장을 생성하는 구조입니다.

    은행,사이버,채널,늘리다,계획 화살표 mBART 전형적인 sequence-to-sequence 모델 일정 조건(개념집합)을 인코더에서 입력 받아서 디코더에서 문장을 생성하는 구조 화살표 은행은 사이버 채널을 계속 늘려갈 계획이다.

     

     

     

     

  • 데이터 성능 점수

    측정값 (%)
    기준값 (%)

    데이터 성능 지표

    데이터 성능 지표
    번호 측정항목 AI TASK 학습모델 지표명 기준값 점수 측정값 점수
    1 상식 문장 생성 성능 Text Generation Sequence-to-sequence 기반 모델 Coverage 0.7 단위없음 0.85 단위없음
    2 상식 문장 생성 성능 Text Generation Sequence-to-sequence 기반 모델 ROUGE-2 50 % 58.72 %
    3 상식 문장 생성 성능 Text Generation Sequence-to-sequence 기반 모델 ROUGE-L 50 % 72.57 %

    ※ 데이터 성능 지표가 여러 개일 경우 각 항목을 클릭하면 해당 지표의 값이 그래프에 표기됩니다.

    ※ AI모델 평가 지표에 따라 측정값의 범위, 판단 기준이 달라질 수 있습니다. (ex. 오류율의 경우, 낮을수록 좋은 성능을 내는 것으로 평가됩니다)

  • 설명서 및 활용가이드 다운로드

    데이터 설명서 다운로드 구축활용가이드 다운로드

     

    1) 데이터 포맷 : JSON

    2) 어노테이션 포맷

    1) 데이터 포맷
    구 분 항목명 타입 필수 설명
    1 id string y ID
    2 sentence string y 문장 내용
    3 refSrc string y 참조문의 출처
    4 refText string n 참조문
    5 refid string y 참조문의 ID
    6 sentSource string n 인용문의 출처
    7 concepts     개념집합의 배열
      07월 01일 stem string y 개념집합 - 단어
    07월 02일 postag string y 개념집합 - 형태소
    8 tagged   y 2을 형태소 분석한 결과
      08월 01일 text      
        2008-01-01 content string y 전체 어절의 내용
        2008-01-02 begin_offset number y  
      08월 02일 tokens   y 문장 내 어절을 형태소 분석한 결과들의 배열
        2008-02-01 text   y 어절
          8-2-1-1 content string y 어절의 내용
          8-2-1-2 begin_offset number n  
        2008-02-02 morphemes   y 어절 내 형태소들의 배열
          8-2-2-1 text text y  
            8-2-2-1-1 content string y 형태소의 내용
            8-2-2-1-2 begin_offset number y  
          8-2-2-2 tag string y 형태소의 태그 정보
        2008-02-03 lemma   y 어절의 원문
        2008-02-04 tagged   y 어절을 형태소 태깅한 결과
    9 domain array of string y 문장이 속한 도메인들의 배열
    10 words_count int32 y 기호를 제외한 형태소의 개수
    11 concept_set_count int32 y 개념집합 내 개념의 수
     

     

    3) 실제 예시

    {
            "sentence": "기업들이 강력한 구조 조정으로 군살을 빼 효율성과 생산성을 높이고 있다.",
            "id": "ff6cfecbc7a8028d482b41250c5ab9055e5735822f2b94808367f0f87803490f",
            "refSrc": "stdict",
            "refid": "519867",
            "domain": [
                "경제",
                "순수 과학",
                "철학 및 교육"
      "sentSource": "",
            "concepts": [
                {
                    "stem": "기업들",
                    "postag": "NNG"
                },
                {
                    "stem": "구조",
                    "postag": "NNG"
                },
                {
                    "stem": "조정",
                    "postag": "NNG"
                },
                {
                    "stem": "군살",
                    "postag": "NNG"
                },
                {
                    "stem": "빼다",
                    "postag": "VV"
                },
                {
                    "stem": "효율성",
                    "postag": "NNG"
                },
                {
                    "stem": "생산성",
                    "postag": "NNG"
                },
                {
                    "stem": "높이다",
                    "postag": "VV"
                }
            ],
            "tagged": {
                "text": {
                    "content": "기업들이 강력한 구조 조정으로 군살을 빼 효율성과 생산성을 높이고 있다."
                },
                "tokens": [
                    {
                        "text": {
                            "content": "기업들이"
                        },
                        "morphemes": [
                            {
                                "text": {
                                    "content": "기업"
                                },
                                "tag": "NNG",
                                "probability": 0.9731217622756958
                            },
                            {
                                "text": {
                                    "content": "들",
                                    "begin_offset": 2
                },
                                "tag": "XSN",
                                "probability": 0.98529452085495
                            },
                            {
                                "text": {
                                    "content": "이",
                                    "begin_offset": 3
                                },
                                "tag": "JKS",
                                "probability": 0.9813772439956665
                            }
                        ],
                        "lemma": "기업",
                        "tagged": "기업/NNG+들/XSN+이/JKS"
                    },
                    {
                        "text": {
                            "content": "강력한",
                            "begin_offset": 5
                        },
                        "morphemes": [
                            {
                                "text": {
                                    "content": "강력",
                                    "begin_offset": 5
                                },
                                "tag": "NNG",
                                "probability": 0.936255693435669
                            },
                            {
                                "text": {
                                    "content": "하",
                                    "begin_offset": 7
                                },
                                "tag": "XSA",
                                "probability": 0.919582188129425
                            },
                            {
                                "text": {
                                    "content": "ㄴ",
                                    "begin_offset": 7
                                },
                                "tag": "ETM",
                                "probability": 0.998747706413269
                            }
                        ],


     

     

     

  • 데이터셋 구축 담당자

    수행기관(주관) : ㈜나라지식정보
    수행기관(주관)
    책임자명 전화번호 대표이메일 담당업무
    송영숙 02-3141-7644 klanguage1004@gmail.com 총괄PM
    수행기관(참여)
    수행기관(참여)
    기관명 담당업무
    ㈜나라지식정보 가공/검수
    ㈜테스트웍스 가공/검수
    ㈜바이칼에이아이 데이터 정제 /저작도구
    ㈜튜닙 모델링
    데이터 관련 문의처
    데이터 관련 문의처
    담당자명 전화번호 이메일
    송영숙 02-3141-7644 klanguage1004@gmail.com
보건의료 데이터 개방 안내

보건의료 데이터는 온라인 및 오프라인 안심존을 통해 개방됩니다.

안심존이란 안심존 이용메뉴얼 안심존 이용신청 데이터 열람신청
  • 인터넷과 물리적으로 분리된 온라인·오프라인 공간으로 의료 데이터를 포함하여 보안 조치가 요구되는 데이터를 다운로드 없이 접근하고 분석 가능
    * 온라인 안심존 : 보안이 보장된 온라인 네트워크를 통해 집, 연구실, 사무실 등 어디서나 접속하여 데이터에 접근하고 분석
    * 오프라인 안심존 : 추가적인 보안이 필요한 데이터를 대상으로 지정된 물리적 공간에서만 접속하여 데이터에 접근하고 분석

    1. AI 허브 접속
      신청자
    2. 안심존
      사용신청
      신청자신청서류 제출*
    3. 심사구축기관
    4. 승인구축기관
    5. 데이터 분석 활용신청자
    6. 분석모델반출신청자
  • 1. 기관생명윤리위원회(IRB) 심의 결과 통지서 [IRB 알아보기] [공용IRB 심의신청 가이드라인]
    2. 기관생명윤리위원회(IRB) 승인된 연구계획서
    3. 신청자 소속 증빙 서류 (재직증명서, 재학증명서, 근로계약서 등 택1)
    4. 안심존 이용 신청서 [다운로드]
    5. 보안서약서 [다운로드]
    ※ 상기 신청서 및 첨부 서류를 완비한 후 신청을 진행하셔야 정상적으로 절차가 이루어집니다.

  • 신청 및 이용관련 문의는 safezone1@aihub.kr 또는 02-525-7708, 7709로 문의

데이터셋 다운로드 승인이 완료 된 후 API 다운로드 서비스를 이용하실 수 있습니다.

API 다운로드 파일은 분할 압축되어 다운로드 됩니다. 분할 압축 해제를 위해서는 분할 압축 파일들의 병합이 필요하며 리눅스 명령어 사용이 필요합니다.

리눅스 OS 계열에서 다운로드 받으시길 권장하며 윈도우에서 파일 다운로드 시 wsl(리눅스용 윈도우 하위 시스템) 설치가 필요합니다.

※ 파일 병합 리눅스 명령어

find "폴더경로" -name "파일명.zip.part*" -print0 | sort -zt'.' -k2V | xargs -0 cat > "파일명.zip"

- 해당 명령어 실행 시, 실행 경로 위치에 병합 압축 파일이 생성됩니다.

- 병합된 파일 용량이 0일 경우, 제대로 병합이 되지 않은 상태이니 "폴더경로"가 제대로 입력되었는지 확인 부탁드립니다.

※ 데이터셋 소개 페이지에서 다운로드 버튼 클릭하여 승인이 필요합니다.

오프라인 데이터 이용 안내

본 데이터는 K-ICT 빅데이터센터에서도 이용하실 수 있습니다.

K-ICT 빅데이터센터는 데이터 안심구역으로 지정되어
다양한 데이터(미개방 데이터 포함)를 분석할 수 있는 오프라인 분석공간을 제공하고 있습니다.

데이터 안심구역 이용절차 및 신청은 K-ICT빅데이터센터 홈페이지를 참고하시기 바랍니다.