안녕하세요 저희는 Aiffel에서 KMWP 학습에 도전했던 팀입니다.
이 저장소는 다음 KMWP 문제에 도전할 팀을 위한 가이드를 목적으로 만들었습니다
데이터에 대한 전처리부터, 학습에 사용할 레퍼런스 조사, 대형 모델을 사용하기 위해 Google Cloud Platform 설정 등, 자연어 처리 내용 외에도 우리가 알고 사용해야할 기본적인 내용들이 너무 많기에 다음 팀의 시간은 아끼고, 여기서 한발짝 더 나아갈 수 있도록 기록을 남기려고 합니다.
여기에 있는 내용들을 모르더라도 다양한 방법으로 시도할 수 있습니다.
그러나 이 도구들을 활용하게 된다면 더 다양한 방법을 시도해볼 수 있을겁니다.
저희가 안내할 내용은 다음과 같습니다.
사용 모델 | accuracy | 비고 | |
---|---|---|---|
0 | Transformer | 0.04 | base |
1 | KoGPT2 | 0.16 | base-model |
2 | SKT-GPT-tirinty | 0.29 | large-model |
3 | Encoder-Decoder(Roberta-KoGPT2) | - | 구현x |
4 | Encoder-Decoder(KoELECTRA-KoGPT2 | - | 구현x |
CodeBERT: A Pre-Trained Model for Programming and Natural Languages
KoEPT: Transformer 기반 생성 모델을 사용한 한국어 수학 문장제 문제 자동 풀이
Training Verifiers to Solve Math Word Problems
Semantically-Aligned Equation Generation for Solving and Reasoning Math Word Problems
Measuring Mathematical Problem Solving With the MATH Dataset
김일구 | 강민영 | 서승현 | 황시연 | 유병관 | 임동민 |
---|---|---|---|---|---|