Рет қаралды 22
2024년 9월 20일 BRL 세미나. 강원대학교 PLML연구실 (발표자: 이창섭)
발표 논문: GrammarT5: Grammar-Integrated Pretrained Encoder-Decoder Neural Model for Code (ICSE 2024)
인용수: 6회 (2025.01.23 기준)
논문 링크 : dl.acm.org/doi...
대부분의 사전 학습 모델들은 프로그램을 token sequence로 표현하게 되는데, token sequence는 프로그램이 가진 구문 및 구조 정보를 잘 표현하지 못할 수 있습니다.
이러한 문제를 해결하고자 AST level의 grammar rule sequence 표현이 연구되었으며, GrammarT5는 처음으로 grammar rule sequence를 사전 학습한 모델입니다.