비지도 학습 기반의 기계 번역은 균형 잡힌 양 언어 데이터가 없는 경우에도 높은 성능을 보였지만, 데이터가 부족한 영역에서는 여전히 문제가 있습니다. 이 문제를 해결하기 위해, 본 논문에서는 소량의 학습 데이터만을 사용하여 다른 도메인에 적응하는 비지도 신경 기계 번역(UNMT) 모델을 훈련시키는 새로운 메타러닝 알고리즘을 제안합니다. 데이터가 부족한 도메인 처리에 도메인 일반 지식이 중요하다고 가정하며, 높은 자원의 도메인에서 얻은 지식을 활용하는 메타러닝 알고리즘을 확장하여 저자원 UNMT의 성능을 향상시킵니다. 우리의 모델은 전이 학습 기반 접근 방식보다 최대 2-4 BLEU 점수로 뛰어납니다. 광범위한 실험 결과는 제안된 알고리즘이 빠른 적응에 적합하고 다른 기준 모델들보다 지속적으로 우수한 성능을 보여줍니다.