Skip to main
NMT
마이크 슈스터 구글 브레인 박사 "그래도 언어를 배워야한다"
2017년 2월 구글코리아가 개최한 ‘신경망 기계번역 포럼’에 다녀왔습니다. “2016년 11월이었죠? 무슨 기술 덕분에 구글 번역기가 한국어를 예전보다 훨씬 정확하게 번역하게 됐다고 발표했던 때요!” “네. 그 기술은 ‘신경망 기계번역(NMT)’이죠. 원래 기술은 ‘구문단위 번역(PBMT)’이었습니다. 단어, 구문 단위로 끊어서 문장을 번역했습니다. 하지만 NMT론 (사람처럼) 통번역할 수 있죠” “PBMT가 추측, NMT는 배움입니다. 배워서 다른 문장 번역에도 써먹을 수 있다는 이야기죠” (참조! - “인공지능으로 103개 언어 장벽 허물겠다”) 구글은 이 기술을 16개 언어, 8개 언어 조합에 우선 적용했습니다. 기존 구글 번역기는 103개 언어를 번역할 수 있었으니까 87개 언어를 번역하는 데엔 아직 PBMT를 씁니다. 그래서 구글 번역 매니지먼트 제품총괄 버락 투로브스키는 NMT를 적용할 수 있는 언어 개수를 늘리는 것이 미션이라고 했죠. 미션을 빠르게 달성하기 위해 구글이 내놓은 비밀병기는 ‘다중 언어 트레이닝’이었습니다. 포럼에선 이 기술을 소개하는 데에 초점을 뒀네요. 구글에서 인공지능 기반기술을 연구하는 ‘구글 브레인’ 그룹 소속의 마이크 슈스터 박사와 화상연결했습니다. 그는 한국어, 일본어 음성인식 모델의 메인 개발자기도 합니다. 그는 다중 언어 트레이닝을 하면 하나의 언어를 하나의 모델로 훈련시켜서 다양한 언어로 번역할 수 있다고 했습니다.
장혜림
2017-02-09
1
;