왜 힌튼 교수는 구글을 사직하며 AI의 위험성을 경고하였는가?
*이 글은 외부 필자인 성원용님의 기고입니다. 약 한 달 전 미국의 유명 신문인 뉴욕타임스(New York Times)지 대담에서 제프리 힌튼(Geoffrey Hinton)교수는 AI연구의 위험을 크게 경고하였습니다. (참조 - 'The Godfather of A.I.' Leaves Google and Warns of Danger Ahead) 이 기사를 인용하여, 많은 국내외 언론은 인공신경망 연구의 개척자 힌튼 교수가 자기 일생의 연구에 대해 후회하고 있다는 해설을 달기도 하였습니다. 오늘은 힌튼 교수가 이렇게 AI연구의 위험을 경고한 이유를 이 신문기사와 또 최근에 진행된 MIT 테크놀로지 리뷰(Technology Review)에 나온 대담을 토대로 설명하겠습니다. (참조 - Geoffrey Hinton talks about the "existential threat" of AI) AI 연구 선구자 힌튼 교수는 1970년대 영국에서 인공신경망 연구로 박사학위를 받으며 이 분야의 연구를 시작하였습니다. 당시는 물론 사람이나 동물의 신경세포를 모방하여 지능을 가지는 시스템을 만든다는 것이 매우 생소하던 시절이었습니다. 제프리 힌튼 교수는 2018년 요수아 벤지오(Yoshua Bengio), 얀 르쿤(Yann LeCun)과 함께 인공신경망에 대한 연구로 ACM의 튜링 어워드(Turing Award)를 받았습니다. 이 어워드는 컴퓨터 학계의 노벨상으로 간주되고는 합니다. 힌튼 교수는 깊은 신경망 훈련에 가장 많이 사용되는 에러 역 전파 (error back-propagation) 알고리즘의 발전에 기여하였습니다. 또한 오버피팅(overfitting)을 억제하는 드롭아웃(dropout)과 같은 훈련방법과 알렉스넷(AlexNet)같은 혁신적인 신경망 설계에 관한 연구로 이 분야의 발전에 지대한 영향을 끼쳤습니다. 그의 지도 아래 여러 유명한 연구자들이 배출되었으며, 그중에는 OpenAI의 공동창업자 일리아 수츠케버 (Ilya Sutskever)와 Meta(페이스북의 모회사)의 AI책임자인 얀 르쿤이 포함되어 있습니다. 참고로 에러 역 전파 알고리즘 덕분에 인공신경망 개발 시 신경망 모델의 층수를 높일 수 있고 그에 의해서 높은 성능을 얻을 수 있습니다. 하지만 이 알고리즘은 인간이나 동물의 신경세포가 학습되는 방법과는 사뭇 다른 방식이라 할 수 있습니다. AI의 위험, 단기 중기 장기