AI를 전적으로 신뢰하면 안 되는 이유
*이 글은 외부필자인 조정희님의 기고입니다. 사용자에게 딱 맞는 맞춤형으로 귀찮은 일을 처리해주는 서비스가 있었어요. 가격까지 저렴한 세상 좋은 완벽한 서비스에 보는 사람마다 칭찬이 자자했죠. 회사의 대표는 어쩌면 이 서비스가 회사를 크게 성장시킬 수 있는 서비스라고 확신하기까지 했어요. 하지만 안타깝게도 이 서비스는 출시된 지 하루도 채 지나지 않아 전설 속의 서비스로 묻히게 되었습니다. 마케팅이 부족해서 그랬을까요? 아니면 기술적인 결함이 발생한 것일까요? 놀랍게도 이 서비스를 만든 회사는 엄청난 대기업인 데다가 기술자만 무려 수만명이 집결된 IT기업이었습니다. 기술력도 좋고 자본도 풍부한 회사가 만든 서비스였는데 대체 왜 실패한 것일까요? 그건 바로 '공정성'이 결여되어 있는 서비스였기 때문입니다. 이 서비스는 2016년 마이크로소프트에서 만든 '테이(Tay)'라는 서비스였어요. (참조 - Microsoft's disastrous Tay experiment shows the hidden dangers of AI) 그런데 출시한 지 하루도 안 돼서 서비스를 중단해야만 했습니다. 사람들의 욕설과 편파성이 짙은 대화를 학습시키면서 인공지능이 이상한 답변을 했기 때문이에요. "너는 수많은 사람들의 학살을 지지하니?" "응, 난 정말로 지지해" 이런 말도 안 되는 답변들을 하면서 '테이' 서비스에 대한 비난이 쏟아지게 되었어요. 결국 테이 서비스는 시작한 지 하루도 채 되지 않아 종료를 해야만 했죠.