인공지능 속도조절론은 그저 '기술꼰대'의 우려일까
*이 글은 외부 필자인 최호섭님의 기고입니다. 챗GPT 이후 인공지능, 특히 언어에 대한 변화가 사뭇 무섭습니다. '글을 쓴다'는 행위는 정보를 찾는 것부터 시작해 이를 받아들이고 새로운 가치를 만들어내는 긴 여정의 결과물인데 컴퓨터에 잘 설명하는 것으로 단숨에 글을 얻어내다 보니 콘텐츠와 관련된 일의 방법, 더 나아가 그 가치 자체가 흔들리는 듯합니다. 어떻게 보면 마이크로소프트의 코파일럿을 비롯해, 챗GPT를 통해 생각을 표현하고 담아내는 장벽이 허물어지고 누구나 더 쉽게 문서를 만들어낼 수 있게 된 것은 반가운 일입니다. 동시에 적지 않은 부작용도 일어나고 있습니다. '보고서를 직접 쓰지 않는다'를 둔 논란은 이미 낡은 주제가 되었고, 글쓰기 과정 중 스스로 생각하는 것의 중요성을 강조하는 것도 이른바 '꼰대' 인증을 하는 셈이지요. 이런 가치관의 갈등을 넘어 콘텐츠를 무분별하게 베껴 재생산하거나 거짓정보를 그럴싸하게 만드는 일, 더 나아가 개인정보와 기업의 보안을 위협할 수도 있다는 우려도 나오고 있습니다. 기업들의 고민들이 속속 전해지기도 합니다. 삼성전자가 대표적인 사례죠. 반도체 설비 관련 소프트웨어 엔지니어가 코드의 결함을 확인하기 위해 챗 GPT에 코드를 입력하기도 하고, 중요한 회의 내용을 요약하기 위해 인공지능의 힘을 빌리는 일이 일어났다고 합니다. 코드를 검증하거나 회의록을 만드는 것은 챗GPT 초기부터 주목받던 '인공지능이 잘하는 일' 중 하나였는데 실제 현장에서는 마냥 달가운 일은 아니었던 겁니다. 물론 챗GPT는 개인정보를 엄격하게 보호하고 있다고 합니다. 하지만 이용자가 입력하는 정보들은 수집되어서 다시 GPT 모델의 학습에 쓰일 수 있습니다. GPT를 개발, 운영하는 오픈AI도 이를 공지하고 있습니다. 서비스를 통해 얻은 데이터로 강화학습을 하는 건 일반적인 일이기 때문이지요. 코드를 한번 입력했다고 그 내용이 고스란히 경쟁 기업에 들어가거나 이를 통해 GPT가 단숨에 반도체 생산 라인에 대한 지식을 완벽하게 얻지는 않겠지만 이런 내용들이 광범위하게 이뤄진다면 걱정이 될 수밖에 없습니다.