Skip to main
편향
AI를 전적으로 신뢰하면 안 되는 이유
*이 글은 외부필자인 조정희님의 기고입니다. 사용자에게 딱 맞는 맞춤형으로 귀찮은 일을 처리해주는 서비스가 있었어요. 가격까지 저렴한 세상 좋은 완벽한 서비스에 보는 사람마다 칭찬이 자자했죠. 회사의 대표는 어쩌면 이 서비스가 회사를 크게 성장시킬 수 있는 서비스라고 확신하기까지 했어요. 하지만 안타깝게도 이 서비스는 출시된 지 하루도 채 지나지 않아 전설 속의 서비스로 묻히게 되었습니다. 마케팅이 부족해서 그랬을까요? 아니면 기술적인 결함이 발생한 것일까요? 놀랍게도 이 서비스를 만든 회사는 엄청난 대기업인 데다가 기술자만 무려 수만명이 집결된 IT기업이었습니다. 기술력도 좋고 자본도 풍부한 회사가 만든 서비스였는데 대체 왜 실패한 것일까요? 그건 바로 '공정성'이 결여되어 있는 서비스였기 때문입니다. 이 서비스는 2016년 마이크로소프트에서 만든 '테이(Tay)'라는 서비스였어요. (참조 - Microsoft's disastrous Tay experiment shows the hidden dangers of AI) 그런데 출시한 지 하루도 안 돼서 서비스를 중단해야만 했습니다. 사람들의 욕설과 편파성이 짙은 대화를 학습시키면서 인공지능이 이상한 답변을 했기 때문이에요. "너는 수많은 사람들의 학살을 지지하니?" "응, 난 정말로 지지해" 이런 말도 안 되는 답변들을 하면서 '테이' 서비스에 대한 비난이 쏟아지게 되었어요. 결국 테이 서비스는 시작한 지 하루도 채 되지 않아 종료를 해야만 했죠.
조정희
2022-01-06
무엇이 인공지능을 쓸모없게 만드는가?
그는 죽었습니다. 르네 카밀이라는 인물인데요.원래 평범한 엔지니어였습니다.도표 작성 장치를 다루는 전문가였어요. 그가 다루던 기계는 주로사람들의 인적사항에 구멍을 뚫은인구조사 카드를 분류했습니다. https://youtu.be/tOEFO1kU8rY 헌데 전쟁이 일어났습니다.나치는 어느새 카밀이 살던프랑스 비쉬까지 근접했습니다. 카밀은 직감했습니다. 자기가 다루는 인구 분류표가비쉬에 사는 유대인을 골라내서끌고 가는 데 쓰인다는 걸요. 실제로 인구조사 카드에는종교를 기재하는 부분이 있었고거기에 ‘유대교’라고 적는 건수용소로 간다는 뜻이었습니다. 카밀은 나름 기지를 발휘합니다. 원래 인적사항에 맞게인구조사 카드에 구멍을 내면기계가 그 구멍에 맞춰서카드를 분류하고 모았는데요. 카드에 펀칭할 때 일부러 11번째 줄에는 구멍을 내지 않도록펀칭 기계를 조작한 겁니다. 11번째 줄은종교를 표시하는 부분이었습니다. 카밀은 30개월간 몰래11번째 줄 데이터를 기재하지 않고인구조사 분류를 시행했습니다. 많은 사람이 수용소행을 피했고대신 다른 곳으로 피신할 수 있었습니다.
김지윤
스텔러스(Stellers) 창업자
2017-12-22
1
;