Skip to main
편향성
데이터 라벨링 오류, 그냥 지나치기엔 너무나 위험합니다
*이 글은 외부 필자인 권정민님의 기고입니다. 여러 사람이 나온 사진을 저장하면, 자동으로 누가 나왔는지 찾아서 분류해 주는 기능. 비교적 최근에 나온 스마트폰을 사용하신다면, 한 번쯤 경험해 보시지 않았을까 싶은데요. 간혹 그 사진이 잘못 분류되거나 다른 사람 이름이 달린 모습도 보셨을 겁니다. 특히 주소록에 해당 사람의 프로필 사진을 연예인이나 캐릭터 이미지로 등록한 경우에 종종 발생합니다. 주소록에 넣은 사람 이름이 일종의 '라벨' 역할을 한 겁니다. 이렇게 개인 스마트폰이라는 작은 시스템에서도 데이터 라벨링 오류가 심심치 않게 발생합니다. 물론 혼자만 보는 시스템에서 생긴 일이니까 작은 해프닝이라고 넘어가도 괜찮지만요. 많은 사람이 자주 사용하는 인공지능 시스템에서 이런 오류가 발생한다면 어떨까요? 라벨링 오류는 기존에도 문제였지만, 요즘처럼 인공지능이 대두되는 시점에선 더욱 큰 문제를 야기할 수 있습니다. 앞서 살펴봤다시피 데이터 라벨링은 기계 학습 및 인공 지능 시스템의 성능에 중요한 역할을 합니다. 시스템은 데이터 라벨링을 통해 사람이 이해할 수 있는 형태의 데이터 기반으로 학습하고 판단합니다. (참조 - 인공지능 시대에 더욱 각광받을 '데이터 라벨러'의 명과 암) 데이터 라벨링은 사람(데이터 라벨러)이 직접 작업합니다.
권정민
데이터 과학자
2023-04-17
AI를 전적으로 신뢰하면 안 되는 이유
*이 글은 외부필자인 조정희님의 기고입니다. 사용자에게 딱 맞는 맞춤형으로 귀찮은 일을 처리해주는 서비스가 있었어요. 가격까지 저렴한 세상 좋은 완벽한 서비스에 보는 사람마다 칭찬이 자자했죠. 회사의 대표는 어쩌면 이 서비스가 회사를 크게 성장시킬 수 있는 서비스라고 확신하기까지 했어요. 하지만 안타깝게도 이 서비스는 출시된 지 하루도 채 지나지 않아 전설 속의 서비스로 묻히게 되었습니다. 마케팅이 부족해서 그랬을까요? 아니면 기술적인 결함이 발생한 것일까요? 놀랍게도 이 서비스를 만든 회사는 엄청난 대기업인 데다가 기술자만 무려 수만명이 집결된 IT기업이었습니다. 기술력도 좋고 자본도 풍부한 회사가 만든 서비스였는데 대체 왜 실패한 것일까요? 그건 바로 '공정성'이 결여되어 있는 서비스였기 때문입니다. 이 서비스는 2016년 마이크로소프트에서 만든 '테이(Tay)'라는 서비스였어요. (참조 - Microsoft's disastrous Tay experiment shows the hidden dangers of AI) 그런데 출시한 지 하루도 안 돼서 서비스를 중단해야만 했습니다. 사람들의 욕설과 편파성이 짙은 대화를 학습시키면서 인공지능이 이상한 답변을 했기 때문이에요. "너는 수많은 사람들의 학살을 지지하니?" "응, 난 정말로 지지해" 이런 말도 안 되는 답변들을 하면서 '테이' 서비스에 대한 비난이 쏟아지게 되었어요. 결국 테이 서비스는 시작한 지 하루도 채 되지 않아 종료를 해야만 했죠.
조정희
2022-01-06
AI 알고리듬 편향성 어떻게 극복할까
바야흐로 하반기 채용의 계절입니다. 요즘 취업준비생 입장에서 얼어붙은 고용시장을 더 부담스럽게 하는 '녀석'이 있는데요. 바로 채용과정에 도입하는 인공지능(AI) 솔루션입니다. 현재 롯데, SK, CJ 등 기업들이 서류전형 또는 면접단계서 이를 도입하고 있죠. AI는 채용 절차의 공정성과 효율성을 높이는 수단으로 주목받습니다. (참조 - AI는 누굴 뽑아야 하는지 알고 있다) AI 채용 솔루션은 면접관, 인사 전문가들이 특정 성향의 인물을 판단하는 방식을 학습하고요. 기업 내 고성과자 수천명의 데이터 학습, 행동유형 분석을 거쳐 평가에 활용합니다. 자기소개서 표절 여부 또는 성별‧출신 지역 노출 여부를 점검하는 데만 그치지 않고요. 직무적합성까지 판단하죠. 아직 보조 수단으로 활용되다보니 취업준비생 입장에선 양쪽 장단에 맞춰야 한단 부담도 있습니다. (구직 중이 아니라 다행이란 생각마저)
1
;