Skip to main
카카오엔터프라이즈, ‘if(kakaoAI)2024’에서 클라우드-검색 분야 연구 성과 및 기술력 알려
카카오엔터프라이즈
2024-10-22
카카오엔터프라이즈가 22일 경기도 용인시 카카오 AI 캠퍼스에서 열리는 ‘이프카카오(if kakaoAI 2024)’ 참여한다. 회사는 개발자 컨퍼런스에서 클라우드 GPU, 비전 AI, 머신러닝, 검색증강생성(RAG) 등 다양한 주제로 발표를 진행한다.

카카오엔터프라이즈는 이번 이프카카오에서 총 4개의 기술 세션에 참여한다. 이번 기술 세션을 통해 카카오가 그룹 차원에서 선보이는 AI 기술과 AI 인프라의 근간이 되는 클라우드 기술력을 확인할 수 있다.

행사 첫날, 비전 AI 관련 서비스를 개발하는 김민주 매니저는 ‘미디어 및 AI 가속기를 탑재한 카카오클라우드의 비디오 인스턴스 활용기’를 주제로 발표를 진행했다. 해당 세션에서는 화상 회의, 실시간 중계, 라이브커머스 등 영상 스트리밍 데이터를 더욱 빠르고 효율적으로 처리할 수 있는 ‘미디어 가속 인스턴스’ 2종과 영상 내에서 인상착의 검색(미아, 치매 노인 찾기), 차량 번호 검색 및 경로 추적 등 AI 모델을 활용해 영상을 분석할 수 있는 ‘AI 가속 인스턴스’ 1종을 소개했다.

데이터 및 머신러닝 플랫폼 프로덕트 매니저(PM)를 맡고 있는 진은용 파트장은 카카오클라우드의 머신러닝 운영(MLOps) 플랫폼을 소개하고 이를 활용해 로드밸런서 액세스 로그 기반의 트래픽 예측 머신러닝 모델을 만드는 예제를 시연했다. MLOps는 기계학습(Machine Learning)과 운영(Operation)의 합성어로 머신러닝 모델의 개발, 배포, 운영을 효율적이고 안정적으로 관리하는 프레임워크다.

AI 기반으로 검색 모델을 고도화하고 있는 김도윤 검색CIC RAG모델링TF장은 거대언어모델(LLM) 응답의 신뢰도를 높이기 위한 방법론인 RAG를 효과적으로 구현하기 위해 필요한 구조 및 데이터 방식을 소개하고 이를 구현한 데모를 시연했다. RAG는 LLM이 검색 결과를 바탕으로 사용자의 질문에 답변하도록 유도해 할루시네이션 현상을 줄이는 기술이다.

행사 둘째 날에는 국내에서 2명 뿐인 ‘리눅스 커널 네트워킹 스택 자동 멀티캐스트 터널링(AMT) 메인테이너’로 활동 중인 유태희 매니저가 ‘네트워크 인터페이스 카드(Network Interface Card, 이하 NIC)와 GPU 간 제로카피’를 주제로 발표할 예정이다.

카카오엔터프라이즈 관계자는 “카카오엔터프라이즈는 카카오 그룹의 뉴 이니셔티브(신성장동력)의 한 축을 담당하며 카카오클라우드를 필두로 AI 원천 기술의 근간을 다지고 있다”며 “앞으로도 카카오엔터프라이즈는 클라우드 및 검색 분야 기술 고도화를 위해 연구 개발한 다양한 기술과 방법론을 공유하고 국내 IT 기술 발전에 기여할 것”이라고 말했다.
;