![]() |
27일 카카오는 자체 개발 언어모델 '카나나(Kanana)'의 연구 성과를 담은 테크니컬 리포트를 아카이브(ArXiv)에 공개했다. 이와 함께 언어모델 라인업 중 국내 AI 생태계 활성화를 위해 '카나나 나노(Kanana Nano) 2.1B' 모델을 오픈소스로 깃허브(GitHub)에 배포했다.
무료로 제공하는 것은 '카나나 나노 2.1B'의 베이스 모델과, 인스트럭트(Instruct) 모델, 임베딩(Embedding) 모델이 오픈소스 커뮤니티인 깃허브를 통해 제공된다.
'카나나 나노 2.1B'는 연구자와 개발자가 활용하기 적절한 크기의 모델이자 온디바이스(On-device) 환경에서도 활용 가능한 고성능 경량 모델이다. 비교적 작은 규모임에도 유사한 크기의 글로벌 모델에 견줄 만한 성능을 자랑한다. 한국어와 영어 처리 능력에서 뛰어난 결과를 보여준다. 카카오는 연구자와 개발자들이 해당 모델을 토대로 다양한 응용을 시도할 수 있도록 모델 업데이트를 지속 지원할 계획이다.
![]() |
이날 카카오의 초거대 언어모델 '카나나 플래그(Kanana Flag)'는가 지난해 말 학습을 완료했다고도 밝혔다. 카카오는 지난해 10월 개발자 컨퍼런스 'if(kakaoAI)2024'에서 공개한'카나나 언어모델'의 전체 라인업(카나나 플래그, 에센스, 나노)를 모두 구축했다.
카나나 플래그는 글로벌 최고 수준의 한국어·영어 성능을 달성한 모델이다. 한국어 성능을 평가하는 'LogicKor', 'KMMLU' 벤치마크에서 타 모델을 압도하는 처리 능력을 입증했다. 영어 성능을 평가하는 'MT-bench', 'MMLU' 벤치마크에서는 경쟁 모델과 유사한 성과를 기록했다. 또 학습 자원 최적화를 통해 유사 사이즈의 모델 대비 50% 이상 비용을 절감하며, SOTA(State-of-the-Art) 수준의 효율성과 성능을 동시에 구현해냈다.
![]() |
카카오는 향후 카나나 모델에 강화 학습(Reinforcement Learning)과 연속 학습(Continual Learning) 기반의 최신 기술을 접목해 추론, 수학,코딩 능력을 강화하고 정렬(Alignment) 기술을 고도화해 사용자 요청의 수행 정확도를 높일 계획이다.
김병학 카카오 카나나 성과리더는 "모델 최적화와 경량화 기술을 바탕으로 라마, 젬마 등 글로벌 AI 모델과 견줄 수 있는 고성능의 자체 언어모델 라인업을 효율적으로 확보하게 됐다"면서 "이번 오픈소스 공개를 통해 국내 AI 생태계 활성화에 기여할 수 있을 것으로 기대한다"고 말했다.