1. Community
  2. arrow_forward_ios

News

Tags
Search
research

이재진 교수 연구팀, 고성능 한국어 LLM 개발

천문학적 비용을 들이지 않고 고성능 한국어 '거대 언어 모델(LLM)’을 개발할 수 있다는 점이 입증됐다. LLM은 방대한 양의 텍스트 데이터를 학습해 인간 언어를 이해하고 생성하는 인공지능(AI) 모델이다. 이재진 서울대 데이터사이언스대학원 교수 연구팀이 영어 기반 언어 모델인 ‘라마(Llama)’를 개량해 한국어에 특화된 언어 모델인 ‘Llama-Thunder-LLM’, 한국어 전용 토크나이저 ‘Thunder-Tok’, 한국어 LLM 성능을 객관적으로 평가하는 ‘Thunder-LLM 한국어 벤치마크’를 개발하였다. 토크나이저는 문장을 언어 모델이 이해할 수 있는 단위인 ‘토큰’으로 쪼개는 도구이고 벤치마크는 특정 기준과 비교해 성능을 측정하고 평가하는 도구다. 한국어에 특화된 LLM을 만들려면 개발에 막대한 비용이 든다. LLM 구축을 위한 데이터가 한정적이라는 한계도 있다. LLM이 대기업과 해외 빅테크 기업 중심으로 개발돼온 이유다. 중소 연구기관이나 대학에서는 LLM 연구개발을 하기 어렵다. 연구팀은 데이터 수집부터 사후 학습까지 언어 모델 학습의 모든 단계를 자체 진행해 중국 LLM ‘딥시크’처럼 제한된 자원으로 고성능 언어 모델을 구축할 수 있다는 점을 입증했다. Llama-Thunder-LLM은 3TB(테라바이트, 1TB=1024GB) 크기의 한국어 웹 데이터를 수집·전처리한 다음 라마 모델에 연속 학습과 사후 학습 등의 개량 기법을 적용한 한국어 특화 LLM이다. 연속 학습은 기존 모델에 새로운 데이터를 추가로 학습시켜 능력을 확장하는 과정이고 사후 학습은 사용자의 질문·응답 등으로 추가 미세조정하는 학습 과정이다. 한국어의 문법적 특성을 반영한 토크나이저 Thunder-Tok은 기존 라마 토크나이저 대비 토큰 수를 약 44% 절약해 추론 속도 및 학습 효율성을 높였다. 토큰 수가 줄면 AI 모델 운영 비용이 감소한다. 연구팀이 자체 개발한 ‘한국어 평가용 데이터셋’을 포함한 Thunder-LLM 한국어 벤치마크는 한국어 LLM 성능을 객관적이고 체계적으로 평가할 수 있는 기반을 제공한다.​이재진 교수는 “이번 연구는 학계도 자주적인 LLM 개발이 가능하다는 점을 입증했고 국내 소버린 AI(자국 AI)에 기여한 의미 있는 결과”라며 “한국어 기반 LLM 및 토크나이저, 벤치마크 데이터셋을 온라인에 공개하고 개발 과정 또한 상세히 기술해 누구나 후속 및 재현 연구에 활용할 수 있도록 했다”고 말했다. 연구 성과는 ‘초거대 AI모델 및 플랫폼 최적화 센터’ 웹페이지(https://champ.snu.ac.kr/resource)에 공개됐다. ※ 출처: 동아사이언스, 한국판 '딥시크' 만들 수 있다…서울대 연구진 '고성능 한국어 LLM' 개발​...
포스트 대표 이미지

김선 교수 연구실, 세계적 AI 바이오인포매틱스 학회 ISMB 2025에 논문 두 편 동시 게재 성과

서울대학교 컴퓨터공학부 김선 교수 연구실 및 (주)아이겐드럭 소속 방동민 연구원이 공동 제1저자로 참여한 연구 논문 두 편이 오는 7월 20일 영국리버풀에서 개최되는 세계 최고 권위의 AI 바이오인포매틱스 학회 ISMB/ECCB 2025에 동시 게재되는 영예를 안았다. ISMB 학회는 매년 전세계에서 50여편만 선정하기 때문에 2편의 논문이 한해에 게재되는 일은 매우 드문 성과이다.두 논문의 제목은 각각 "ADME-Drug-Likeness: Enriching Molecular Foundation Models via Pharmacokinetics-Guided Multi-Task Learning for Drug-likeness Prediction" (주저자: 방동민 25년 8월 박사 졸업예정) 과 "MixingDTA: Improved Drug-Target Affinity Prediction by Extending Mixup with Guilt-By-Association" (주저자: 김영오 25년 2월 석사졸업)으로, 모두 AI 기반 약물 개발 연구에서 획기적인 기술적 발전을 제시한 것으로 평가받고 있다. ADME-Drug-Likeness 논문은 화합물의 약동학적 데이터(ADME)에 연속적 멀티태스크 러닝기법을 활용하여 약물 유사도를 정의하는 최초의 인공기술이며 생물의학지식정렬및 단일 클래스 기반 경계최적화기법으로약물유사도를정의하는최초의 인공기술이고, MixingDTA 논문은 약물과 타겟단백질 결합력 예측력 향상을 위해 새로운 데이터증강 기법을 개발한 연구이다. ​김선 교수 연구팀의 이번 성과는 서울대 컴퓨터공학부의 AI 및 바이오인포매틱스 연구 역량을 다시 한번 세계적으로 입증하는 계기가 될 것으로 기대된다....
포스트 대표 이미지

서울대 학생 공동창업 AI 스타트업 에임인텔리전스, 세계 최정상 AI 학회서 논문 4편 동시 발표

서울대 학생 공동창업 '에임인텔리전스', ICML 및 ACL 2025 논문 4편 채택AI 모델의 안전성, 보안 취약점 분석 및 방어 기술 등 핵심 문제 해결 기여에임 연구 인턴 1기(대부분 학부생), 참여 3팀 전원 최정상 학회 논문 채택 (100% 합격률)AI 안전과 보안 스타트업 에임인텔리전스가 세계 최고 권위의 AI 학회인 ICML과 ACL에 총 4편의 논문이 동시 채택되는 쾌거를 이뤘다. 설립 10개월 만의 성과로, AI 안전 및 보안 분야에서 국제적인 연구 역량을 입증했다는 평가다. 에임인텔리전스는 유상윤 대표(서울대 전기정보공학부 석사 졸업), 박하언(서울대 컴퓨터공학부), 김하늘(연세대), 이의준(가천대 졸업) 4인이 공동 창업한 스타트업이다.에임인텔리전스는 짧은 기간 안에 메타 Llama 혁신상 (국내 유일), 국내 및 글로벌 대기업 고객 확보, 구글 포 스타트업 AI 퍼스트 배치 등 주목할 만한 성과를 거두며 빠르게 성장하고 있다.이번에 발표된 주요 연구는 다음과 같다:ELITE (ICML 2025): 비전언어모델(VLM)의 유해성을 정밀 평가하는 체계로, AI 응답의 숨은 위험까지 탐지한다. (서울대, 연세대, KIST, 숙명여대 공동 연구)M2S (ACL 2025 Main Track): 다중 턴 LLM 공격을 효율적인 단일 턴으로 압축하는 프레임워크로, 적은 비용으로 높은 공격 효과를 보였다. (서울시립대, KAIST, 서울대, 연세대, KIST 공동 연구)SUDO (ACL 2025 Industry Track): AI 에이전트의 보안 취약성을 실증한 공격 프레임워크로, AI 에이전트의 거절 명령 우회 가능성을 입증했다. (서울대, 연세대 공동 연구)REPBEND (ACL 2025 Main Track): LLM 내부의 유해 표현을 교란시켜 안전성을 높이는 기법으로, 공격 성공률을 크게 낮추면서도 사용성은 유지했다. (서울대, 연세대, UMichigan, Stanford, Amazon AWS 공동 연구)특히, 이 중 3편의 논문(ELITE, M2S, SUDO)은 '에임인텔리전스 연구 인턴 1기' 프로그램에 참여한 인턴(대부분 학부생)들이 주도하여 얻은 성과다. 총 6명의 인턴이 3개 팀으로 연구를 진행, 모든 팀이 논문 채택에 성공률 100%의 성과로 뛰어난 역량을 입증했다.에임인텔리전스 박하언 CTO는 "서울대에서 경험이 큰 밑거름이 되었고, 에임 인턴십을 통해 인턴분들이 큰 성과를 내서 매우 자랑스럽다"며, "앞으로 이미지/비디오 생성, 에이전트, 로봇, 의료 및 국방 AI 등 다양한 분야의 AI 안전 기술을 지속적으로 연구 개발하겠다"고 밝혔다.[논문 정보]"ELITE: Enhanced Language-Image Toxicity Evaluation for Safety", Wonjun Lee*, Doehyeon Lee*, Eugene Choi, Sangyoon Yu, Ashkan Yousefpour, Haon Park, Bumsub Ham, Suhyun Kim, ICML 2025."SUDO: Screen-based Universal Detox2Tox Offense for Large Agent Models", Sejin Lee*, Jian Kim*, Haon Park, Ashkan Yousefpour, Sangyoon Yu, Min Song, ACL 2025 Industry Track. "One-Shot is Enough: Consolidating Multi-Turn Attacks into Efficient Single-Turn Prompts for LLMs", Junwoo Ha*, Hyunjun Kim*, Sangyoon Yu, Haon Park, Ashkan Yousefpour, Yuna Park, Suhyun Kim, ACL 2025. "Representation Bending for Large Language Model Safety", Ashkan Yousefpour*, Taeheon Kim*, Ryan S. Kwon, Seungbeen Lee, Wonje Jeung, Seungju Han, Alvin Wan†, Harrison Ngan, Youngjae Yu, R Jonghyun Choi, ACL 2025.​...
포스트 대표 이미지

김건희 교수 연구팀, 자연어처리 최우수학회 NAACL 2025 음성인식 부분 최고 논문상 수상

AI가 사람처럼 말버릇, 추임새, 끼어들기 등 대화 행동을 이해하고 재현하는 음성 대화 기술이 개발되었다.연구팀은 세계 최대 규모의 대화 행동 기반 음성 데이터셋인 Behavior-SD를 구축하고, 이를 바탕으로 자연스러운 AI 음성 대화 모델 BeDLM을 제안했다.해당 기술은 팟캐스트 제작, 상담 AI, 개인화 음성비서 등 사람과 상호작용이 중요한 다양한 분야에 활용 가능성이 높다.사람들이 대화를 할 때는 정보를 주고 받는 것 외에도 “음…”, “그니까…” 같은 말버릇을 쓰고, 적절한 순간에 “맞아”, “응” 같은 추임새를 넣거나, 때로는 상대의 말을 끊기도 하면서 소통한다. 하지만 기존 인공지능 대화 시스템은 이런 미묘한 말버릇이나 대화 습관을 반영하지 못해, 말투가 부자연스럽고 기계적으로 느껴질 수밖에 없었다.김건희 교수 연구팀(이세훈 박사과정, 김강욱 학사과정)은 이러한 문제를 해결하기 위해, 사람의 말버릇과 추임새(backchannel), 끼어들기(interruption), 감정 표현 등 대화 행동을 정밀하게 반영한 음성 데이터셋과 대화 생성 기술을 함께 제안하였다.연구팀은 먼저 10만 개 이상, 총 2천 시간 분량의 대규모 대화 행동 기반 음성 데이터셋인 Behavior-SD를 구축했다. 이 데이터는 단순한 문장이 아니라, 각 화자의 말투와 말버릇이 행동 단위로 주석 처리되어 있어, 실제 사람 간의 자연스러운 대화를 정밀하게 구현할 수 있도록 설계되었다.이 데이터를 바탕으로 개발된 행동 기반 대화 생성 모델(BeDLM)은, 대화 상황과 화자의 대화 행동 패턴을 입력으로 받아, 사람 간 대화에 가까운 음성 대화를 쉽게 생성할 수 있는 AI 기술을 구현했다. 대화 행동을 반영하여 말버릇을 자연스럽게 끼워 넣는다. 이 기술은 생동감 있는 팟캐스트 콘텐츠 제작, 개인 맞춤형 음성 비서, 정서적 반응이 필요한 상담 AI 등, 자연스러운 말하기와 듣기가 중요한 응용 분야에서 활용도가 높다.이 연구는 세계 최고 수준의 자연어처리 학회인 NAACL 2025에서 구두로 발표되었으며, 음성 처리 및 음성 언어 이해(Speech Processing and Spoken Language Understanding) 분야에서 최우수 논문에게 수여되는 Senior Area Chair Award를 수상했다. Senior Area Chair Award 는 자연어처리 핵심 9개 분야에서 각 최우수 논문 1편씩을 선정하였다.이 연구에서 개발된 Behavior-SD 데이터셋과 코드는 모두 오픈소스로 공개되어, 국내외 연구자 누구나 자유롭게 활용할 수 있다. 관련 기술의 확산과 후속 연구를 촉진할 수 있을 것으로 기대된다.[연구지원]본 연구는 정보통신기획평가원(IITP)의 ICT R&D 사업(No. RS-2022-II220156, No. RS-2019-II191082), ITRC 지원사업(No. IITP-2025-RS-2024-00437633), 서울대학교 글로벌 우수연구센터 사업, NRF 기초연구사업(RS-2023-00274280)의 지원을 받아 수행되었다.[논문 정보]​“Behavior-SD: Behaviorally Aware Spoken Dialogue Generation with Large Language Models”, Sehun Lee*, Kang-wook Kim*, Gunhee Kim, 2025 Annual Conference of the Nations of the Americas Chapter of the Association for Computational Linguistics (NAACL 2025)...
포스트 대표 이미지
포스트 대표 이미지

컴퓨터분야 쉬운전문용어를 보급한다. 제정위원회 위원장 이광근 교수

"울타리없는 세계경쟁에서 우리 학술이 일류로 앞서가는 장기전 비밀병기요?쉬운 전문용어입니다."이광근 교수가 위원장으로 있는 한국정보과학회 쉬운전문용어 제정위원회가 2024년 1월부터 조직되어 활동하고 있다. 한국정보과학회 산하 각 분야 연구회 소속 12명의 교수들과 국어학 및 국립국어원 전문가가 참여하고 있다. "억지 순우리말? 아닙니다. 소리뿐인 한문투? 아닙니다. 쉬운말 입니다.""외부로 글로벌하게 영어로 소통하기는 당연하고요. 내부로는 우리의 인력과 지력의 저변을 두텁게 하는데 모국어 쉬운말로 소통하기는 당연합니다. 요즘 k-컬쳐의 힘이 어디에서 오는지를 보면 당연합니다.""쉬운전문용어로 저변 인구를 넓히고 지력을 축적한 문화권이 늘 혁신을 이끌고 선두로 나섭니다. 학술이나 문화의 역사가 늘 그런식이었죠." 위원회 결과물들은 포털 https://easyword.kr에 모이고 있다. 지금까지 제안/발굴된 1100여개 쉬운 전문용어들이 모여있다. 이 포탈에는 누구나 쉬운전문용어를 찾고 참여하고 제안할 수 있다. https://easyword.kr/why에는 이런 노력의 배경, 쉬운전문용어 만들때 원칙, 쓰이는 용도가 안내되어 있다. 위원회 취지를 여기 인용하면 다음과 같다:전문지식이 전문 학자들에만 머문다면 그 분야는 그렇게 쇠퇴할 수 있다. 저변이 좁아지고 깊은 공부를 달성하는 인구는 그만큼 쪼그라들 수 있다. 전문지식이 보다 많은 사람들에게 널리 퍼진다면, 그래서 더 발전할 힘이 많이 모이는 활기찬 선순환이 만들어진다면. 그러면 그 분야를 밀어올리는 힘은 나날이 커질 수 있다. 더 많은 사람들이 더 나은 성과를 위한 문제제기와 답안제안에 참여할 수 있고, 전문가의 성과는 더 널리 이해되고 더 점검받을 수 있게된다. 그러므로 쉬운 전문용어가 어떨까. 전문개념의 핵심을 쉽게 전달해주는 전문용어. 학술은 학술의 언어를 --우리로서는 소리로만 읽을 원어나 한문을-- 사용해야만 정확하고 정밀하고 경제적일까? 아무리 정교한 전문지식이라도 쉬운 일상어로 짧고 정밀하게 전달될 수 있다. 시에서 평범한 언어로 밀도 있게 전달되는 정밀한 느낌을 겪으며 짐작되는 바이다. 쉬운 전문용어가 활발히 만들어지고 테스트되는 생태계. 이것이 울타리없는 세계경쟁에서 우리를 깊고 높게 키워줄 비옥한 토양이다. 시끌벅적 쉬운말로 하는 학술의 재미는 말할것도 없다....
포스트 대표 이미지

박재식 교수 연구진, 빠르고 정확한 드래그 기반 이미지 에디팅 기술 개발로 세계 선도

1초 내외로 실행되는 feedforward 방식의 초고속 드래그 기반 이미지 편집 파이프라인 개발최신 드래그 기반 이미지 편집 기술 대비 메모리 사용량 5배 절감 및 처리 속도 75배 향상실생활 비디오 데이터로 학습된 두 종류의 생성모델 (GAN/Diffusion)의 조합을 통해, 자연스럽고 사실적인 이미지 편집 구현​박재식 교수 연구진이 실시간 수준의 드래그 기반 이미지 편집을 가능하게 하는 InstantDrag 기술을 개발하였다. 드래그 기반 이미지 에디팅 (drag-based image editing)은 사용자가 이미지의 특정 부분을 드래그하면, 생길 수 있는 움직임을 고려하여 자연스럽게 이미지를 편집하는 기술이다. 기존의 드래그 기반 이미지 편집 기술들은 이미지 인버전 (inversion)과 이미지 별 최적화 (per-image optimization) 방식에 의존하여 편집 시간이 길고 많은 계산 자원을 필요로 했다. 또한 움직일 수 있는 영역을 지정하는 마스크 (movable region mask)와 텍스트 프롬프트와 같은 추가 입력이 필요해 편의성이 떨어졌다. 연구진은 이러한 문제를 해결하기 위해 최적화 과정이 필요 없는 feedforward 방식의 편집 파이프라인을 제안하였다. 이미지 편집 과정을 움직임 생성 (motion generation)과 움직임 기반 이미지 생성 (motion-conditioned image generation) 두 단계로 분리하는 새로운 접근법을 도입했으며, 사용자 편의성 (interactivity)을 극대화하기 위해 원본 이미지와 드래그 명령어만으로 동작하는 알고리즘을 개발했다. InstantDrag의 핵심 구성 요소는 다음과 같은 두 개의 네트워크이다:FlowGen: 적대적 생성 신경망 (GAN) 기반으로, 사용자의 드래그 입력을 정교한 움직임 정보(dense optical flow)로 변환FlowDiffusion: 확산 모델 (Diffusion) 기반으로, 입력 이미지와 생성된 움직임 정보를 바탕으로 고품질 이미지 편집 수행실제 비디오 데이터로 학습된 위 두 네트워크의 결합으로, InstantDrag 파이프라인은 추가적인 마스크나 텍스트 프롬프트 입력 없이도 1초 이내에 자연스러운 이미지 편집이 가능하다. 얼굴 영상 데이터셋과 일반적인 장면들에서의 실험을 통해, 우수한 편집 품질을 유지하면서도 기존 기술 대비 메모리 사용량은 5배 감소하고 처리 속도는 75배 향상됨을 입증했다. 본 연구는 컴퓨터 그래픽스 분야 최우수 학술대회 중 하나인 SIGGRAPH Asia 2024에 발표될 예정이다.​"InstantDrag: Improving Interactivity in Drag-based Image Editing", Joonghyuk Shin, Daehyeon Choi, Jaesik Park, SIGGRAPH Asia Conference Papers 2024....
포스트 대표 이미지

강유 교수 연구진, 다양화된 개인화 순차 추천 기술 개발

​강유 교수 연구진이 다양성을 고려한 개인화 순차 추천 기술을 개발하였다. 추천 다양성이란 플랫폼에 존재하는 상품들을 소외되는 항목 없이 골고루 사용자들에게 추천하는 것을 의미한다. 추천에서 다양성을 높이는 것은 온라인 상업 플랫폼의 수익을 극대화하기 위한 핵심 요소로 최근 다양화 추천과 관련된 연구에 대한 관심도가 높아지고 있다.본 연구에서는 사용자간 순서를 고려한 다양화 추천 기술인 SAPID를 제안하였다. 기존 다양화 추천에 대한 연구는 모든 사용자에 대한 정보를 사전에 알고 있을 때 각 사용자들이 어떤 상품을 얼마나 좋아하는지를 취합하여 선호도가 비슷한 상품 중 다른 사용자들이 좋아하지 않는 아이템을 추천하는 방식으로 다양성을 높이는 방향으로 접근해왔다. 그러나 현실 시나리오에서는 미래의 사용자가 어떤 상품을 선호할지 사전에 알 수 없는 문제가 있다. SAPID는 이를 극복하기 위해 이전 데이터를 바탕으로 미래의 상품별 수요를 예측하여 현재 어떤 상품을 추천해야 다양성이 높아질지 판단한다. 본 연구는 정헌재단의 학술 연구 지원을 받았으며, 연구 결과는 2025년 3월 데이터 마이닝 및 머신 러닝 학회인 WSDM2025에서 발표될 예정이다....
포스트 대표 이미지

주한별 교수 연구실, 과학기술정보통신부에서 2024년도 SW스타랩으로 선정

과학기술정보통신부에서 지원하는 2024년도 SW스타랩에 주한별 교수 연구실이 선정됨SW스타랩은 소프트웨어(SW) 분야 우수 기초·원천기술을 보유한 대학 연구실을 지원하는 사업임주한별 교수 연구실이 과학기술정보통신부에서 지원하는 2024년도 SW스타랩으로 선정되었다. SW스타랩은 과학기술정보통신부에서 소프트웨어(SW) 분야 우수 기초·원천기술을 보유한 대학 연구실을 지원하는 사업이다. SW스타랩​으로 선정된 연구실은 연구 성과에 따라 최장 8년 동안 안정적으로 연구할 수 있도록 지원을 받는다. 올해 공모에는 20개 대학 총 48개의 연구실이 신청(경쟁률 4.8:1)했으며, 고려대, 서울대, 포항공대, 한국과학기술원(KAIST), 울산과학기술원(UNIST) 등 5개 대학 총 10개의 연구실이 최종 선정됐다. 인공지능(AI) 분야에 선정된 주한별 교수 연구실에서는 ‘인간의 3차원 외형, 모션, 사회적 행동을 모방하는 생성형 디지털 휴먼 AI 모델 개발’이라는 주제로 연구를 진행한다.SW스타랩은 2015년부터 지난해까지 석사 474명, 박사 218명 등 총 778명의 고급인력을 배출했다. 지난해까지 최근 3년간 SCIE급 저널에 연간 60여편의 논문을 게재하고, (최)우수학술대회에서 연간 90여편의 논문을 발표하는 등 연구 성과를 창출했다. 특히 국제학술대회 최우수논문상 수상과 국가 연구개발 100선 다수 선정 등을 이뤘고, 깃허브 등을 통해 연평균 60여 건의 공개SW를 전 세계에 공유함으로써 국내 SW 연구 위상을 높였다.출처 :  1) https://www.edaily.co.kr/News/Read?newsId=02273046638986664&mediaCodeNo=257&OutLnkChk=Y           2) https://www.dt.co.kr/contents.html?article_no=2024081202109931081008&ref=naver...
포스트 대표 이미지

이재욱 교수 연구진, 메모리 효율적인 Any-Precision LLM 기술로 세계 선도

하나의 n-비트 대규모 언어모델(LLM)에 여러 정밀도의 모델(예: n, n-1, ..., 4, 3-비트)을 중첩하는 알고리즘 개발상황에 따라 동적으로 선택된 정밀도에 맞춰 LLM을 효율적으로 실행하는 소프트웨어 엔진 개발제한된 메모리에서 서로 다른 정확도-속도 상충관계를 갖는 멀티 모델들을 지원하여, LLM 기반 어플리케이션의 사용자 경험을 개선ICML 2024 Oral Presentation (최상위 1.5%) 논문 선정​이재욱 교수 연구진이 LLM 기반 어플리케이션의 사용자 경험을 획기적으로 향상시킬 수 있는 핵심기술을 개발하였다.​LLM을 운용할 때, 빠른 응답이 필요한 쿼리와 응답 시간이 크게 중요하지 않은 쿼리가 뒤섞여 들어올 수 있다. 예를 들어, 챗봇과 같은 대화형 응용 프로그램에서는 매우 빠른 응답이 필요하지만, 문서 분석과 같은 작업에서는 느린 응답도 허용되는 경우가 있다. 또한, 시스템의 부하에 따라 응답의 품질과 지연시간의 상충관계(tradeoff)를 조정하고자 할 수도 있다. 이렇게 다양한 응답 시간 요구사항을 가진 쿼리들을 효과적으로 처리하는 것은 사용자 경험을 개선하는 데 매우 중요하다. 이를 위해서는 여러 크기의 모델을 준비하고, 각 쿼리에 맞는 모델을 동적으로 선택해 사용하는 것이 유리하다. 그러나, 이러한 방법은 여러 버전의 모델을 저장하기 위한 메모리 사용량을 증가시킨다.​이 문제를 해결하기 위해 이재욱 교수 연구팀은 LLM에 특화된 임의 정밀도 양자화(any-precision quantization) 기술을 세계 최초로 개발했다. 제안한 기법은 마치 러시아의 마트료시카(Matryoshka) 인형처럼, n비트 모델에 그보다 낮은 정밀도를 가진 n-1, n-2, … 비트 모델을 중첩(overlay)하여 적은 메모리로 다양한 정밀도의 모델 운용을 가능하게 한다. 이 기술을 활용하면, n비트로 양자화된 모델 하나만 메모리에 저장해 두고, n비트 모델의 각 매개변수에서 최상위 비트의 일부만 사용하여 낮은 정밀도의 모델도 효과적으로 지원할 수 있다. 연구팀은 이러한 개념을 매개변수가 매우 많은 LLM에 쉽게 적용할 수 있도록, 재학습이 필요 없는 빠르고 가벼운 임의 정밀도 양자화 알고리즘을 고안했다. 또한, 이렇게 완성된 Any-Precision LLM을 효율적으로 실행할 수 있는 새로운 소프트웨어 엔진을 개발하여, 세계 최고 수준의 모델 성능 및 추론 속도를 달성했다.​이 연구는 LLM이 다양한 어플리케이션에서 높은 수준의 사용자 경험을 제공하는 데 핵심 기술로 활용될 것으로 기대된다. 해당 논문은 오는 7월에 개최되는 머신러닝 분야 최고 권위의 학회인 ICML 2024에서 발표될 예정이다. 특히 전체 제출 논문 중 최상위 1.5%만 선정되는 구두 발표(Oral Presentation) 세션에 채택되어 그 우수성을 인정받았다."Any-Precision LLM: Low-Cost Deployment of Multiple, Different-Sized LLMs​", Yeonhong Park, Jake Hyun, SangLyul Cho, Bonggeun Sim, Jae W. Lee, ICML 2024.​...
포스트 대표 이미지