1. Community
  2. arrow_forward_ios

News

Tags
Search
interview

"AI 속도 따라잡을 '새로운 몸'…창의적 컴퓨터가 미래 가른다"

인공지능(AI)이 두뇌라면 컴퓨터는 AI를 담은 물리적 실체다. 서진욱 서울대 컴퓨터연구소 소장은 11일 “미래의 컴퓨터는 스스로 사고하고 인간과 소통하는 ‘기계 이상의 존재’가 될 것”이라고 말했다. 두뇌의 속도에 따라 몸도 날렵해질 것이란 얘기다. 한국을 비롯해 미국, 중국, 유럽, 일본 등 주요 국가는 ‘창의적인 컴퓨터’를 누가 먼저 내놓느냐는 아키텍처 경쟁에 돌입했다. 인간의 두뇌처럼 적은 전력만으로도 중요한 정보에만 집중함으로써 효율을 높이는 ‘어텐션(attention·집중) 연산’을 비롯해 인간 행동을 모사해 로봇의 움직임을 만들어내는 ‘인간-물체 상호작용(HOI) 모델링’ 등이 주요 경쟁 영역이다. 서 소장을 비롯해 연구소의 핵심인 이재욱, 주한별, 원정담 서울대 컴퓨터공학과 교수는 “컴퓨터가 인류 난제에 도전하고 이를 다양한 영역으로 확장시킬 것”이라고 입을 모았다.◇인간의 두뇌 닮아가는 컴퓨터서 소장은 “생성형 AI 시대에서 나타난 가장 큰 문제는 기존 컴퓨터로는 초대규모 데이터를 처리하는 것이 점점 어려워지고 있다는 점”이라고 말했다. 몸이 두뇌 속도를 못 따라간다는 것이다. 전력을 너무 많이 소모하는 것도 해결해야 할 과제 중 하나다. 이를 위해 서울대 컴퓨터연구소는 AI 연산을 가속화하고 저전력·고효율·고확장 컴퓨팅 환경을 구축하기 위한 새로운 컴퓨터 아키텍처 개발에 주력하고 있다.예컨대 하드웨어(HW)와 소프트웨어(SW)가 최적의 성능을 낼 수 있도록 함께 설계하는 ‘협조 최적화’(co-design)가 대표적인 기술로 꼽힌다. 현재까지의 설계 방식은 ‘따로국밥’ 식이다. HW 엔지니어는 빠르고 안정적인 회로와 장치를 설계하는 데만 주력하고, SW 개발자는 그 위에서 돌아가는 프로그램을 별도로 개발한다. 하지만 AI에 최적화된 컴퓨터를 만들려면 이에 특화된 전용 회로를 설계해야 하고, SW도 AI 모델 구조를 HW가 더 잘 처리할 수 있도록 최적화해야 한다.서 소장은 “일반 컴퓨터가 평범한 자동차라면 서울대가 연구 중인 AI 연산 특화 컴퓨터는 레이싱카처럼 특정 작업을 훨씬 빠르고 효율적으로 수행하는 것이 목표”라고 설명했다.주요 연구로는 어텐션 연산을 빠르게 처리하는 전용 하드웨어 가속기 개발이 꼽힌다. 수조 개의 파라미터(매개변수)를 갖는 어텐션 연산은 딥러닝과 자연어 처리(NLP), 이미지 처리와 같은 AI 분야에서 핵심 역할을 한다. 어텐션 연산은 AI 모델이 데이터 중에서 어디에 집중할지, 무엇이 중요한지를 찾아내고 이에 집중하게 만든다. 책을 읽을 때 중요한 부분에 빨간펜으로 표시해가며 반복해 읽고 이해하는 것에 비유할 수 있다.이재욱 교수는 “어텐션 연산에 최적화된 칩으로 가속기를 만들었고, 측정 결과 연산량과 전력 소비를 기존 컴퓨팅의 절반 수준으로 줄이면서도 정확도를 유지했다”고 말했다. 어텐션 연산은 AI 연구와 개발에서 핵심적인 기술로 자리 잡는 추세다. 구글의 BERT, 마이크로소프트의 터닝 NLG, 페이스북의 RoBERTa, 삼성전자의 스마트폰 음성 인식 기술이 어텐션 연산의 대표 사례다.◇주목받는 로봇 학습 컴퓨팅서울대 컴퓨터연구소가 주목한 또 다른 차세대 연구는 ‘휴먼 AI’다. 서 소장은 “이 연구에는 컴퓨터 비전, 머신러닝, 3차원(3D) 모델링 등이 유기적으로 융합된다”며 “인간의 외형, 동작, 의류, 의사소통, 물체와의 상호작용을 AI가 정밀하게 이해하고 사실적으로 재현할 수 있을 것”이라고 설명했다. 주한별 교수는 연구소 내 연구시설인 ‘패러덱스(pardex)’에서 인간의 움직임을 여러 대의 카메라로 촬영해 인간 동작을 모사하는 AI 모델을 개발하고 이를 로봇으로 재현하는 기술을 연구하고 있다.이 과정에서 강조되는 기술이 HOI 모델링이다. 주 교수는 “HOI 모델링과 70대 이상의 카메라를 활용한 멀티센서 기반 3D 데이터 수집 시스템을 통해 고품질 학습 데이터를 확보하고 있다”며 “AI의 표현력과 적응력을 끌어올릴 것”이라고 말했다. HOI 모델링이 고도화되면 스마트 가전과 홈 오토메이션 분야에서 획기적인 변화가 일어날 것으로 예상된다.HOI 모델링이 적용된 AI는 사람의 동작을 보다 정교하게 이해해 스마트홈 기기가 사용자 행동을 예측하고 자동으로 작동할 수 있다. 사용자가 컵을 집으면 AI가 이를 감지해 정수기에서 물을 채우거나 요리를 시작하면 오븐을 적절한 온도로 설정하는 식이다. 로보틱스 및 스마트 제조 분야, 자율주행과 스마트 모빌리티 등 산업 현장에도 다양하게 적용할 수 있다. 주 교수는 “HOI 모델링을 적용한 협업 로봇은 작업자가 어떤 도구를 사용하려 하는지 인식하고 필요한 도구를 전달하거나 작업의 다음 단계를 예측해 준비한다”고 예를 들었다.◇수백 개 전신 근육도 디지털로 구현인간의 행동을 모방하는 ‘로봇 학습’은 휴머노이드 완성을 위한 필수 기술로 꼽힌다. 불과 몇 년 전까지만 해도 로봇 행동 모델은 코딩에 의존해 왔다. 정해진 대본에 따라 움직이는 배우에 비유할 수 있다. 하지만 인간처럼 미세한 움직임을 로봇으로 구현하려면 아주 사소한 행동 하나라도 구현할 수 있어야 하는데 이를 위해선 로봇이 스스로 행동을 배우도록 하는 것이 핵심이다.주 교수는 “로봇 학습은 동작 모사를 넘어 사람의 복잡한 신체 움직임과 물체를 다루는 방식까지 정밀하게 학습한다”며 “AI 기반 로봇이 실제 환경에서 사람의 역할을 대체하거나 보조할 능력을 갖추도록 하는 데 집중하고 있다”고 했다. 로봇이 인간이 처한 상황과 대화의 맥락까지 이해할 수 있다는 뜻이다. 향후 노동, 의료, 재난 대응, 노인 돌봄 등의 분야에서 큰 사회적 파급력을 가질 것으로 기대된다.근골격 디지털 트윈 모델링 및 시뮬레이션 기술도 컴퓨터연구소가 주목하는 차세대 연구 분야다. 정밀 의료와 헬스케어 분야에 특화된 기술로 인간 신체를 디지털 트윈으로 구현하는 것이 목표다....
포스트 대표 이미지

이재진 교수 연구진 창업기업 모레, '최강 한국어 성능' 갖춘 102B 오픈 소스 모델 공개..."GPT-4o·큐원2 모두 능가"

이재진 교수 연구진이 창업한 인공지능(AI) 인프라 솔루션 전문 모레(MOREH, 대표 조강원)는 자체 개발 한국어 파운데이션 대형언어모델(LLM) ‘라마3-모티프-102B(Llama-3-Motif-102B)'를 허깅페이스에 오픈 소스로 공개한다고 3일 밝혔다.​모델 명칭에서도 알 수 있듯 '라마3.0 70B' 모델을 기반으로 한다. 1020억개로 매개변수를 대폭 확대한 만큼 새로운 파운데이션 모델로 볼 수 있으며, 특히 '한국어 답변 성능 강화'에 초점을 맞췄다고 전했다. ​국내 모델 전부가 매개변수를 밝히지는 않았기 때문에 공식적으로 비교할 수는 없지만, 국내 모델 중 가장 큰 모델일 것이라고 밝혔다. 업계에서는 네이버의 '하이퍼클로바X'가 70~80B로 추정하고 있다.​모티프는 사전 훈련 언어모델과 지시 사항을 따르는 데 특화한 인스트럭트 모델 등 2가지 버전으로 공개됐다. ​임정환 모레 AI 디렉터는 "모델 개발 목표는 크게 세개의 프로세스로 구성됐다"라고 밝혔다.​우선 "기존 모델(라마)이 커버하는 스펙트럼 안에서 성능을 극대화하는 경우로, 이는 오픈 LLM 리더보드 1위를 통해 이미 달성한 바 있다"라고 말했다.​실제 모레는 올해 초 영어 LLM 'MoMo-70B'을 선보여 허깅페이스의 글로벌 ‘오픈 LLM 리더보드’에서 77.29점을 기록, 세계 1위를 기록한 바 있다. 당시에는 모델 개발 착수에서 1위 달성까지 단 3개월 만에 거둔 성과라고 설명했다.​임정환 디렉터는 "이런 개발 과정에서 얻은 노하우를 바탕으로 더 복잡한 문장(depth)을 학습하고, 대화에서 유려한 표현(width)을 만들어내는 모티프를  완성할 수 있었다"라며 "이는 두번째 프로세스인 '기존 모델 이상의 성과를 만들어 내는 것'에 해당한다"라고 전했다. ​이어 "라마3 70B는 한국어 성능이 어느 정도 갖춰진 것은 사실이지만, 영어에는 훨씬 못 미치는 게 사실"이라며 "한국어 성능을 최대로 끌어올린 것이 이번 오픈 소스 모델의 최종 목표"라고 말했다.​​2024년 12월 3일 기준 KMMLU 벤치마크 성능 비교표다. KMMLU는 기존 평가에 활용되는 문항을 단순히 한국어로 번역한 것이 아니라 인문학, 사회학, 과학-기술 등 45개 분야에서 전문가 수준의 지식을 묻는 3만5030개 문항으로 구성돼 있다.(사진=모레)​실제 한국판 AI 평가 체계인 ‘KMMLU’ 벤치마크에서 모티프는 64.74점으로 1위를 차지했다. 이는 기반 모델인 라마 3 70B의 54.5점을 10점이상 뛰어넘은 결과다.​또 오픈AI의 'GPT-4o(64.11점)'와 오픈 소스 최강으로 알려진 알리바바의 '큐원2(64.1)'까지 넘어섰다.​LG AI연구원이나 네이버, 업스테이지 등의 모델보다 뛰어난 한국어 벤치마크 점수를 기록했다.​이런 성능은 1870억 토큰에 달하는 방대한 양의 한국어 학습량과 독자적인 학습 기법을 동원했다는 것으로 설명했다. 웹상에서 수집 가능한 글뿐만 아니라, 공개된 전문 분야 문서(국내 특허 및 연구 보고서 등)를 학습 데이터로 활용했다. 또 국내 최대 규모 한국어 정제 데이터를 확보해 학습에 포함했다.​무엇보다 AI 모델 개발을 위한 최적의 인프라와 AI 플랫폼 기술을 자체 개발해 보유하고 있기 때문이라고 전했다. 모레의 ‘모아이(MoAI)’ 플랫폼은 고도의 병렬화 처리 기법을 통해 LLM을 효율적으로 개발하고 학습할 수 있도록 돕는다.​실제로 모레는 GPU 가상화 기술 등 소프트웨어 기술로 글로벌 반도체 기업 텐스토렌트와 협업을 진행 중이다. 이는 엔비디아의 GPU와 쿠다 소프트웨어 독점 구조를 넘어서는 것을 목표로 한다. ​추론에 집중하는 다른 후발주자들과는 달리, 텐스토렌트 NPU와 모레 SW를 결합한 AI 데이터센터 솔루션은 추론뿐만 아니라 파운데이션 모델 학습까지 폭넓게 사용할 수 있다고 강조했다. 이미 상당한 개발을 진행, 2025년 상반기 중에 상용화 및 출시할 예정이라고 밝혔다. ​임정환 AI 디렉터는 "이처럼 모레는 글로벌 빅테크와의 경쟁에 나서고 있다"라고 강조했다.​또 "모델 개발 측면에서 세번째이자 최종 목표는 다른 모델을 기반으로 하는 것이 아니라 처음부터 완전한 한국형 파운데이션 LLM을 만들어내는 것"이라고 말했다. ​이를 가속화하기 위해 자회사 설립도 계획 중이다. 특히 '멀티모달모델 개발'도 주요 목표 중 하나라고 전했다. 파운데이션 모델의 경우 작은 규모부터 시작해 점차적으로 키워나갈 예정이다. 때문에 '소형' 매개변수 모델도 충분히 가능성 있는 미래라고 전했다. 의료, 법률, 금융 등 전문 영역에 특화한 LLM 개발도 목표다.​조강원 모레 대표는 "고성능 LLM을 누구나 활용할 수 있도록 오픈 소스로 공개하는 것은 무엇보다 국내 AI 생태계가 보다 발전적인 방향으로 성장, 소버린 AI에 기여하기 위함이다"라며 “국내 IT 기업이 LLM을 오픈 소스로 공개하는 매우 이례적인 사례인 만큼 많은 기업들이 적극 활용해주시면 좋겠다”라고 말했다. ​한편, 모레는 인재 채용에도 적극 나서고 있다. "글로벌 빅테크 수준의 파운데이션 모델을 갖추는 여정에 많은 관심을 부탁한다"라고 전했다. ​...
포스트 대표 이미지