1. Community
  2. arrow_forward_ios

News

Tags
Search
all

원정담 교수 연구진, "NeurIPS MyoChallenge 2023" locomotion track 1위 기록

NeurlPS conference 2023 에서 열린 MyoChallenge 2023 에서 locomotion track 1위물리 기반 시뮬레이션 환경에서 다수의 근육을 갖춘 인간 모델을 효율적이고 안정적으로 원하는 방향으로 조종할 수 있도록 하는 제어 시스템 학습 알고리즘을 개발원정담 교수 연구실 박사과정생 박정남 학생(Team GaitNet)이 NeurIPS 2023에서 열린 MyoChallenge 2023 competition의 locomotion track 에서 1위를 차지하였다. MyoChallenge 2023 은 물리 기반 근골격 시뮬레이션 환경에서 주어진 목표들을 수행하도록 사람 모델의 근육을 제어하여야 하며, '목표의 달성 정도', '제어의 효율성' 등의 기준을 바탕으로 순위를 매긴다. 총 2개의 track(locomotion, manipulation) 으로 구성되어 있으며, locomotion track은 복잡한 지형 위에서 80개의 다리 근육을 제어하여, 움직이는 물체를 따라가거나 피하는 목표가 주어진다. 해당 목표를 성공적으로 수행하는 근육 제어기를 학습함으로써 실제 사람의 동작 매커니즘과 유사한 근육기반의 시뮬레이션에서 사람의 움직임에 대한 더 깊은 이해를 할 수 있다.원정담 교수 팀은 심층강화학습에 기반한 curriculum learning 을 제안하여, 빠르게 움직이는 물체를 쫓아가거나 그 물체를 피하는 목표를 수행하면서 균형을 유지할 수 있는 제어기를 학습하는 것에 성공하였다. 연구팀은 실제 인간 동작 데이터를 활용하여 기본 걷기 및 균형 잡기 기술을 학습시킨 후, 이를 바탕으로 보다 복잡하고 민첩한 동작을 습득하는 알고리즘을 제안하였다. 실제 사람의 근골격 모델을 바탕으로 하는 복잡한 시뮬레이션 환경에서 안정적면서 민첩한 제어에 성공함으로써, 사람의 동작과 근골격계 사이의 관계를 밝히는 연구에 큰 기여를 할 것으로 기대한다. ...
포스트 대표 이미지

송현오 교수 연구진, 데이터 효율적인 강화학습 및 대규모 데이터셋 분석 기술로 세계 선도

보상함수의 모델링 없이 사용자 선호 (preference) 데이터만으로 강화학습 에이전트 학습마인크래프트와 같은 대규모 게임에서 작동하는 강화학습 에이전트 개발대규모 데이터셋의 레이블 오류와 이상치 데이터를 식별하는 프레임워크 개발송현오 교수 연구진이 선호 정보를 직접적으로 최적화 하는 강화학습 알고리즘, 절차적 생성 환경을 위한 데이터 효율적인 계층적 강화학습 알고리즘, 그리고 일반적인 도메인에 적용가능한 대규모 데이터 분석 프레임워크를 개발하였다. 선호 데이터를 통한 강화학습 [1]: 기존의 강화학습 알고리즘은 잘 정의된 보상함수를 요구하기 때문에 현실 적용에 어려움이 있었다. 본 연구진은 대조학습 방법을 활용하여 보상함수 없이 인간의 선호 데이터만을 가지고 에이전트를 학습할 수 있는 강화학습 알고리즘을 제시하였다. 개발된 알고리즘은 기존의 보상함수를 활용하는 방법 대비 더 적은 학습 데이터로 더 우수한 성능을 달성하며, 보상함수 정의가 어려운 일반적인 환경에 적용 가능하다.대규모 게임에서 작동하는 강화학습 [2]: 본 연구진은 마인크래프트와 같이 다양한 시각적 변이가 존재하는 대규모 환경에서 효율적으로 작동하는 새로운 계층적 강화학습 에이전트을 개발하였다. 본 연구진은 대조학습 기법을 이용하여 에이전트의 시각 인코더가 하위 작업 계층구조의 내재된 정보를 스스로 학습하도록 설계하였다. 개발된 알고리즘은 Google DeepMind가 최근 발표한 강화학습 알고리즘인 DreamerV3에 비해 파라미터 수를 4%만 사용하면서 50%의 성능 향상을 보였다.대규모 데이터셋 분석 [3]: 인공신경망 학습에 활용되는 대규모 데이터셋은 레이블 오류 혹은 이상치와 같은 복합적인 문제를 지며, 이는 인공신경망의 학습 성능을 저하하는 주요 원인이다. 본 연구진은 데이터셋의 복합적인 문제를 효율적으로 탐지하는 데이터 관계 기반 그래프 알고리즘을 개발하였다. 제안하는 데이터 분석 프레임워크는 이미지,오디오,텍스트 등 일반적인 도메인에 적용 가능하며 수백만 크기의 대규모 데이터셋에도 효율적으로 적용 가능하다.해당 연구들은 머신러닝 최우수 학회인 NeurIPS 2023에 발표되었다.[1] "Direct Preference-based Policy Optimization without Reward Modeling", Gaon An*, Junhyeok Lee*, Xingdong Zuo, Norio Kosaka, Kyung-Min Kim, Hyun Oh Song, NeurIPS 2023[2] "Discovering Hierarchical Achievements in Reinforcement Learning via Contrastive Learning", Seungyong Moon, Junyoung Yeom, Bumsoo Park, Hyun Oh Song, NeurIPS 2023[3] "Neural Relation Graph: A Unified Framework for Identifying Label Noise and Outlier Data", Jang-Hyun Kim, Sangdoo Yun, Hyun Oh Song, NeurIPS 2023...
포스트 대표 이미지
포스트 대표 이미지

서울대 김현우 박사, 국제 최우수 AI 학회 EMNLP2023에서 국내 대학 연구자 최초로 논문상 수상

거대 언어모델을 활용하여 기호 기반 상식 그래프에 맥락을 더하는 방법론을 개발하여 세계 최초의 백만 단위 세계 최대 규모 고품질 일상 대화 데이터셋 SODA를 무료로 공개데이터셋 SODA는 다방면에서 기존 대화 데이터셋보다 품질이 훨씬 뛰어나, 이에 학습한 대화 모델은 기존모델들보다 더 자연스러운 답변 생성 가능김현우 박사가 서울대 박사과정 중 미국 시애틀의 AI2에 인턴을 수행하며 국제 협력 연구를 이끌었으며 졸업 후 AI2에서 박사후 연구원으로 취업하여 후속 연구 이어가는 중김현우 박사와 김건희 교수가 미국 시애틀 앨런 인공지능 연구소(Allen Institute for AI; AI2) 및 워싱턴 대학교(University of Washington)의 최예진 교수 등과 함께 진행한 연구가 국제 최우수 자연어처리 학술대회 EMNLP 2023에서 Outstanding Paper Award를 수상하였다. 국내 대학 연구진이 EMNLP에서 수상을 한 것은 이번이 최초다.기존 인공지능 대화 분야는 고질적으로 데이터 부족 문제에 시달려왔다. 왜냐하면 일상에서 이루어지는 대화들은 데이터로 기록되지 않는 경우가 대부분이기 때문이다. 설령, 문자 메세지나 이메일 같은 형태로 대화가 기록되더라도 여러 법적 제약들이 존재하기 때문에 이를 연구에 활용하기에는 어려웠다. 이에 대한 대안으로 그동안 크라우드 소싱을 통해 대화 데이터셋을 제작하여 왔지만 이는 비용도 많이 들뿐더러 만들 수 있는 데이터셋 크기도 작은 문제점이 있다. 그 결과, 기존 대화 관련 연구들은 모두 소수의 작은 데이터셋 위에서 이루어져 범용성에 큰 제약이 있었다.수상 논문인 ‘사회 상식 맥락화 기법을 통한 백만 단위의 대화 증류(SODA: Million-scale Dialogue Distillation with Social Commonsense Contextualization)’는 이를 해결하기 위해 거대 언어모델(large language model; LLM)과 기호 기반 상식 그래프(symbolic commonsense knowledge graph)를 함께 사용하여 데이터셋을 효율적으로 자동 구축하는 방법론인 CO_3 증류 프레임웍(distillation framework)을 제시하였다. 기존에 크라우드 소싱을 활용할 경우 대화 하나 당 길게는 몇 분이 걸리던 작업을 CO_3 프레임웍은 6초 내외로 단축시킨다.연구팀은 이를 통해 세계 최초로 150만 규모의 세계 최대 고품질 일상 대화 데이터셋인 SODA를 무료로 공개하였는데, 이는 기존 데이터셋 대비 100배 큰 규모다. 크기 뿐만 아니라, 대화의 자연스러움, 일관성, 구체성 등 품질 또한 기존 크라우드 소싱 기반 대화 데이터셋에 비해 2배 이상 뛰어난 것으로 연구 결과가 나타났다. 그 결과, SODA에 학습시킨 챗봇 COSMO는 파라미터 수가 30억 개로 작은 크기임에도 불구하고 기존 큰 챗봇들(파라미터 수 70억)보다 대화 맥락에 더 적합하고 자연스러운 답변이 가능하다.이번 연구는 대화 데이터셋 부족 문제를 해결하고, 누구나 간편하게 세계 최대 규모의 고품질 대화 데이터셋을 구축할 수 있는 방법론을 제시했다는 데에 의의가 있다. 이 방법론으로 탄생한 데이터셋 SODA는 다양한 대화 연구에 기반 자료로 쓰일 수 있을 것으로 기대된다. 해당 코드, SODA 데이터셋, COSMO 모델은 모두 오픈소스로 공개되어 있다.해당 논문은 미국 시애틀의 앨런 인공지능 연구소(Allen Institute for AI; AI2), 워싱턴 대학교(University of Washington), 카네기멜론 대학교 (Carnegie Mellon University), 서던 캘리포니아 대학교 (University of Southern California), 그리고 피츠버그 대학교 (University of Pittsburgh)와 함께 국제 공동협력 연구로 이루어낸 결과다. 김현우 박사와 김건희 교수는 정보통신기획평가원(IITP)의 연구비를 지원받았다(No.2019-0-01082, No.2022-0-00156).“SODA: Million-scale Dialogue Distillation with Social Commonsense Contextualization”, Hyunwoo Kim, Jack Hessel, Liwei Jiang, Peter West, Ximing Lu, Youngjae Yu, Pei Zhou, Ronan Le Bras, Malihe Alikhani, Gunhee Kim, Maarten Sap, and Yejin Choi....
포스트 대표 이미지
포스트 대표 이미지
포스트 대표 이미지

김선 교수 연구진, "삼성 인공지능/컴퓨터공학 챌린지 2023" 인공지능 분야 수상

삼성전자 SAIT에서 주최하는 "삼성 인공지능/컴퓨터공학 챌린지 2023"의 인공지능 분야에서 우수상 수상반도체 소재 시스템의 3차원 구조로부터 에너지 및 force field 예측하는 알고리즘 개발김선 교수 연구실 소속 팀 (Team 털실뭉치의 이단영) 이 삼성전자 SAIT에서 주최한 "삼성 인공지능/컴퓨터공학 챌린지 2023"의 인공지능 분야의 “반도체 소재 시뮬레이션용 머신 러닝 알고리즘” 부문에서 2위(우수상)로 수상하였다. 해당 부문의 주제는 반도체 소재 시스템의 3차원 구조로부터 시스템의 에너지 및 force field를 예측하는 알고리즘 개발이었으며, 이는 분자 동역학 (Molecular dynamics) 을 통한 에너지 최적화 및 시뮬레이션의 정확성을 향상시키는 데 중요한 역할을 한다.김선 교수 팀은 3차원 구조의 모델링에 적합한 equivariant 신경망 기반 모델의 개발을 통해 반도체 소재의 복잡한 구조와 상호 작용을 더 정확하고 효율적으로 모델링하고자 하였다. 연구팀은 다양한 기계학습 기법과 결합된 새로운 접근 방식을 사용하여, 전통적인 방법보다 빠르고 정확한 예측이 가능하게 하였다. 이를 통해, 반도체 소재의 효율적인 설계 및 개발 과정에서의 시간 및 비용 절감에 크게 기여할 것으로 기대된다....
포스트 대표 이미지

강유 교수팀, 전자신문 ICT 논문 공모 대제전 최우수상 수상

전자신문 ICT 논문 공모 대제전 최우수상 수상빠르고 정확한 전이 학습 기술 개발컴퓨터공학부 허혜문 박사과정 학생과 강유 교수가 작성한 논문이 제 15회 전자신문 ICT 논문 공모 대제전 최우수상을 수상하였다. 본 논문에서 다룬 전이 학습은 미리 학습된 모델을 활용하여 새로운 도메인에서의 인공지능 과업의 정확도를 높이는 기법을 의미한다. 전이 학습은 특히 새로운 도메인에서의 데이터가 부족할 때 미리 방대한 데이터로 학습한 모델을 활용하여 성능을 높일 수 있다는 점에서 요즘 많은 관심을 받고 있다.이번 논문에서는 새로운 도메인에 가장 적합한 모델을 빠르게 선택하여 전이학습을 하는 TMI라는 기법을 제안하였다. TMI는 미리 학습된 모델 중 최적의 모델 구조를 선택하거나, 가장 좋은 원본 데이터로 학습된 모델을 선택하는 등 다양한 전이 학습 환경에서 활용 가능하다. 한편, 본 연구는 과학기술정보통신부의 SW 스타랩 과제의 지원을 받았으며, 초 거대 모델을 빠르고 가볍지만 정확도를 유지하는 모델로 압축하는 모델 경량화를 위한 최적의 모델을 선택하는데 활용될 예정이다. “Fast and Accurate Transferability Measurement by Evaluating Intra-class Feature Variance”, Huiwen Xu, U Kang, ICCV 2023...
포스트 대표 이미지
포스트 대표 이미지

CS Professor Jaejin Lee’s teams win Samsung Computer Engineering Challenge 2023

Two teams from Professor Jaejin Lee’s laboratory won the prestigious awards at the “Samsung Computer Engineering Challenge 2023”. The challenge was hosted by Samsung SAIT and held from August 21 to October 20, 2023. Team H (Heehoon Kim, Junyeol Ryu) received the grand prize (1st place) and Team ShongShong2 (Jinpyo Kim, Daeyoung Park, Junsik Shin) received the excellence award (2nd place). The teams were awarded at Samsung AI Forum 2023.With the wide use of the large language models (LLMs) across various fields, accelerating its inference is extremely important. In line with this trend, the task of the challenge was to accelerate the Llama-30B inference on HellaSwag dataset using four NVIDIA V100 GPUs. The key was to utilize GPU compute capacity and hide communication overhead of model parallelism. The grand prize winning team, Team H,  proposed multiple novel techniques:- A batch scheduling algorithm that minimizes redundant computations for paddings - The optimizations such as fine-grained-batching for prefill phase to maximize pipeline utilization- The computation optimizations such as efficient use of KV cache and writing custom GPU kernels- Replacing GPU communication overhead with custom communication routineTeam H achieved 372.2 seconds, which is a 7.63x speedup over the baseline inference time, while preserving the reported accuracy close to 82.8% in Llama paper. “Participating in the competition allowed me to consider my personal research topics from different perspectives, providing a highly motivating experience”, said Jinpyo Kim, a member of Team ShongShong2.The two teams are awarded10 million Korean won and5 million Korean won, respectively....
포스트 대표 이미지