1. 소식
  2. arrow_forward_ios

새 소식

태그
검색
전체

이재진 교수 연구진, 거대 딥러닝 모델 학습 기술 개발로 세계 선도

■ 근접 메모리 컴퓨팅(Near-memory computing) 플랫폼인 삼성전자의 AXDIMM과 고속의 저장장치를 활용, GPU 메모리의 한계 극복 ■ 거대 딥러닝 모델의 학습을 소규모 시스템에서 가능케 하는 기술 개발 이재진 교수 연구진(연구원: 김희훈, 박대영, 김진표, 신준식)이 메모리와 저장장치를 활용하여 거대 딥러닝 모델을 학습하는 기술로 삼성전자에서 주최한 Open Innovation Contest for AXDIMM Technology에서 1위를 달성하였다.트랜스포머 구조를 필두로 한 거대 딥러닝 모델이 자연어 처리, 이미지 분석 등 다양한 분야에서 뛰어난 성능을 보이고 있다. 그러나 기존 기술로 거대 딥러닝 모델을 학습하기 위해서는 수백 내지는 수천 개의 GPU로 구성된 시스템이 필요하며, 그런 시스템에 접근 가능한 소수의 기업과 연구자만이 모델을 활용할 수 있었다.이재진 교수 연구진은 학습 과정에서 사용하는 데이터의 일부를 GPU 메모리 대신 AXDIMM 내의 메모리 또는 고속의 저장장치인 NVMe SSD에 저장하여 적은 수의 GPU로도 기존보다 큰 모델을 학습할 수 있는 기술을 개발하였다. 또한 딥러닝 연산 중 파라미터 갱신을 AXDIMM에 하드웨어로 구현하고, 메모리와 근접한 곳에서 실행함으로써 같은 연산을 GPU 또는 CPU에서 실행하는 것에 비해 높은 성능을 달성하였다.연구진이 소규모 프로토타입 시스템을 구축하여 거대 딥러닝 모델 중 하나인 GPT-3로 테스트한 결과, AXDIMM 기반 시스템은 개발한 기술을 사용하지 않은 시스템 대비 최대 1.68배의 성능 향상을 보였다. 고성능을 요하는 애플리케이션에서 발생하는 메모리 병목이 주목받고 있는 가운데, 개발한 기술은 near-memory computing을 통해 문제를 해결한 중요한 사례로서 남을 것이다....
포스트 대표 이미지
포스트 대표 이미지
포스트 대표 이미지
포스트 대표 이미지

제2회 CSE 종신교수 취임 기념 강연 (전병곤 교수)

2022년 10월 12일(수) 오후 12시 15분, 302동 105호에서 제 2회 CSE 종신교수 취임 기념 강연이 개최되었습니다.이날 강연은 전병곤 교수님의 종신교수 취임을 기념하여 '대규모 AI를 쉽게 만들고 사용하는 방법-문제 중심으로 관련 분야를 결합하라' 는 주제로 진행되었습니다. 약 80분 동안 진행된 전병곤 교수님의 종신교수 취임 기념 강연은 많은 학생들과 교수님들이 참석한 가운데 성황리에 개최되었습니다.전병곤 교수님은 지난 9년간 서울대학교에서 Software Platform 연구실을 운영하며 다양한 문제들을 해결하기 위해 컴퓨터 공학의 다양한 분야(시스템, 인공지능, 데이터베이스, 네트워킹, 컴파일러 등)를 결합하였고, 해당 연구 결과들은 관련 산업 분야에서 사용되고 있습니다. 그간의 연구 성과들은 세계적으로 우수성을 인정받아 컴퓨터 시스템, 데이터베이스, 인공지능 분야 최고 학회들(OSDI, NSDI, EuroSys, ATC, VLDB, SIGMOD, MobiSys, NeurIPS 등)에 24편의 논문으로 출간되었고, 이 연구 결과들은 현재 기업들에 의해 사용되고 있습니다.[연사 약력]전병곤 교수는 1994년, 1996년에 서울대학교에서 전자공학 학사, 석사 학위를 받았고, 2002년에 스탠포드대학교에서 전산학 석사, 2007년 UC버클리 대학에서 전산학 박사학위를 받았다. 이후 인텔, 야후, 마이크로소프트 등에서 연구 개발 활동을 수행하였다. 2013년부터 현재까지 서울대학교 컴퓨터공학부에서 교육 및 연구를 수행하고 있고, 2016년 페이스북, 2020년 네이버에서 방문 연구를 수행하였다. 2021년에 (주)프렌들리에이아이를 창업하여 누구나 대규모 AI를 쉽게 활용할 수 있도록 돕는 미션을 수행하고 있다. 아시아 최초로 컴퓨터 분야에서 ACM SIGOPS Hall of Fame Award(2020), EuroSys Test of Time Award(2021), Microsoft Research Faculty Fellowship(2014)을 수상하였다....
포스트 대표 이미지

제1회 CSE 종신교수 취임 기념 강연 (허충길 교수)

2022년 9월 28일(수) 오후 12시 15분, 302동 105호에서 제 1회 CSE 종신교수 취임 기념 강연이 개최되었습니다.이날 강연은 허충길 교수님의 종신교수 취임을 기념한 시간으로서 '튼튼한 소프트웨어 기반 다지기' 라는 주제로 진행되었습니다. 약 80분 동안 진행된 허충길 교수님의 강연은 많은 학생들과 교수님들이 참석한 가운데 성공적으로 개최되었습니다.허충길 교수님은 지난 9년간 서울대학교에서 Software Foundations 연구실을 운영하며 튼튼한 소프트웨어 기반을 다지기 위해 수행한 여러 주제의 연구를 하였습니다.그간의 연구 성과들은 세계적으로 우수성을 인정받아 프로그래밍 언어 분야 최고의 학회인 PLDI 및 POPL에 14편의 논문으로 출간되었고, 특히 이 중 3편은 Distinguished Paper Award를 수상하였습니다. 또한 몇몇 연구 결과들은 이미 산업계에 적용되어 현재 사용되고 있습니다.[연사 약력]허충길 교수는 2000년에 카이스트에서 수학 및 전산학으로 학사 학위를 받았고, 2009년에 영국 케임브리지 대학에서 박사학위를 받았습니다. 이후 프랑스 PPS 연구소, 독일 막스플랑크 연구소, 영국 마이크로소프트 연구소에서 박사후 연구원으로 연구 활동을 수행했고, 2013년부터 현재까지 서울대학교에서 교육 및 연구를 수행해오고 있습니다....
포스트 대표 이미지
포스트 대표 이미지

송현오 교수 연구진, AI를 속이는 공격 기술 및 학습데이터 압축 기술로 세계 선도

■ 적은 수의 쿼리로 최첨단 AI 모델들을 속이는 알고리즘 개발■ 인공신경망의 효율적인 학습이 가능한 작은 규모의 학습데이터 생성송현오 교수 연구진이 인공신경망의 취약점을 찾는 적대적 공격 알고리즘 및 학습데이터 압축 알고리즘을 개발하였다.적대적 공격 [1]: 입력 데이터에 작은 변화를 주어 이산 시퀀스 분류 인공지능이 잘못된 판단을 내리도록 하는 적대적 공격 알고리즘(BBA)을 개발하였다. BBA는 베이지안 최적화 기법을 활용하여 적은 수의 쿼리로 넓은 탐색 영역에서 효과적으로 적대적 공격을 진행한다. 텍스트나 단백질과 같은 이산 시퀀스 데이터에서 BBA는 적은 수의 쿼리로 수정률과 공격 성공률 모두 기존 연구를 크게 능가하는 성능을 얻었다. 본 연구 결과는 인공신경망의 취약점을 찾는데 효과적으로 사용될 수 있다.학습데이터 압축 [2]: 일반적인 인공신경망의 학습은 방대한 데이터와 컴퓨팅 자원을 요구한다. 본 연구진은 효율적인 인공신경망 학습을 위한 학습데이터 압축 알고리즘을 개발하였다. 특히, 압축 공간을 효율적으로 활용하는 최적화 프레임워크를 제안하고 효과적인 최적화 기법을 개발하여, 고차원 현실 데이터에서 기존 연구의 성능을 크게 향상하는데 성공하였다. 압축된 학습데이터는 인공신경망 구조 탐색이나 연속 학습(continual learning) 등에도 효과적으로 활용될 수 있다.해당 연구 결과들은 올해 7월 머신러닝 최고 학회인 ICML 2022에 발표될 예정이다.[1] "Query-Efficient and Scalable Black-Box Adversarial Attacks on Discrete Sequential Data via Bayesian Optimization", Deokjae Lee, Seungyong Moon, Junhyeok Lee, Hyun Oh Song[2] “Dataset Condensation via Efficient Synthetic-Data Parameterization”, Jang-Hyun Kim, Jinuk Kim, Seong Joon Oh, Sangdoo Yun, Hwanjun Song, Joonhyun Jeong, Jung-Woo Ha, Hyun Oh Song...
포스트 대표 이미지
포스트 대표 이미지
포스트 대표 이미지