1. 소식
  2. arrow_forward_ios

새 소식

태그
검색
전체

Google PhD Fellowship Program 수상자로 선정

김재겸 학생(지도교수 김건희)과 이예진 학생(지도교수 이재욱)이 2021 Google PhD Fellowship Program에서 각각 Machine Learning과 Systems and Networking 분야의 수상자로 선정되었습니다. 시각 및 학습 연구실의 김재겸 학생은 강화학습 분야에서 강건성을 높이는 방법론 및 비지도적 학습 등에 대해 연구하고 있으며, 이를 위해 정보 병목, 상호 정보 최대화를 비롯한 정보 이론적 접근 및 분석, 새로운 환경에서의 스킬 발견 방법론 등을 다루고 있습니다. 아키텍처 및 코드 최적화 연구실의 이예진 학생은 추천 시스템, 자연어 처리 등 중요한 어플리케이션에서 쓰이는 머신러닝 알고리즘들의 병목을 분석하고, 이를 SW 최적화 혹은 SW/HW co-design을 통해 가속하여 성능과 에너지 효율을 높이는 연구를 하고 있습니다. 2009년부터 시작한 Google PhD Fellowship Program은 여러 컴퓨터 관련 분야(Algorithms, Optimizations and Markets, Computational Neuroscience, Human Computer Interaction, Machine Learning, Machine Perception, Speech Technology and Computer Vision, Mobile Computing, Natural Language Processing, Privacy and Security, Programming Technology and Software Engineering, Quantum Computing, Structured Data and Database Management, Systems and Networking)에서 우수한 연구를 하고 있는 대학원생을 선정해 장학금, 연구 멘토링 그리고 구글 인턴쉽 기회를 제공하여 미래 기술을 개발하고 영향력을 끼칠 수 있는 연구를 할 수 있도록 지원하는 프로그램입니다. [관련 홈페이지] - 김재겸 박사수료생 프로필: https://jaekyeom.github.io/ - 이예진 박사수료생 프로필: https://yjyjlee.github.io/ - 기사 원문: Research at Google...
포스트 대표 이미지

2021년 8월 우수학위논문상 수상자 안내

서울대학교 컴퓨터공학부에서는 매 학기 졸업생을 대상으로 우수학위논문상을 수여합니다. 석박사 과정 졸업논문의 경우 논문 심사 위원들이, 학부 졸업 논문의 경우 지도교수가 뛰어난 논문을 선별하여 우수학위논문상 후보로 추천하고, 논문상 심사위원회에서 엄격한 심사를 거쳐 수상자를 선정하고 있습니다. 2021년 가을학기에는 박사 논문상 수상자 2명, 석사 논문상 수상자 1명, 학사 논문상 수상자 1명을 최종 선발하였습니다. o 박사 논문상 수상자: 이준영 (지도교수: 허충길) 제목: A Validated Semantics for LLVM IR 이준영 학생은 LLVM 컴파일러의 중간 언어의 의미론에 존재하는 문제점을 발견하고 이것이 프로그램을 잘못 컴파일하게 만드는 버그의 원인이 된다는 것을 밝혔습니다. 이를 해결하기 위해 중간 언어의 새 의미를 엄밀하게 정의하고 이에 기반한 최적화 자동 검증기를 개발하였습니다. 새 의미는 현재 공식 LLVM 컴파일러에 의해 채택되어가는 중입니다. 관련 연구 결과는 PLDI와 CAV를 포함한 다수의 학술 대회에 발표되었습니다. o 박사 논문상 수상자: 김태욱 (지도교수: 이상구) 제목: Learning and Analysis of Neural Sentence Representations Using Syntax 김태욱 학생은 언어학의 세부 분야인 구문론(syntax)을 활용하여 보다 효과적인 신경망 기반 문장 표현 학습 방법 및 분석 기법을 개발하는 연구를 수행하였습니다. 해당 연구의 세부 내용은 그 우수성을 인정받아 자연어처리 및 기계학습 분야의 최우수학술대회인 AAAI, ACL, ICLR 등에서 발표되었습니다. o 석사 논문상 수상자: 신안재 (지도교수: 전병곤) 제목: TreeML: Taming Hyper-parameter Optimization of Deep Learning with Stage Trees 신안재 학생은 딥러닝 모델의 하이퍼파라미터 최적화 시스템을 연구하여, 최대 6배 정도 자원을 적게 사용하여 같은 성능을 내는 시스템을 개발하여, 국제 우수 학회에 논문을 제출하였습니다. o 학사 논문상 수상자: 권우석 (지도교수: 전병곤) 제목: Nimble: Lightweight and Parallel GPU Task Scheduling for Deep Learning 권우석 학생은 딥러닝 프레임워크의 GPU 추론 및 학습 속도를 향상시키기 위한 소프트웨어 기법을 연구하였습니다. 경량화된 실행 환경과 자동화된 병렬 수행 알고리즘으로 딥러닝 프레임워크의 GPU 가동률을 크게 향상시켰고, 이 결과를 인공지능 분야 최우수 학회인 NeurIPS에 발표하였습니다....
포스트 대표 이미지
포스트 대표 이미지

전병곤 교수 연구진, 머신러닝 파이프라인을 인공신경망으로 변환하는 기술 개발

전병곤 교수 연구진이 마이크로소프트와 공동으로 전통적 머신러닝 파이프라인을 신경망(neural network)으로 변환해 최적화하는 프레임워크인 WindTunnel을 개발하였다. 이번 성과는 전통적 머신러닝 기법과 최신 딥러닝 기법의 장점을 모두 취하는 핵심 기술로, 클릭률 예측, 추천 시스템 등 다양한 실제 인공지능 응용에 활용될 것으로 예상된다. 딥러닝 기법이 컴퓨터 비전이나 자연어 처리 등 분야에서 효과적인 것으로 나타나 많은 각광을 받고 있지만, 클릭률 예측이나 추천 시스템 등의 인공지능 응용에서 사용되는 표 형식 데이터(tabular data)에 대해선 여전히 선형 모델(linear model)이나 GBDT(gradient boosting decision trees)와 같은 전통적 머신러닝 기법이 더 나은 성능을 보이는 경우가 많다. 전통적 머신러닝 기법을 사용할 때는 보통 다수의 머신러닝 모델 및 데이터 변환 연산을 엮어서 하나의 머신러닝 파이프라인을 구성하고, 학습 시에는 파이프라인을 구성하는 각 요소를 개별적으로 학습한 후 사용하게 된다. 전병곤 교수 연구진은 파이프라인의 각 구성 요소를 개별적으로 학습한 후 이를 인공신경망으로 변환하여, 변환된 여러 구성 요소를 역전파(backpropagation)을 이용해 한번에 최적화하는 기술을 개발하였다. 특히 GBDT나 범주형 데이터 인코더(categorical feature encoder)와 같이 일반적으로 미분 불가능한 구성 요소를 신경망으로 변환하고 최적화하는 방법을 제안하였다. 이 기술을 이용해 개발된 WindTunnel 프레임워크는 기존 방법 대비 더 높은 예측 성능을 달성할 뿐 아니라, 표 형식 데이터에 대해 전통적인 머신러닝과 딥러닝 기법 사이의 절충안을 찾는 다양한 향후 연구로 이어질 수 있을 것이란 평가를 받았다. https://cse.snu.ac.kr/sites/default/files/node--notice/20210803_bgchun2.png 이번 연구 결과는 VLDB(International Conference on Very Large Data Bases) 2022에서 발표될 예정이다. "WindTunnel: Towards Differentiable ML Pipelines Beyond a Single Model", Gyeong-In Yu, Saeed Amizadeh, Sehoon Kim, Artidoro Pagnoni, Ce Zhang, Byung-Gon Chun, Markus Weimer, and Matteo Interlandi....
포스트 대표 이미지
포스트 대표 이미지

허충길 교수 연구진, PLDI 2021 최우수 논문상 수상

허충길 교수와 이준영 박사과정생이 마이크로소프트연구소 및 유타대학교와 공동으로 개발한 LLVM 컴파일러 최적화 자동 검증 프레임워크 Alive2가 프로그래밍 언어 분야 최우수 학술대회인 PLDI 2021 (The 42th ACM SIGPLAN International Conference on Programming Language Design and Implementation)에서 최우수 논문상 (Distinguished Paper Award)을 수상하였다. 올해 6월 온라인으로 개최되는 PLDI 2021에는 총 87편의 논문이 채택되었으며, 최우수 논문상은 그 중 8편의 논문에 수여되었다. Alive2 프레임워크는 컴파일러 실행 중 생성된 최적화 전후 프로그램들의 실행의미 및 이들의 동등함을 수식으로 표현한 후, 마이크로소프트의 자동수식검증기(SMT solver)인 Z3를 사용해 최적화의 올바름을 보이거나, 그렇지 않으면 오류를 찾아낸다. 이때 핵심기술은 프로그램의 복잡한 실행의미를 SMT solver가 쉽게 풀 수 있는 형태로 효율적으로 표현하는 것이다. SMT solver는 수학적으로 엄밀하게 수식의 참/거짓을 체크하기 때문에, Alive2는 오탐(False Alarm)이 거의 없고 테스팅으로는 찾을 수 없는 오류들을 찾아낼 수 있다. Alive2는 지금까지 테스팅으로서는 발견할 수 없었던 수십개의 컴파일러 버그를 발견하였으며, 기존에 발견되지 않았던 LLVM 중간 언어 명세의 문제 또한 새로 발견하였다. 논문 리뷰 과정에서는 해당 기여의 중요성을 인정받아 네 명의 심사위원 전원으로부터 최고 점수인 Strong Accept 평가를 받았다. Alive2의 온라인 서비스(https://alive2.llvm.org) 는 현재 LLVM 커뮤니티의 코드 리뷰 단계에서 개발자들에 의해 활발하게 사용되고 있다. "Alive2: Bounded Translation Validation for LLVM.", Nuno P. Lopes, Juneyoung Lee, Chung-Kil Hur, Zhengyang Liu, John Regehr....
포스트 대표 이미지

강유 교수 연구진, 실세계 데이터를 분석 및 예측하는 AI 기술들로 세계 선도

강유 교수 연구진이 실세계 데이터 분석 및 예측을 정확하고 효과적으로 수행하는 기법들을 개발하였다. 해당 기법들은 시간적 특성을 갖는 데이터에 맞게 설계되었으며, 각 데이터의 성격 및 특성에 따라 최적화되었다. 연구진의 이번 성과는 시계열 데이터, 텐서 데이터, 주가 데이터, 지식 그래프 등 다양한 데이터에 대한 분석 및 예측에 범용적으로 쓰이는 핵심 기술로, 앞으로 다양한 AI 응용에 활용될 것으로 예상된다. 데이터 분석에 널리 쓰이는 푸리에 변환(Fourier Transform)의 일부 계수를 신속.정확히 구하는 기술인 PFT(Partial Fourier Transform) 개발 “Fast and Accurate Partial Fourier Transform for Time Series Data.”, Yong-chan Park, Jun-Gi Jang, and U Kang. 고차원 텐서 데이터의 특정 시간대 패턴을 터커 분해(Tucker decomposition)를 통해 효율적으로 구하는 기술인 Zoom-Tucker(Zoomable Tucker decomposition) 개발 “Fast and Memory-Efficient Tucker decomposition for Answering Diverse Time Range Queries”, Jun-Gi Jang and U Kang. 주식 종목간 상관관계를 학습함으로써 주가 움직임을 정확히 예측하는 모델인 DTML(Data-Axis Transformer with Multi-Level Contexts) 개발 “Accurate Multivariate Stock Movement Prediction via Data-Axis Transformer with Multi-Level Contexts.”, Jaemin Yoo, Yejun Soun, Yong-chan Park, and U Kang. 지식 그래프에서 시간 정보를 고려한 그래프 뉴럴 네트워크를 학습함으로써 지식 그래프 추론을 정확하게 수행하는 모델인 T-GAP(Temporal GNN with Attention Propagation) 개발 “Learning to Walk across Time for Interpretable Temporal Knowledge Graph Completion.”, Jaehun Jung, Jinhong Jung, and U Kang. 위 논문 4편은 오는 8월 빅데이터 및 인공지능 분야 최우수 학회인 The 27th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (KDD 2021)에 발표될 예정인데, 한 연구실에서 KDD에 4편을 발표하는 것은 매우 이례적인 성과이다....
포스트 대표 이미지

김선 교수, 2021년도 '훌륭한 공대교수상' 학술상 수상

김선 교수가 생물정보학 및 인공지능 분야 인재 육성 및 학술 발전에 기여한 공로를 인정받아 2021년 '훌륭한 공대교수상' 학술상 수상자로 선정되었다. 김선 교수는 2011년 서울대 교수로 부임해 석사 14명, 박사 및 박사 후 연구원 13명을 배출했으며 부임 이후 현재까지 서울대학교 생물정보연구소 소장을 역임하며 학술적, 교육적 측면에서 세계 최고 수준의 결과를 나타내고 있다. 또한 다수의 국책연구과제를 수행하면서 국내외 저명 학술지에 92편의 학술 논문을 발표했고 현재까지의 연구성과 SCI 논문 Impact Factor 합은 337.218이다. 2021년에는 사단법인 세계언론협회 주최 KOREA AWARDS ‘과학공로大賞'에 선정되는 등 다수의 기관에서 수상하였다. 2017년에는 한국정보과학회 인공지능 소사이어티 학회 회장을 역임하면서 국내 최초로 인공지능 관련 학술대회(THE AI KOREA)를 기획∙개최하여 국내를 대표하는 인공지능 분야 학술 행사로 발전시킨 바 있다. GIW 2017, APBC 2020, IEEE BIBM 2020 등 국제 학술대회를 국내 유치하며 국내 생물정보학 분야 연구를 세계 수준으로 향상시키는데 공헌했다. 훌륭한 공대교수상은 공과대학 교수들의 연구 활동을 진작하고 산업 기술의 선진화를 기하기 위하여 1992년 7월 공대 15회 동문들이 출연한 기금으로 공대 학술상과 기술상을 제정하며 시작되었으며 2014년부터는 교육상, 학술상, 산학협력상 세 분야로 나눠 지금까지 총 71명의 교수가 수상했다. 교육상은 창의적이고 진취적으로 교육에 헌신한 교수, 학술상은 학술 업적이 탁월한 교수, 산학협력상은 산학협력 성과가 탁월해 산업 기술 발전에 지대한 공헌을 한 교수에게 수여한다....
포스트 대표 이미지

전병곤 교수 연구진, 빠르고 정확한 인공지능 학습 데이터 증강 시스템 개발

전병곤 교수 연구진, 인공지능 학습 데이터 증강을 빠르게 하는 새로운 데이터 캐싱 시스템으로 세계 선도 머신러닝 모델 학습시 모델의 품질은 유지하면서 데이터 재사용을 가능하게 캐싱 이론인 데이터 리퍼비싱(Data Refurbishing) 제안 제안한 이론을 효율적으로 수행하는 증강 특화 캐싱 시스템인 리뱀퍼(Revamper) 개발 다양한 머신러닝모델 학습에서 기존 방식 대비 최대 2.17배의 학습 속도 향상 전병곤 교수 연구진은 데이터 증강(Data Augmentation)과정을 최적화하여 머신러닝 학습 수행시 기존 시스템 대비 최대 2.17배 빠른 속도로 수행하는 리뱀퍼(Revamper) 시스템을 개발하였다. 해당 시스템을 통해 다양한 분야에서 인공지능 학습을 보다 효율적으로 수행하는 것이 가능할 것으로 기대한다. 데이터 증강은 학습 데이터에 임의의 변환 연산을 적용함으로써 실질적인 학습 데이터의 수를 증가시키기 때문에 인공지능 학습에서 인공지능 모델의 성능을 높이기 위해 사용된다. 하지만 데이터 증강은 많은 양의 중앙 처리 장치(CPU) 자원을 필요로 하는데, 이는 그래픽 처리 장치(GPU)의 성능이 빠르게 향상됨에 따라 인공지능 모델 학습의 속도를 저하시키는 새로운 병목 요인이다. 이 문제를 해결하기 위해 전병곤 교수 연구진은 새로운 데이터 캐싱 시스템인 리뱀퍼를 개발하였다. 기존에 구글에서 제안한 방식은 최종 증강한 표본을 일정 회수 재사용하여 속도를 향상하는데 학습된 모델의 정확도 저하가 있다는 문제점이 있다. 본 연구진은 학습된 모델의 성능 저하 없이 표본을 재사용하는 데이터 리퍼비싱 기법을 제안하였다. 데이터 리퍼비싱은 데이터 증강 과정을 두 부분으로 나누어 부분적인 데이터 증강 연산이 적용된 표본들을 일정 횟수 재사용하고 학습에 사용하기 전에 나머지 증강 연산을 수행하는 방식으로 모델 정확도 저하 문제를 해결하였다. 그리고 이 방식을 효율적으로 지원하기 위해 재사용하는 표본들을 여러 학습 스텝에서 고르게 사용하는 새로운 캐싱 시스템인 리뱀퍼를 구현하였다. 리뱀퍼는 파이토치(PyTorch) 데이터로더 대비 최대 2.17배 빠른 인공지능 학습 속도를 제공한다. 리뱀퍼는 개발 시 사용자의 편의성을 고려하여 설계했으며 기존에 사용하던 파이토치 모델을 리뱀퍼를 이용해 빠르게 수행할 수 있다. 이 연구 결과는 오는 7월 USENIX ATC (Annual Technical Conference)에서 발표될 예정이다. “Refurbish Your Training Data: Reusing Partially Augmented Samples for Faster Deep Neural Network Training", Gyewon Lee, Irene Lee (Georgia Institute of Technology), Hyeonmin Ha, Kyunggeun Lee, Hwarim Hyun, Ahnjae Shin, and Byung-Gon Chun....
포스트 대표 이미지
포스트 대표 이미지