1. Community
  2. arrow_forward_ios

News

Tags
Search
all

제 45회 국제 대학생 프로그래밍 경진대회 금메달 수상

- 140개 팀 중 4위... 5년 연속 메달 행진 이어가미국컴퓨터협회(ACM)가 주최하는 세계 최대 프로그래밍 대회인 ‘국제 대학생 프로그래밍 경진대회(ICPC)’에서 서울대학교가 금메달을 수상했다.2022년 11월 10일 방글라데시 수도 다카에서 개최된 제 45회 국제 대학생 프로그래밍 경진대회 본선에서 서울대학교 팀이 140개 팀 중 4위의 성적을 거두며 금메달을 수상하였다.서울대학교 팀(김세빈.윤교준.이민제 학생, 염헌영 지도교수)은 12개 문제 중 9문제를 해결했으며, 그 중 문제 B와 H는 참가 팀들 중 가장 먼저 풀어 First to solve 상을 수상하였다.서울대학교는 2017년 대회 금메달, 2018년 대회 은메달, 2019년 대회 은메달, 2021년 대회 금메달을 수상한 데 이어, 올해 대회에서 금메달을 얻으며 5년 연속으로 메달을 수상하게 됐다(2020년 대회는 코로나19 확산으로 한 차례 연기됨).ICPC는 1977년 ACM(미국컴퓨터협회) 컴퓨터 과학 컨퍼런스에서 처음 개최되어, 매년 전 세계 대학생들이 참가하는 가장 권위 있는 컴퓨터 프로그래밍 경시대회이다.이번 대회를 위한 지역대회에는 111개국 3,450개 대학에서 7만 5천 명의 대학생이 참가했으며, 그 중 최상위 성적으로 지역대회를 통과한 140개팀 420명의 대학생이 '월드 파이널'로 불리는 본선에서 경쟁을 벌였다....
포스트 대표 이미지

김선 교수 연구진, 유전자 발현 조절을 모델링하는 인공지능 기술 개발로 세계 선도

■ DNA의 3차원 접힘 정보를 이용하여 전사 조절을 모델링하는 기술 개발 ■ 생명과학 분야의 신규 가설 발굴 도구로서의 인공지능 방법론의 가능성 제시 김선 교수와 BK21지능형컴퓨팅사업단의 이도훈 박사후연구원이 주도한 생물정보학 분야 연구가 세계적으로 우수성을 인정받아 Nature Communications에 게재되었다. 김선 교수 연구진은 DNA의 3차원적 접힘에 의한 상호작용을 포함하는 생물학적 요인들을 포괄적으로 이용하여 유전자의 발현 조절을 모델링하는 트랜스포머(transformer) 기반의 인공지능 모델인 크로모포머(Chromoformer)를 제시하였다. 그 결과로서, 유전자 발현 예측의 성능이 기존 모델에 비해 향상되어 보다 효과적인 모델링이 가능함을 보였다. 뿐만 아니라 학습된 인공지능 모델의 해석을 통하여 간암 세포주 특이적인 유전자 발현과 연관된 인핸서(enhancer) 활성화를 포착할 수 있고, 나아가 전사 공장(transcription factory) 및 폴리콤 그룹 소체(Polycomb group body)와 관련된 조절 인자의 동역학을 포착할 수 있음을 확인할 수 있었다. 인공지능과 생명과학 분야 융합의 산물인 본 연구는 인공지능 기술이 생명과학 분야의 새로운 가설을 발굴하는 하나의 도구로서 활용될 수 있다는 새로운 연구 패러다임의 실질적인 예를 제시하였고, 구축된 모델은 암 등의 세포 상태에 특이적으로 나타나는 염색질 상호작용을 포착하는 방법론으로서 활용이 가능할 것으로 보인다. “Learning the histone codes with large genomic windows and three-dimensional chromatin interactions using transformer", Dohoon Lee, Jeewon Yang and Sun Kim. Nature Communications, 13(1), 1-19....
포스트 대표 이미지

이재진 교수 연구진, 거대 딥러닝 모델 학습 기술 개발로 세계 선도

■ 근접 메모리 컴퓨팅(Near-memory computing) 플랫폼인 삼성전자의 AXDIMM과 고속의 저장장치를 활용, GPU 메모리의 한계 극복 ■ 거대 딥러닝 모델의 학습을 소규모 시스템에서 가능케 하는 기술 개발 이재진 교수 연구진(연구원: 김희훈, 박대영, 김진표, 신준식)이 메모리와 저장장치를 활용하여 거대 딥러닝 모델을 학습하는 기술로 삼성전자에서 주최한 Open Innovation Contest for AXDIMM Technology에서 1위를 달성하였다.트랜스포머 구조를 필두로 한 거대 딥러닝 모델이 자연어 처리, 이미지 분석 등 다양한 분야에서 뛰어난 성능을 보이고 있다. 그러나 기존 기술로 거대 딥러닝 모델을 학습하기 위해서는 수백 내지는 수천 개의 GPU로 구성된 시스템이 필요하며, 그런 시스템에 접근 가능한 소수의 기업과 연구자만이 모델을 활용할 수 있었다.이재진 교수 연구진은 학습 과정에서 사용하는 데이터의 일부를 GPU 메모리 대신 AXDIMM 내의 메모리 또는 고속의 저장장치인 NVMe SSD에 저장하여 적은 수의 GPU로도 기존보다 큰 모델을 학습할 수 있는 기술을 개발하였다. 또한 딥러닝 연산 중 파라미터 갱신을 AXDIMM에 하드웨어로 구현하고, 메모리와 근접한 곳에서 실행함으로써 같은 연산을 GPU 또는 CPU에서 실행하는 것에 비해 높은 성능을 달성하였다.연구진이 소규모 프로토타입 시스템을 구축하여 거대 딥러닝 모델 중 하나인 GPT-3로 테스트한 결과, AXDIMM 기반 시스템은 개발한 기술을 사용하지 않은 시스템 대비 최대 1.68배의 성능 향상을 보였다. 고성능을 요하는 애플리케이션에서 발생하는 메모리 병목이 주목받고 있는 가운데, 개발한 기술은 near-memory computing을 통해 문제를 해결한 중요한 사례로서 남을 것이다....
포스트 대표 이미지
포스트 대표 이미지
포스트 대표 이미지
포스트 대표 이미지

제2회 CSE 종신교수 취임 기념 강연 (전병곤 교수)

2022년 10월 12일(수) 오후 12시 15분, 302동 105호에서 제 2회 CSE 종신교수 취임 기념 강연이 개최되었습니다.이날 강연은 전병곤 교수님의 종신교수 취임을 기념하여 '대규모 AI를 쉽게 만들고 사용하는 방법-문제 중심으로 관련 분야를 결합하라' 는 주제로 진행되었습니다. 약 80분 동안 진행된 전병곤 교수님의 종신교수 취임 기념 강연은 많은 학생들과 교수님들이 참석한 가운데 성황리에 개최되었습니다.전병곤 교수님은 지난 9년간 서울대학교에서 Software Platform 연구실을 운영하며 다양한 문제들을 해결하기 위해 컴퓨터 공학의 다양한 분야(시스템, 인공지능, 데이터베이스, 네트워킹, 컴파일러 등)를 결합하였고, 해당 연구 결과들은 관련 산업 분야에서 사용되고 있습니다. 그간의 연구 성과들은 세계적으로 우수성을 인정받아 컴퓨터 시스템, 데이터베이스, 인공지능 분야 최고 학회들(OSDI, NSDI, EuroSys, ATC, VLDB, SIGMOD, MobiSys, NeurIPS 등)에 24편의 논문으로 출간되었고, 이 연구 결과들은 현재 기업들에 의해 사용되고 있습니다.[연사 약력]전병곤 교수는 1994년, 1996년에 서울대학교에서 전자공학 학사, 석사 학위를 받았고, 2002년에 스탠포드대학교에서 전산학 석사, 2007년 UC버클리 대학에서 전산학 박사학위를 받았다. 이후 인텔, 야후, 마이크로소프트 등에서 연구 개발 활동을 수행하였다. 2013년부터 현재까지 서울대학교 컴퓨터공학부에서 교육 및 연구를 수행하고 있고, 2016년 페이스북, 2020년 네이버에서 방문 연구를 수행하였다. 2021년에 (주)프렌들리에이아이를 창업하여 누구나 대규모 AI를 쉽게 활용할 수 있도록 돕는 미션을 수행하고 있다. 아시아 최초로 컴퓨터 분야에서 ACM SIGOPS Hall of Fame Award(2020), EuroSys Test of Time Award(2021), Microsoft Research Faculty Fellowship(2014)을 수상하였다....
포스트 대표 이미지

제1회 CSE 종신교수 취임 기념 강연 (허충길 교수)

2022년 9월 28일(수) 오후 12시 15분, 302동 105호에서 제 1회 CSE 종신교수 취임 기념 강연이 개최되었습니다.이날 강연은 허충길 교수님의 종신교수 취임을 기념한 시간으로서 '튼튼한 소프트웨어 기반 다지기' 라는 주제로 진행되었습니다. 약 80분 동안 진행된 허충길 교수님의 강연은 많은 학생들과 교수님들이 참석한 가운데 성공적으로 개최되었습니다.허충길 교수님은 지난 9년간 서울대학교에서 Software Foundations 연구실을 운영하며 튼튼한 소프트웨어 기반을 다지기 위해 수행한 여러 주제의 연구를 하였습니다.그간의 연구 성과들은 세계적으로 우수성을 인정받아 프로그래밍 언어 분야 최고의 학회인 PLDI 및 POPL에 14편의 논문으로 출간되었고, 특히 이 중 3편은 Distinguished Paper Award를 수상하였습니다. 또한 몇몇 연구 결과들은 이미 산업계에 적용되어 현재 사용되고 있습니다.[연사 약력]허충길 교수는 2000년에 카이스트에서 수학 및 전산학으로 학사 학위를 받았고, 2009년에 영국 케임브리지 대학에서 박사학위를 받았습니다. 이후 프랑스 PPS 연구소, 독일 막스플랑크 연구소, 영국 마이크로소프트 연구소에서 박사후 연구원으로 연구 활동을 수행했고, 2013년부터 현재까지 서울대학교에서 교육 및 연구를 수행해오고 있습니다....
포스트 대표 이미지
포스트 대표 이미지

송현오 교수 연구진, AI를 속이는 공격 기술 및 학습데이터 압축 기술로 세계 선도

■ 적은 수의 쿼리로 최첨단 AI 모델들을 속이는 알고리즘 개발■ 인공신경망의 효율적인 학습이 가능한 작은 규모의 학습데이터 생성송현오 교수 연구진이 인공신경망의 취약점을 찾는 적대적 공격 알고리즘 및 학습데이터 압축 알고리즘을 개발하였다.적대적 공격 [1]: 입력 데이터에 작은 변화를 주어 이산 시퀀스 분류 인공지능이 잘못된 판단을 내리도록 하는 적대적 공격 알고리즘(BBA)을 개발하였다. BBA는 베이지안 최적화 기법을 활용하여 적은 수의 쿼리로 넓은 탐색 영역에서 효과적으로 적대적 공격을 진행한다. 텍스트나 단백질과 같은 이산 시퀀스 데이터에서 BBA는 적은 수의 쿼리로 수정률과 공격 성공률 모두 기존 연구를 크게 능가하는 성능을 얻었다. 본 연구 결과는 인공신경망의 취약점을 찾는데 효과적으로 사용될 수 있다.학습데이터 압축 [2]: 일반적인 인공신경망의 학습은 방대한 데이터와 컴퓨팅 자원을 요구한다. 본 연구진은 효율적인 인공신경망 학습을 위한 학습데이터 압축 알고리즘을 개발하였다. 특히, 압축 공간을 효율적으로 활용하는 최적화 프레임워크를 제안하고 효과적인 최적화 기법을 개발하여, 고차원 현실 데이터에서 기존 연구의 성능을 크게 향상하는데 성공하였다. 압축된 학습데이터는 인공신경망 구조 탐색이나 연속 학습(continual learning) 등에도 효과적으로 활용될 수 있다.해당 연구 결과들은 올해 7월 머신러닝 최고 학회인 ICML 2022에 발표될 예정이다.[1] "Query-Efficient and Scalable Black-Box Adversarial Attacks on Discrete Sequential Data via Bayesian Optimization", Deokjae Lee, Seungyong Moon, Junhyeok Lee, Hyun Oh Song[2] “Dataset Condensation via Efficient Synthetic-Data Parameterization”, Jang-Hyun Kim, Jinuk Kim, Seong Joon Oh, Sangdoo Yun, Hwanjun Song, Joonhyun Jeong, Jung-Woo Ha, Hyun Oh Song...
포스트 대표 이미지