1. 소식
  2. arrow_forward_ios

새 소식

태그
검색
전체
포스트 대표 이미지
포스트 대표 이미지

김선 교수 연구진, "삼성 인공지능/컴퓨터공학 챌린지 2023" 인공지능 분야 수상

삼성전자 SAIT에서 주최하는 "삼성 인공지능/컴퓨터공학 챌린지 2023"의 인공지능 분야에서 우수상 수상반도체 소재 시스템의 3차원 구조로부터 에너지 및 force field 예측하는 알고리즘 개발김선 교수 연구실 소속 팀 (Team 털실뭉치의 이단영) 이 삼성전자 SAIT에서 주최한 "삼성 인공지능/컴퓨터공학 챌린지 2023"의 인공지능 분야의 “반도체 소재 시뮬레이션용 머신 러닝 알고리즘” 부문에서 2위(우수상)로 수상하였다. 해당 부문의 주제는 반도체 소재 시스템의 3차원 구조로부터 시스템의 에너지 및 force field를 예측하는 알고리즘 개발이었으며, 이는 분자 동역학 (Molecular dynamics) 을 통한 에너지 최적화 및 시뮬레이션의 정확성을 향상시키는 데 중요한 역할을 한다.김선 교수 팀은 3차원 구조의 모델링에 적합한 equivariant 신경망 기반 모델의 개발을 통해 반도체 소재의 복잡한 구조와 상호 작용을 더 정확하고 효율적으로 모델링하고자 하였다. 연구팀은 다양한 기계학습 기법과 결합된 새로운 접근 방식을 사용하여, 전통적인 방법보다 빠르고 정확한 예측이 가능하게 하였다. 이를 통해, 반도체 소재의 효율적인 설계 및 개발 과정에서의 시간 및 비용 절감에 크게 기여할 것으로 기대된다....
포스트 대표 이미지

강유 교수팀, 전자신문 ICT 논문 공모 대제전 최우수상 수상

전자신문 ICT 논문 공모 대제전 최우수상 수상빠르고 정확한 전이 학습 기술 개발컴퓨터공학부 허혜문 박사과정 학생과 강유 교수가 작성한 논문이 제 15회 전자신문 ICT 논문 공모 대제전 최우수상을 수상하였다. 본 논문에서 다룬 전이 학습은 미리 학습된 모델을 활용하여 새로운 도메인에서의 인공지능 과업의 정확도를 높이는 기법을 의미한다. 전이 학습은 특히 새로운 도메인에서의 데이터가 부족할 때 미리 방대한 데이터로 학습한 모델을 활용하여 성능을 높일 수 있다는 점에서 요즘 많은 관심을 받고 있다.이번 논문에서는 새로운 도메인에 가장 적합한 모델을 빠르게 선택하여 전이학습을 하는 TMI라는 기법을 제안하였다. TMI는 미리 학습된 모델 중 최적의 모델 구조를 선택하거나, 가장 좋은 원본 데이터로 학습된 모델을 선택하는 등 다양한 전이 학습 환경에서 활용 가능하다. 한편, 본 연구는 과학기술정보통신부의 SW 스타랩 과제의 지원을 받았으며, 초 거대 모델을 빠르고 가볍지만 정확도를 유지하는 모델로 압축하는 모델 경량화를 위한 최적의 모델을 선택하는데 활용될 예정이다. “Fast and Accurate Transferability Measurement by Evaluating Intra-class Feature Variance”, Huiwen Xu, U Kang, ICCV 2023...
포스트 대표 이미지
포스트 대표 이미지

CS Professor Jaejin Lee’s teams win Samsung Computer Engineering Challenge 2023

Two teams from Professor Jaejin Lee’s laboratory won the prestigious awards at the “Samsung Computer Engineering Challenge 2023”. The challenge was hosted by Samsung SAIT and held from August 21 to October 20, 2023. Team H (Heehoon Kim, Junyeol Ryu) received the grand prize (1st place) and Team ShongShong2 (Jinpyo Kim, Daeyoung Park, Junsik Shin) received the excellence award (2nd place). The teams were awarded at Samsung AI Forum 2023.With the wide use of the large language models (LLMs) across various fields, accelerating its inference is extremely important. In line with this trend, the task of the challenge was to accelerate the Llama-30B inference on HellaSwag dataset using four NVIDIA V100 GPUs. The key was to utilize GPU compute capacity and hide communication overhead of model parallelism. The grand prize winning team, Team H,  proposed multiple novel techniques:- A batch scheduling algorithm that minimizes redundant computations for paddings - The optimizations such as fine-grained-batching for prefill phase to maximize pipeline utilization- The computation optimizations such as efficient use of KV cache and writing custom GPU kernels- Replacing GPU communication overhead with custom communication routineTeam H achieved 372.2 seconds, which is a 7.63x speedup over the baseline inference time, while preserving the reported accuracy close to 82.8% in Llama paper. “Participating in the competition allowed me to consider my personal research topics from different perspectives, providing a highly motivating experience”, said Jinpyo Kim, a member of Team ShongShong2.The two teams are awarded10 million Korean won and5 million Korean won, respectively....
포스트 대표 이미지

이재진 교수 연구진, "삼성 인공지능/컴퓨터공학 챌린지 2023" 컴퓨터공학 분야 수상

삼성전자 SAIT에서 주최하는 "삼성 인공지능/컴퓨터공학 챌린지 2023"의 컴퓨터공학 분야에서 최우수상, 우수상 수상시스템 및 알고리즘 최적화를 통해 대규모 언어 모델의 추론 성능 가속화이재진 교수 연구실 소속 두 개의 팀이 삼성전자 SAIT에서 주최하여 8월 21일부터 10월 20일까지 진행된 "삼성 인공지능/컴퓨터공학 챌린지 2023"의 컴퓨터공학 분야에서 각각 최우수상(TeamH : 김희훈, 유준열) 및 우수상(ShongShong2 : 김진표, 박대영, 신준식)을 수상하였다.대규모 언어 모델(Large Language Model)이 다양한 분야에서 높은 성과를 보여주면서 수요가 폭발적으로 증가하고 있어 대량의 GPU 자원을 활용하여 추론 시간을 줄이는 것이 중요해졌다. 이러한 추세에 맞추어, 올해로 3회를 맞는 "삼성 인공지능/컴퓨터공학 챌린지 2023"는 기존 인공지능 분야 외 컴퓨터공학 분야를 신설하였다. 컴퓨터공학 분야의 과제는 여러 개의 GPU를 활용하여 시스템 및 알고리즘 최적화를 통해 대규모 언어 모델의 정확도를 떨어뜨리지 않으면서 추론 성능을 높이는 것이었다.두 팀은 기존 GPU 연구 경험을 바탕으로 다양한 최적화를 적용하여 LLaMA-30B 모델로 HellaSwag 데이터셋 전체를 추론하는 시간을 400초 수준까지 가속하였다. 그 결과 최종 라운드에 선발된 10팀 중 각각 1위와 2위를 기록하는 성과를 냈다. 챌린지에 참여한 ShongShong2 팀의 김진표 학생은 "대회를 진행하면서 개인 연구 주제에 대해서도 다른 관점에서 고민해 볼 수 있었고, 큰 동기 부여를 해주는 경험이었다"고 밝혔다. 두 팀에는 부상으로 각각 상금 1,000만 원과 500만 원이 수여된다....
포스트 대표 이미지

이경진 박사수료생, 2023 Google PhD Fellowship Program 수상자로 선정

우리 학부 박사과정을 수료한 이경진 연구생(지도교수 이영기)이 2023 Google PhD Fellowship Program에서 Mobile Computing 분야의 수상자로 선정되었습니다.2009년부터 시작한 구글 PhD 펠로우십 프로그램(Google PhD Fellowship Program)은 모바일 컴퓨팅(Mobile Computing), 머신러닝(Machine Learning) 등 총 14개의 컴퓨터 과학 및 관련 분야에서 혁신적이고 우수한 연구를 수행하는 뛰어난 대학원생을 선정해 장학금, 연구 멘토링 그리고 구글 인턴쉽 기회를 제공하여 미래 기술을 개발하고 영향력을 끼칠 수 있는 연구를 할 수 있도록 지원하는 프로그램입니다.인간 중심 컴퓨터 시스템 연구실(HCS Lab)의 이경진 연구생은 5G를 포함한 모바일 컴퓨팅 분야에서 초실감형 3차원 텔레프레즌스를 위한 모바일 플랫폼을 개발하는 것을 목표로 하고 있으며, 이를 위해 3차원 데이터의 실시간 압축 및 스트리밍 기법, 자원 한정적 모바일 컴퓨팅 디바이스에서의 다중 센서 및 3차원 알고리즘 실시간 처리 기법, 애플리케이션 및 사용자 중심의 최적화 방법론 등을 다루고 있습니다.  [관련 홈페이지]이경진 박사수료생 프로필: https://kyungjin-lee.github.io/인간 중심 컴퓨터 시스템 연구실 홈페이지: https://hcs.snu.ac.kr/...
포스트 대표 이미지

강유 교수 연구진, 빠르고 정확한 전이 학습 기술 개발

 빠르고 정확한 전이 학습 기술 개발 미리 학습된 모델 중 대상 과업의 성능 향상에 가장 도움을 많이 주는 모델을 빠르게 찾는 기술강유 교수 연구진이 빠르고 정확한 전이 학습 기술을 개발하였다. 전이 학습은 미리 학습된 모델을 활용하여 새로운 도메인에서의 인공지능 과업에 적용하는 기법을 의미한다. 최근 방대한 데이터로 미리 학습한 모델을 새로운 과업에 적용하여 정확도를 높이는 사례가 늘어나면서 전이 학습의 중요성이 커지고 있다.본 연구에서는 여러 미리 학습된 모델 중에서, 새로운 도메인의 과업에 가장 적합한 모델을 빠르게 선택하여 전이학습을 하는 TMI 라는 기법을 제안하였다. TMI는 새로운 과업에 재학습을 하지 않고도 클래스 간 분산 정보를 활용하여 빠르게 최적의 전이학습용 모델을 찾아낸다.본 연구는 과학기술정보통신부의 SW 스타랩 과제의 지원을 받았으며, 거대 모델을 빠르고 가벼운 모델로 압축하는 모델 경량화를 위한 최적의 모델을 선택하는데 활용될 예정이다. 연구 결과는 2023년 10월에 열린 최우수 인공지능 학회인 ICCV 2023에서 발표되었다.▲ 미리 학습된 모델 중 대 상과업의 성능 향상에 가장 도움을 많이 주는 모델을 빠르게 찾는 기술 개발“Fast and Accurate Transferability Measurement by Evaluating Intra-class Feature Variance”, Huiwen Xu, U Kang, ICCV 2023...
포스트 대표 이미지
포스트 대표 이미지