1. Community
  2. arrow_forward_ios

News

Tags
Search
all

박재식 교수 연구진, 빠르고 정확한 드래그 기반 이미지 에디팅 기술 개발로 세계 선도

1초 내외로 실행되는 feedforward 방식의 초고속 드래그 기반 이미지 편집 파이프라인 개발최신 드래그 기반 이미지 편집 기술 대비 메모리 사용량 5배 절감 및 처리 속도 75배 향상실생활 비디오 데이터로 학습된 두 종류의 생성모델 (GAN/Diffusion)의 조합을 통해, 자연스럽고 사실적인 이미지 편집 구현​박재식 교수 연구진이 실시간 수준의 드래그 기반 이미지 편집을 가능하게 하는 InstantDrag 기술을 개발하였다. 드래그 기반 이미지 에디팅 (drag-based image editing)은 사용자가 이미지의 특정 부분을 드래그하면, 생길 수 있는 움직임을 고려하여 자연스럽게 이미지를 편집하는 기술이다. 기존의 드래그 기반 이미지 편집 기술들은 이미지 인버전 (inversion)과 이미지 별 최적화 (per-image optimization) 방식에 의존하여 편집 시간이 길고 많은 계산 자원을 필요로 했다. 또한 움직일 수 있는 영역을 지정하는 마스크 (movable region mask)와 텍스트 프롬프트와 같은 추가 입력이 필요해 편의성이 떨어졌다. 연구진은 이러한 문제를 해결하기 위해 최적화 과정이 필요 없는 feedforward 방식의 편집 파이프라인을 제안하였다. 이미지 편집 과정을 움직임 생성 (motion generation)과 움직임 기반 이미지 생성 (motion-conditioned image generation) 두 단계로 분리하는 새로운 접근법을 도입했으며, 사용자 편의성 (interactivity)을 극대화하기 위해 원본 이미지와 드래그 명령어만으로 동작하는 알고리즘을 개발했다. InstantDrag의 핵심 구성 요소는 다음과 같은 두 개의 네트워크이다:FlowGen: 적대적 생성 신경망 (GAN) 기반으로, 사용자의 드래그 입력을 정교한 움직임 정보(dense optical flow)로 변환FlowDiffusion: 확산 모델 (Diffusion) 기반으로, 입력 이미지와 생성된 움직임 정보를 바탕으로 고품질 이미지 편집 수행실제 비디오 데이터로 학습된 위 두 네트워크의 결합으로, InstantDrag 파이프라인은 추가적인 마스크나 텍스트 프롬프트 입력 없이도 1초 이내에 자연스러운 이미지 편집이 가능하다. 얼굴 영상 데이터셋과 일반적인 장면들에서의 실험을 통해, 우수한 편집 품질을 유지하면서도 기존 기술 대비 메모리 사용량은 5배 감소하고 처리 속도는 75배 향상됨을 입증했다. 본 연구는 컴퓨터 그래픽스 분야 최우수 학술대회 중 하나인 SIGGRAPH Asia 2024에 발표될 예정이다.​"InstantDrag: Improving Interactivity in Drag-based Image Editing", Joonghyuk Shin, Daehyeon Choi, Jaesik Park, SIGGRAPH Asia Conference Papers 2024....
포스트 대표 이미지
포스트 대표 이미지

이재진 교수 연구진, 삼성 인공지능/컴퓨터공학 챌린지 2024 최우수상 수상

​이재진 교수 연구실 소속의 팀(ShallowSpeed : 배수민, 강민규, 김진표)이 삼성전자 SAIT에서 주최하여 8월 1일부터 10월 6일까지 진행된 "삼성 인공지능/컴퓨터공학 챌린지 2024″의 컴퓨터공학 분야에서 최우수상을 수상하였다. 대규모 언어 모델(Large Language Model)이 다양한 분야에서 높은 성과를 보여주면서 수요가 폭발적으로 증가함에 따라 On-device 시스템에서 제한된 자원으로 추론하는 것이 중요해졌다. 이러한 추세에 맞추어, 올해로 4회를 맞는 "삼성 인공지능/컴퓨터공학 챌린지 2024″는 컴퓨터공학 분야 과제에서 jetson 디바이스 내 한정된 메모리와 GPU를 활용하여 시스템 및 알고리즘 최적화를 통해 대규모 언어 모델의 정확도를 떨어뜨리지 않으면서 추론 성능을 높이는 것이었다. 해당 팀은 기존 GPU 연구 경험을 바탕으로 다양한 최적화를 적용하여 Phi-3-medium 모델로 text generation 추론 시간을 단축하였고. 그 결과 baseline 대비 200배 이상 가속하여 1위를 기록하는 성과를 내었다. 챌린지에 참여한 ShallowSpeed 팀의 배수민 학생은 "이번 챌린지를 통해 새로 접한 환경에서 문제를 해결해 나가는 능력을 키울 수 있었고, 최적화를 진행해나가면서 새로운 지식들을 얻어갈 수 있었던 유익한 경험이었다"고 밝혔다. 최우수상 팀에는 부상으로 상금 1,000만 원이 수여된다....
포스트 대표 이미지
포스트 대표 이미지

강유 교수 연구진, 다양화된 개인화 순차 추천 기술 개발

​강유 교수 연구진이 다양성을 고려한 개인화 순차 추천 기술을 개발하였다. 추천 다양성이란 플랫폼에 존재하는 상품들을 소외되는 항목 없이 골고루 사용자들에게 추천하는 것을 의미한다. 추천에서 다양성을 높이는 것은 온라인 상업 플랫폼의 수익을 극대화하기 위한 핵심 요소로 최근 다양화 추천과 관련된 연구에 대한 관심도가 높아지고 있다.본 연구에서는 사용자간 순서를 고려한 다양화 추천 기술인 SAPID를 제안하였다. 기존 다양화 추천에 대한 연구는 모든 사용자에 대한 정보를 사전에 알고 있을 때 각 사용자들이 어떤 상품을 얼마나 좋아하는지를 취합하여 선호도가 비슷한 상품 중 다른 사용자들이 좋아하지 않는 아이템을 추천하는 방식으로 다양성을 높이는 방향으로 접근해왔다. 그러나 현실 시나리오에서는 미래의 사용자가 어떤 상품을 선호할지 사전에 알 수 없는 문제가 있다. SAPID는 이를 극복하기 위해 이전 데이터를 바탕으로 미래의 상품별 수요를 예측하여 현재 어떤 상품을 추천해야 다양성이 높아질지 판단한다. 본 연구는 정헌재단의 학술 연구 지원을 받았으며, 연구 결과는 2025년 3월 데이터 마이닝 및 머신 러닝 학회인 WSDM2025에서 발표될 예정이다....
포스트 대표 이미지
포스트 대표 이미지

제78회 후기 컴퓨터공학부 졸업기념행사

제78회 후기 컴퓨터공학부 졸업기념행사를 2024년 8월 29일(목) 14시, 26동 B101호에서 개최하였습니다. 이번 졸업기념행사는 총 졸업생 59명 중 39명(학사 24명, 석사 7명, 박사 8명)이 참석하였으며, 우수논문상과 'Young Courage Award' 수여식이 함께 진행되었습니다.컴퓨터공학부 우수학위논문상은 박연홍 박사(지도교수: 이재욱), 이수찬 박사(지도교수: 김건희), 정현영 박사(지도교수: 유승주), 최유진 석사(지도교수: 문봉기), 파티마 석사(지도교수: 김건희), 신원석 석사(지도교수: 박근수), 권민규 학사(지도교수: 이영기), 성용운 학사(지도교수: 권태경), 박준영 학사(지도교수: 주한별)에게 수여되었습니다. ‘Young Courage Award’는 대학 생활 동안 주변인 및 사회적 약자에게 긍정적인 영향을 미치고, 어려움을 극복하고 더 나은 미래를 만들어 나갈 수 있는 잠재력을 보여준 학생에게 수여되는 상으로, 파티마, 신현지, 타쉬, 홍용기 학생에게 수여되었습니다.​이번 행사에서는 학부장님의 축사와 대표 학생의 답사 이후에 오성진 테너가 졸업을 축하하는 의미에서 축가를 부르며 행사를 아름답게 장식하였습니다. 졸업생들과 가족, 친지, 교수 및 재학생 등 총 150여 명이 참석하여 졸업생들의 밝은 미래를 응원하였습니다....
포스트 대표 이미지

주한별 교수 연구실, 과학기술정보통신부에서 2024년도 SW스타랩으로 선정

과학기술정보통신부에서 지원하는 2024년도 SW스타랩에 주한별 교수 연구실이 선정됨SW스타랩은 소프트웨어(SW) 분야 우수 기초·원천기술을 보유한 대학 연구실을 지원하는 사업임주한별 교수 연구실이 과학기술정보통신부에서 지원하는 2024년도 SW스타랩으로 선정되었다. SW스타랩은 과학기술정보통신부에서 소프트웨어(SW) 분야 우수 기초·원천기술을 보유한 대학 연구실을 지원하는 사업이다. SW스타랩​으로 선정된 연구실은 연구 성과에 따라 최장 8년 동안 안정적으로 연구할 수 있도록 지원을 받는다. 올해 공모에는 20개 대학 총 48개의 연구실이 신청(경쟁률 4.8:1)했으며, 고려대, 서울대, 포항공대, 한국과학기술원(KAIST), 울산과학기술원(UNIST) 등 5개 대학 총 10개의 연구실이 최종 선정됐다. 인공지능(AI) 분야에 선정된 주한별 교수 연구실에서는 ‘인간의 3차원 외형, 모션, 사회적 행동을 모방하는 생성형 디지털 휴먼 AI 모델 개발’이라는 주제로 연구를 진행한다.SW스타랩은 2015년부터 지난해까지 석사 474명, 박사 218명 등 총 778명의 고급인력을 배출했다. 지난해까지 최근 3년간 SCIE급 저널에 연간 60여편의 논문을 게재하고, (최)우수학술대회에서 연간 90여편의 논문을 발표하는 등 연구 성과를 창출했다. 특히 국제학술대회 최우수논문상 수상과 국가 연구개발 100선 다수 선정 등을 이뤘고, 깃허브 등을 통해 연평균 60여 건의 공개SW를 전 세계에 공유함으로써 국내 SW 연구 위상을 높였다.출처 :  1) https://www.edaily.co.kr/News/Read?newsId=02273046638986664&mediaCodeNo=257&OutLnkChk=Y           2) https://www.dt.co.kr/contents.html?article_no=2024081202109931081008&ref=naver...
포스트 대표 이미지
포스트 대표 이미지

이재욱 교수 연구진, 메모리 효율적인 Any-Precision LLM 기술로 세계 선도

하나의 n-비트 대규모 언어모델(LLM)에 여러 정밀도의 모델(예: n, n-1, ..., 4, 3-비트)을 중첩하는 알고리즘 개발상황에 따라 동적으로 선택된 정밀도에 맞춰 LLM을 효율적으로 실행하는 소프트웨어 엔진 개발제한된 메모리에서 서로 다른 정확도-속도 상충관계를 갖는 멀티 모델들을 지원하여, LLM 기반 어플리케이션의 사용자 경험을 개선ICML 2024 Oral Presentation (최상위 1.5%) 논문 선정​이재욱 교수 연구진이 LLM 기반 어플리케이션의 사용자 경험을 획기적으로 향상시킬 수 있는 핵심기술을 개발하였다.​LLM을 운용할 때, 빠른 응답이 필요한 쿼리와 응답 시간이 크게 중요하지 않은 쿼리가 뒤섞여 들어올 수 있다. 예를 들어, 챗봇과 같은 대화형 응용 프로그램에서는 매우 빠른 응답이 필요하지만, 문서 분석과 같은 작업에서는 느린 응답도 허용되는 경우가 있다. 또한, 시스템의 부하에 따라 응답의 품질과 지연시간의 상충관계(tradeoff)를 조정하고자 할 수도 있다. 이렇게 다양한 응답 시간 요구사항을 가진 쿼리들을 효과적으로 처리하는 것은 사용자 경험을 개선하는 데 매우 중요하다. 이를 위해서는 여러 크기의 모델을 준비하고, 각 쿼리에 맞는 모델을 동적으로 선택해 사용하는 것이 유리하다. 그러나, 이러한 방법은 여러 버전의 모델을 저장하기 위한 메모리 사용량을 증가시킨다.​이 문제를 해결하기 위해 이재욱 교수 연구팀은 LLM에 특화된 임의 정밀도 양자화(any-precision quantization) 기술을 세계 최초로 개발했다. 제안한 기법은 마치 러시아의 마트료시카(Matryoshka) 인형처럼, n비트 모델에 그보다 낮은 정밀도를 가진 n-1, n-2, … 비트 모델을 중첩(overlay)하여 적은 메모리로 다양한 정밀도의 모델 운용을 가능하게 한다. 이 기술을 활용하면, n비트로 양자화된 모델 하나만 메모리에 저장해 두고, n비트 모델의 각 매개변수에서 최상위 비트의 일부만 사용하여 낮은 정밀도의 모델도 효과적으로 지원할 수 있다. 연구팀은 이러한 개념을 매개변수가 매우 많은 LLM에 쉽게 적용할 수 있도록, 재학습이 필요 없는 빠르고 가벼운 임의 정밀도 양자화 알고리즘을 고안했다. 또한, 이렇게 완성된 Any-Precision LLM을 효율적으로 실행할 수 있는 새로운 소프트웨어 엔진을 개발하여, 세계 최고 수준의 모델 성능 및 추론 속도를 달성했다.​이 연구는 LLM이 다양한 어플리케이션에서 높은 수준의 사용자 경험을 제공하는 데 핵심 기술로 활용될 것으로 기대된다. 해당 논문은 오는 7월에 개최되는 머신러닝 분야 최고 권위의 학회인 ICML 2024에서 발표될 예정이다. 특히 전체 제출 논문 중 최상위 1.5%만 선정되는 구두 발표(Oral Presentation) 세션에 채택되어 그 우수성을 인정받았다."Any-Precision LLM: Low-Cost Deployment of Multiple, Different-Sized LLMs​", Yeonhong Park, Jake Hyun, SangLyul Cho, Bonggeun Sim, Jae W. Lee, ICML 2024.​...
포스트 대표 이미지