1. 소식
  2. arrow_forward_ios

새 소식

태그
검색
전체
포스트 대표 이미지
포스트 대표 이미지

제79회 전기 컴퓨터공학부 졸업기념행사

제79회 전기 컴퓨터공학부 졸업기념행사를 2025년 2월 26일(수) 15시, 301동 118호에서 개최하였습니다. 이번 졸업기념행사는 총 졸업생 99명(학사 52명, 석사 29명, 박사 18명)을 대상으로 한 행사였으며, 우수 학위논문상과 굳센 인재상(Young Courage Award) 수여식이 함께 진행되었습니다.컴퓨터공학부 우수학위논문상은 김민정 박사(지도교수: 김건희), 박은화 박사(지도교수: 김선), 박정남 박사(지도교수: 원정담), 천명준 박사(지도교수: 김지홍), 로망 스토라이 석사(지도교수: 황승원), 김도현 학사(지도교수: 송용수), 민(Minh) 학사(지도교수: Chenglin Fan), 정다운 학사(지도교수: 하순회), 진채연 학사(지도교수: 김건희)에게 수여되었습니다. 굳센 인재상(Young Courage Award)는 대학 생활 동안 주변인 및 사회적 약자에게 긍정적인 영향을 미치고, 어려움을 극복하고 더 나은 미래를 만들어 나갈 수 있는 잠재력을 보여준 학생에게 수여되는 상으로, 김준혁, 민(Minh), 조승한 학생에게 수여되었습니다.​이번 행사에서는 학부장님의 축사와 대표 학생의 답사 이후에 오성진 테너가 졸업을 축하하는 의미에서 축가를 부르며 행사를 아름답게 장식하였습니다. 졸업생들과 가족, 친지, 교수 및 재학생 등 총 300여 명이 참석하여 졸업생들의 밝은 미래를 응원하였습니다....
포스트 대표 이미지

컴퓨터분야 쉬운전문용어를 보급한다. 제정위원회 위원장 이광근 교수

"울타리없는 세계경쟁에서 우리 학술이 일류로 앞서가는 장기전 비밀병기요?쉬운 전문용어입니다."이광근 교수가 위원장으로 있는 한국정보과학회 쉬운전문용어 제정위원회가 2024년 1월부터 조직되어 활동하고 있다. 한국정보과학회 산하 각 분야 연구회 소속 12명의 교수들과 국어학 및 국립국어원 전문가가 참여하고 있다. "억지 순우리말? 아닙니다. 소리뿐인 한문투? 아닙니다. 쉬운말 입니다.""외부로 글로벌하게 영어로 소통하기는 당연하고요. 내부로는 우리의 인력과 지력의 저변을 두텁게 하는데 모국어 쉬운말로 소통하기는 당연합니다. 요즘 k-컬쳐의 힘이 어디에서 오는지를 보면 당연합니다.""쉬운전문용어로 저변 인구를 넓히고 지력을 축적한 문화권이 늘 혁신을 이끌고 선두로 나섭니다. 학술이나 문화의 역사가 늘 그런식이었죠." 위원회 결과물들은 포털 https://easyword.kr에 모이고 있다. 지금까지 제안/발굴된 1100여개 쉬운 전문용어들이 모여있다. 이 포탈에는 누구나 쉬운전문용어를 찾고 참여하고 제안할 수 있다. https://easyword.kr/why에는 이런 노력의 배경, 쉬운전문용어 만들때 원칙, 쓰이는 용도가 안내되어 있다. 위원회 취지를 여기 인용하면 다음과 같다:전문지식이 전문 학자들에만 머문다면 그 분야는 그렇게 쇠퇴할 수 있다. 저변이 좁아지고 깊은 공부를 달성하는 인구는 그만큼 쪼그라들 수 있다. 전문지식이 보다 많은 사람들에게 널리 퍼진다면, 그래서 더 발전할 힘이 많이 모이는 활기찬 선순환이 만들어진다면. 그러면 그 분야를 밀어올리는 힘은 나날이 커질 수 있다. 더 많은 사람들이 더 나은 성과를 위한 문제제기와 답안제안에 참여할 수 있고, 전문가의 성과는 더 널리 이해되고 더 점검받을 수 있게된다. 그러므로 쉬운 전문용어가 어떨까. 전문개념의 핵심을 쉽게 전달해주는 전문용어. 학술은 학술의 언어를 --우리로서는 소리로만 읽을 원어나 한문을-- 사용해야만 정확하고 정밀하고 경제적일까? 아무리 정교한 전문지식이라도 쉬운 일상어로 짧고 정밀하게 전달될 수 있다. 시에서 평범한 언어로 밀도 있게 전달되는 정밀한 느낌을 겪으며 짐작되는 바이다. 쉬운 전문용어가 활발히 만들어지고 테스트되는 생태계. 이것이 울타리없는 세계경쟁에서 우리를 깊고 높게 키워줄 비옥한 토양이다. 시끌벅적 쉬운말로 하는 학술의 재미는 말할것도 없다....
포스트 대표 이미지

이재진 교수 연구진 창업기업 모레, '최강 한국어 성능' 갖춘 102B 오픈 소스 모델 공개..."GPT-4o·큐원2 모두 능가"

이재진 교수 연구진이 창업한 인공지능(AI) 인프라 솔루션 전문 모레(MOREH, 대표 조강원)는 자체 개발 한국어 파운데이션 대형언어모델(LLM) ‘라마3-모티프-102B(Llama-3-Motif-102B)'를 허깅페이스에 오픈 소스로 공개한다고 3일 밝혔다.​모델 명칭에서도 알 수 있듯 '라마3.0 70B' 모델을 기반으로 한다. 1020억개로 매개변수를 대폭 확대한 만큼 새로운 파운데이션 모델로 볼 수 있으며, 특히 '한국어 답변 성능 강화'에 초점을 맞췄다고 전했다. ​국내 모델 전부가 매개변수를 밝히지는 않았기 때문에 공식적으로 비교할 수는 없지만, 국내 모델 중 가장 큰 모델일 것이라고 밝혔다. 업계에서는 네이버의 '하이퍼클로바X'가 70~80B로 추정하고 있다.​모티프는 사전 훈련 언어모델과 지시 사항을 따르는 데 특화한 인스트럭트 모델 등 2가지 버전으로 공개됐다. ​임정환 모레 AI 디렉터는 "모델 개발 목표는 크게 세개의 프로세스로 구성됐다"라고 밝혔다.​우선 "기존 모델(라마)이 커버하는 스펙트럼 안에서 성능을 극대화하는 경우로, 이는 오픈 LLM 리더보드 1위를 통해 이미 달성한 바 있다"라고 말했다.​실제 모레는 올해 초 영어 LLM 'MoMo-70B'을 선보여 허깅페이스의 글로벌 ‘오픈 LLM 리더보드’에서 77.29점을 기록, 세계 1위를 기록한 바 있다. 당시에는 모델 개발 착수에서 1위 달성까지 단 3개월 만에 거둔 성과라고 설명했다.​임정환 디렉터는 "이런 개발 과정에서 얻은 노하우를 바탕으로 더 복잡한 문장(depth)을 학습하고, 대화에서 유려한 표현(width)을 만들어내는 모티프를  완성할 수 있었다"라며 "이는 두번째 프로세스인 '기존 모델 이상의 성과를 만들어 내는 것'에 해당한다"라고 전했다. ​이어 "라마3 70B는 한국어 성능이 어느 정도 갖춰진 것은 사실이지만, 영어에는 훨씬 못 미치는 게 사실"이라며 "한국어 성능을 최대로 끌어올린 것이 이번 오픈 소스 모델의 최종 목표"라고 말했다.​​2024년 12월 3일 기준 KMMLU 벤치마크 성능 비교표다. KMMLU는 기존 평가에 활용되는 문항을 단순히 한국어로 번역한 것이 아니라 인문학, 사회학, 과학-기술 등 45개 분야에서 전문가 수준의 지식을 묻는 3만5030개 문항으로 구성돼 있다.(사진=모레)​실제 한국판 AI 평가 체계인 ‘KMMLU’ 벤치마크에서 모티프는 64.74점으로 1위를 차지했다. 이는 기반 모델인 라마 3 70B의 54.5점을 10점이상 뛰어넘은 결과다.​또 오픈AI의 'GPT-4o(64.11점)'와 오픈 소스 최강으로 알려진 알리바바의 '큐원2(64.1)'까지 넘어섰다.​LG AI연구원이나 네이버, 업스테이지 등의 모델보다 뛰어난 한국어 벤치마크 점수를 기록했다.​이런 성능은 1870억 토큰에 달하는 방대한 양의 한국어 학습량과 독자적인 학습 기법을 동원했다는 것으로 설명했다. 웹상에서 수집 가능한 글뿐만 아니라, 공개된 전문 분야 문서(국내 특허 및 연구 보고서 등)를 학습 데이터로 활용했다. 또 국내 최대 규모 한국어 정제 데이터를 확보해 학습에 포함했다.​무엇보다 AI 모델 개발을 위한 최적의 인프라와 AI 플랫폼 기술을 자체 개발해 보유하고 있기 때문이라고 전했다. 모레의 ‘모아이(MoAI)’ 플랫폼은 고도의 병렬화 처리 기법을 통해 LLM을 효율적으로 개발하고 학습할 수 있도록 돕는다.​실제로 모레는 GPU 가상화 기술 등 소프트웨어 기술로 글로벌 반도체 기업 텐스토렌트와 협업을 진행 중이다. 이는 엔비디아의 GPU와 쿠다 소프트웨어 독점 구조를 넘어서는 것을 목표로 한다. ​추론에 집중하는 다른 후발주자들과는 달리, 텐스토렌트 NPU와 모레 SW를 결합한 AI 데이터센터 솔루션은 추론뿐만 아니라 파운데이션 모델 학습까지 폭넓게 사용할 수 있다고 강조했다. 이미 상당한 개발을 진행, 2025년 상반기 중에 상용화 및 출시할 예정이라고 밝혔다. ​임정환 AI 디렉터는 "이처럼 모레는 글로벌 빅테크와의 경쟁에 나서고 있다"라고 강조했다.​또 "모델 개발 측면에서 세번째이자 최종 목표는 다른 모델을 기반으로 하는 것이 아니라 처음부터 완전한 한국형 파운데이션 LLM을 만들어내는 것"이라고 말했다. ​이를 가속화하기 위해 자회사 설립도 계획 중이다. 특히 '멀티모달모델 개발'도 주요 목표 중 하나라고 전했다. 파운데이션 모델의 경우 작은 규모부터 시작해 점차적으로 키워나갈 예정이다. 때문에 '소형' 매개변수 모델도 충분히 가능성 있는 미래라고 전했다. 의료, 법률, 금융 등 전문 영역에 특화한 LLM 개발도 목표다.​조강원 모레 대표는 "고성능 LLM을 누구나 활용할 수 있도록 오픈 소스로 공개하는 것은 무엇보다 국내 AI 생태계가 보다 발전적인 방향으로 성장, 소버린 AI에 기여하기 위함이다"라며 “국내 IT 기업이 LLM을 오픈 소스로 공개하는 매우 이례적인 사례인 만큼 많은 기업들이 적극 활용해주시면 좋겠다”라고 말했다. ​한편, 모레는 인재 채용에도 적극 나서고 있다. "글로벌 빅테크 수준의 파운데이션 모델을 갖추는 여정에 많은 관심을 부탁한다"라고 전했다. ​...
포스트 대표 이미지

박재식 교수 연구진, 빠르고 정확한 드래그 기반 이미지 에디팅 기술 개발로 세계 선도

1초 내외로 실행되는 feedforward 방식의 초고속 드래그 기반 이미지 편집 파이프라인 개발최신 드래그 기반 이미지 편집 기술 대비 메모리 사용량 5배 절감 및 처리 속도 75배 향상실생활 비디오 데이터로 학습된 두 종류의 생성모델 (GAN/Diffusion)의 조합을 통해, 자연스럽고 사실적인 이미지 편집 구현​박재식 교수 연구진이 실시간 수준의 드래그 기반 이미지 편집을 가능하게 하는 InstantDrag 기술을 개발하였다. 드래그 기반 이미지 에디팅 (drag-based image editing)은 사용자가 이미지의 특정 부분을 드래그하면, 생길 수 있는 움직임을 고려하여 자연스럽게 이미지를 편집하는 기술이다. 기존의 드래그 기반 이미지 편집 기술들은 이미지 인버전 (inversion)과 이미지 별 최적화 (per-image optimization) 방식에 의존하여 편집 시간이 길고 많은 계산 자원을 필요로 했다. 또한 움직일 수 있는 영역을 지정하는 마스크 (movable region mask)와 텍스트 프롬프트와 같은 추가 입력이 필요해 편의성이 떨어졌다. 연구진은 이러한 문제를 해결하기 위해 최적화 과정이 필요 없는 feedforward 방식의 편집 파이프라인을 제안하였다. 이미지 편집 과정을 움직임 생성 (motion generation)과 움직임 기반 이미지 생성 (motion-conditioned image generation) 두 단계로 분리하는 새로운 접근법을 도입했으며, 사용자 편의성 (interactivity)을 극대화하기 위해 원본 이미지와 드래그 명령어만으로 동작하는 알고리즘을 개발했다. InstantDrag의 핵심 구성 요소는 다음과 같은 두 개의 네트워크이다:FlowGen: 적대적 생성 신경망 (GAN) 기반으로, 사용자의 드래그 입력을 정교한 움직임 정보(dense optical flow)로 변환FlowDiffusion: 확산 모델 (Diffusion) 기반으로, 입력 이미지와 생성된 움직임 정보를 바탕으로 고품질 이미지 편집 수행실제 비디오 데이터로 학습된 위 두 네트워크의 결합으로, InstantDrag 파이프라인은 추가적인 마스크나 텍스트 프롬프트 입력 없이도 1초 이내에 자연스러운 이미지 편집이 가능하다. 얼굴 영상 데이터셋과 일반적인 장면들에서의 실험을 통해, 우수한 편집 품질을 유지하면서도 기존 기술 대비 메모리 사용량은 5배 감소하고 처리 속도는 75배 향상됨을 입증했다. 본 연구는 컴퓨터 그래픽스 분야 최우수 학술대회 중 하나인 SIGGRAPH Asia 2024에 발표될 예정이다.​"InstantDrag: Improving Interactivity in Drag-based Image Editing", Joonghyuk Shin, Daehyeon Choi, Jaesik Park, SIGGRAPH Asia Conference Papers 2024....
포스트 대표 이미지

이재진 교수 연구진, 삼성 인공지능/컴퓨터공학 챌린지 2024 최우수상 수상

​이재진 교수 연구실 소속의 팀(ShallowSpeed : 배수민, 강민규, 김진표)이 삼성전자 SAIT에서 주최하여 8월 1일부터 10월 6일까지 진행된 "삼성 인공지능/컴퓨터공학 챌린지 2024″의 컴퓨터공학 분야에서 최우수상을 수상하였다. 대규모 언어 모델(Large Language Model)이 다양한 분야에서 높은 성과를 보여주면서 수요가 폭발적으로 증가함에 따라 On-device 시스템에서 제한된 자원으로 추론하는 것이 중요해졌다. 이러한 추세에 맞추어, 올해로 4회를 맞는 "삼성 인공지능/컴퓨터공학 챌린지 2024″는 컴퓨터공학 분야 과제에서 jetson 디바이스 내 한정된 메모리와 GPU를 활용하여 시스템 및 알고리즘 최적화를 통해 대규모 언어 모델의 정확도를 떨어뜨리지 않으면서 추론 성능을 높이는 것이었다. 해당 팀은 기존 GPU 연구 경험을 바탕으로 다양한 최적화를 적용하여 Phi-3-medium 모델로 text generation 추론 시간을 단축하였고. 그 결과 baseline 대비 200배 이상 가속하여 1위를 기록하는 성과를 내었다. 챌린지에 참여한 ShallowSpeed 팀의 배수민 학생은 "이번 챌린지를 통해 새로 접한 환경에서 문제를 해결해 나가는 능력을 키울 수 있었고, 최적화를 진행해나가면서 새로운 지식들을 얻어갈 수 있었던 유익한 경험이었다"고 밝혔다. 최우수상 팀에는 부상으로 상금 1,000만 원이 수여된다....
포스트 대표 이미지
포스트 대표 이미지
포스트 대표 이미지

강유 교수 연구진, 다양화된 개인화 순차 추천 기술 개발

​강유 교수 연구진이 다양성을 고려한 개인화 순차 추천 기술을 개발하였다. 추천 다양성이란 플랫폼에 존재하는 상품들을 소외되는 항목 없이 골고루 사용자들에게 추천하는 것을 의미한다. 추천에서 다양성을 높이는 것은 온라인 상업 플랫폼의 수익을 극대화하기 위한 핵심 요소로 최근 다양화 추천과 관련된 연구에 대한 관심도가 높아지고 있다.본 연구에서는 사용자간 순서를 고려한 다양화 추천 기술인 SAPID를 제안하였다. 기존 다양화 추천에 대한 연구는 모든 사용자에 대한 정보를 사전에 알고 있을 때 각 사용자들이 어떤 상품을 얼마나 좋아하는지를 취합하여 선호도가 비슷한 상품 중 다른 사용자들이 좋아하지 않는 아이템을 추천하는 방식으로 다양성을 높이는 방향으로 접근해왔다. 그러나 현실 시나리오에서는 미래의 사용자가 어떤 상품을 선호할지 사전에 알 수 없는 문제가 있다. SAPID는 이를 극복하기 위해 이전 데이터를 바탕으로 미래의 상품별 수요를 예측하여 현재 어떤 상품을 추천해야 다양성이 높아질지 판단한다. 본 연구는 정헌재단의 학술 연구 지원을 받았으며, 연구 결과는 2025년 3월 데이터 마이닝 및 머신 러닝 학회인 WSDM2025에서 발표될 예정이다....
포스트 대표 이미지