1. Community
  2. arrow_forward_ios

News

Tags
Search
all

송현오 교수 연구진 NeurIPS oral presentation 논문 선정 (상위 0.35%, 77/21575)

NeurIPS 2025 3편 (이중 1편은 Oral Presentation, 최상위 0.35% = 77/21,575 선정) 및 TMLR 1편 게재문맥 복원 기반 중요도 정량화를 활용한 질의 비의존적 KV 캐시 압축 기법 개발 (oral)최적 비트 할당을 위한 분수 비트 LLM 양자화기 집합 및 혼합 비트 양자화 기법 개발강화 자기학습을 통한 언어 모델 기반 탐색 기법 개발대규모 시스템에서 표적 변수에 대한 인과 변수들을 효율적으로 추론하는 기계학습 기반 인과 추론 기법 개발송현오 교수 연구진이 질의 비의존적 KV 캐시 압축, 최적 비트 할당을 위한 분수 비트 LLM 양자화기, 강화 자기학습을 통한 언어 모델 기반 탐색 기법, 기계학습 기반 인과 추론 기법을 개발하였다.1. 질의 비의존적 KV 캐시 압축 [1] (Oral Presentation, 최상위 0.35%): 본 논문은 LLM 추론 과정의 메모리와 답변 속도 향상을 위한 KV 캐시 압축 기법인 KVzip을 제안한다. ChatGPT와 같은 Transformer LLM은 사용자 정보나 이전 대화 내용과 같은 맥락 정보를 KV 쌍의 형태로 캐싱한다. KVzip은 이러한 맥락 정보를 담고 있는 KV 쌍의 중요도를 측정하고, 중요도가 낮은 KV 쌍을 캐시로부터 방출 함으로써 압축을 수행한다. 기존 기법들의 경우 압축 과정에서 LLM 추론 성능이 크게 감소하지만, KVzip은 30% 압축 수준까지 임의의 하위 태스크에 대한 성능을 유지한다. 특히 LLaMA, Qwen, Gemma와 같은 최첨단 언어모델의 수십 GB에 달하는 KV 캐시의 크기를 최대 4배까지 무손실로 줄이며, 디코딩 속도를 2배 향상하는 데 성공하였다. 아울러 KVzip은 NVIDIA의 KV 캐시 압축 라이브러리인 KVPress에 통합되어 최고 수준의 성능을 보이며, 사용자는 KVPress를 이용하여 간편하게 KVzip을 사용할 수 있다. 본 기술은 기업 규모의 대규모 검색 증강 (RAG) 시스템, 사용자의 개인화된 맥락을 사용하는 시스템 등에서 특별히 유용하게 적용될 수 있다.2. 최적 비트 할당을 위한 분수 비트 LLM 양자화기 [2]: 본 논문은 LLM 경량화를 위해 분수 비트 양자화기 집합 Q-Palette와 이를 활용한 혼합 비트 양자화 기법을 제안한다. 최근 모델 가중치의 이상치를 완화하기 위해 가중치를 회전 변환하는 기법이 활발히 연구되고 있다. 본 연구에서는 회전 변환을 통해 가우시안화된 가중치 분포를 전제로 정보이론적으로 최적의 비트 할당을 분석하고, 이에 가까운 비트 할당을 위해 더욱 조밀한 분수 비트를 지원하는 양자화기 집합 Q-Palette를 개발하였다. 또한 비트 할당 과정에서 레이어 병합까지 함께 고려하는 혼합 비트 양자화 기법을 통해 추론 속도를 더욱 향상시켰다. 그 결과, 기존 NormalFloat 대비 적은 정확도 손실로 디코딩 속도를 36% 향상하는 데 성공하였다.3. 강화 자기학습을 통한 언어 모델 기반 탐색 [3]: 본 논문은 거대 언어 모델의 탐색 효율을 향상시키기 위한 강화학습 알고리즘인 Guided-ReST를 제안한다. OpenAI o1과 같은 추론 특화 모델은 광범위한 탐색을 통해 높은 성능을 달성하지만, 이는 종종 비효율적인 탐색 경로와 불필요한 토큰 소모를 야기하는 한계가 있다. 이러한 문제를 해결하기 위해, 본 연구는 고품질의 합성 탐색 데이터를 생성하고 이를 바탕으로 모델이 스스로 더 나은 탐색 전략을 학습하도록 유도하는 새로운 강화 학습 알고리즘을 개발했다. 제안된 기법은 고난도 연산 추론 벤치마크인 Countdown에서 정확도와 추론 효율을 각각 10%, 50%씩 크게 향상시켰고, MATH-500과 AMC-23 같은 더욱 복잡한 실제 수학 문제에서도 그 확장성을 입증하였다.4. 대규모 시스템에서도 효율적인 인과 추론 [4]: 본 논문은 대규모 시스템에서 전체 인과 그래프 추론 없이 표적 변수(target variable)의 인과 변수(causal variable)를 추론하는 지도학습 기반 인과 추론 방법을 제안한다. 기존 인과 추론 기법은 전체 인과 그래프 추론을 필요로 해 변수 수가 많은 거대 규모 시스템에서 연산 부담이 컸다. 본 연구는 시뮬레이션 데이터로 학습한 신경망 모델과 샘플링 기반 추론(subsampled inference) 전략을 적용해 변수 수 증가에 따라 알고리즘 복잡도가 선형적으로 확장될 수 있도록 설계하였다. 그 결과 대규모 유전자 조절 네트워크에서 최첨단의 인과 발견 성능을 달성하는 데 성공하였다.해당 연구들은 머신러닝 최우수 학회인 NeurIPS 2025와 저널인 TMLR에 발표될 예정이다.[1] “KVzip: Query-Agnostic KV Cache Compression with Context Reconstruction”, Jang-Hyun Kim, Jinuk Kim, Sangwoo Kwon, Jae W. Lee, Sangdoo Yun, Hyun Oh Song, NeurIPS 2025[2] “Q-Palette: Fractional-Bit Quantizers Toward Optimal Bit Allocation for Efficient LLM Deployment”, Deokjae Lee, Hyun Oh Song, NeurIPS 2025[3] “Learning to Better Search with Language Models via Guided Reinforced Self-Training”, Seungyong Moon, Bumsoo Park, Hyun Oh Song, NeurIPS 2025[4] “Large-Scale Targeted Cause Discovery with Data-Driven Learning”, Jang-Hyun Kim, Claudia Skok Gibbs, Sangdoo Yun, Hyun Oh Song, Kyunghyun Cho, TMLR...
포스트 대표 이미지

이영기 교수, 2026년 ACM MobiSys 프로그램위원장 선임

​이영기 교수가 세계적인 모바일 시스템 학술대회인 ACM MobiSys 2026의 프로그램위원장(Technical Program Committee Co-Chair)으로 선임됐다. 이 교수는 2026년 열리는 MobiSys 학술대회에서, 논문 심사와 프로그램 구성을 총괄하는 핵심 역할을 맡는다. 그는 전 세계 연구자들로 구성되는 프로그램위원회(TPC)를 조직하고, 학회에 제출되는 수백 편의 논문 중에서 발표작을 선정하는 중요한 과정을 주도할 예정이다.ACM MobiSys(International Conference on Mobile Systems, Applications, and Services)는 ACM SIGMOBILE의 대표 국제 학회로, 모바일·IoT·AI 기술 기반의 차세대 시스템과 서비스를 다룬다. 컴퓨팅 기술의 미래를 제시하고, 창의성과 기술력을 함께 평가받는 학술대회다. ​이영기 교수는 온디바이스 AI 시스템, 증가상 현실, 인터렉티브 AI 에이전트 등 다양한 분야에서 활발한 연구를 이어오고 있다. 특히 인공지능 기술과 사용자 경험을 융합한 차세대 컴퓨팅 플랫폼 연구를 선도하고 있으며, 관련 분야 국제 학회와 산업계에서도 폭넓은 협업을 이어가고 있다. 이번 프로그램위원장 선임은 이 교수의 국제적 연구 역량과 학계 내 입지를 반영하는 것으로 평가된다. 2026년 MobiSys 학회는 전 세계 연구자들의 주목 속에 차세대 모바일·IoT 시스템 기술의 방향성을 제시하는 자리가 될 전망이다....
포스트 대표 이미지

이재욱 교수 연구진, 머신러닝 포텐셜(MLIP) 기반 분자동역학 가속을 위한 FlashTP 라이브러리 개발

​분자동역학에서 대두되는 머신러닝 기반 포텐셜 (MLIP)의 학습·추론 단계의 병목인 Tensor‑Product 레이어를 가속하는 GPU 라이브러리인 FlashTP 개발FlashTP 라이브러리를 서울대 재료공학부 및 삼성종합기술원에 제공해 세계 최고 수준의 MLIP 모델 개발 성공ICML 2025  Spotlight Poster (최상위 2.6%) 논문선정이재욱 교수 연구진이 분자동역학(Molecular Dynamics Simulation)에 사용되는 머신러닝 기반 포텐셜(MLIP)의 학습 및 추론 단계에서 주요 병목으로 작용하는 Tensor‑Product 레이어를 획기적으로 가속화하는 GPU 커널 기반 라이브러리 FlashTP를 개발했다. 라이브러리는 파편화된 연산을 하나의 커널로 통합(kernel fusion)해 중간 결과에 대한 메모리 전송을 대폭 줄이고, 연산 내 희소성(sparsity)을 이용해 불필요한 계산을 제거했으며, 입력값 재사용을 최적화해 메모리 통신량을 감소시켰다.이 결과, 화학·생물학·재료공학 등 다양한 분야에서 MLIP를 활용한 대규모 분자동역학 시뮬레이션의 처리 속도가 종전 대비 수십 배 향상되어, 기존에 불가능했던 대규모 시스템에 활용이 가능해졌다. 이재욱 교수 연구진은 FlashTP를 서울대 재료공학부 한승우 교수 연구진 및 삼성종합기술원에 제공하였고, 이들은 FlashTP를 사용해 최고 수준의 MLIP 모델(EquFlash)을 개발하였다.한편, 본 연구 성과는 지난 7월에 개최되는 머신러닝 분야 최고 권위의 학회인 ICML 2025에 발표되었다. 특히 전체 제출된 12,107 편의 논문 중 313편(최상위 2.6%)만 선정되는 스포트라이트 포스터(Spotlight Poster)로 채택되어 그 우수성을 인정받았다.“FlashTP: Fused, Sparsity-Aware Tensor Product for Machine Learning Interatomic Potentials”, Seung Yul Lee, Hojoon Kim, Yutack Park, Dawoon Jeong, Seungwu Han, Yeonhong Park and Jae W. Lee, ICML 2025.​...
포스트 대표 이미지

유영재 교수, Google Research Scholar Award의 2025년 수상자로 선정

​유영재 교수, Google Research Scholar Award의 2025년 수상자로 선정​한국 교수로는 최초로 AI, NLP 분야에서 수상​컴퓨터공학부 및 첨단융합학부 신임교수인 유영재 교수가 Google Research Scholar Award의 2025년 수상자로 선정되어 올해 9월부터 구글과 협력 프로젝트를 시작하게 되었다. 이 상은 전 세계 대학의 신진 연구자를 대상으로 컴퓨터 과학 및 관련 분야의 연구를 지원하고, 구글과의 협업 및 장기적 파트너십을 도모하기 위한 글로벌 프로그램이다.유영재 교수는 올해 자연어처리(NLP) 분야에서 수상한 다섯 명의 교수 중 하나로, 한국 교수로는 최초로 AI, NLP 분야에서 수상하는 성과를 거두었다. 이번 수상을 통해 약 7천만 원 규모의 연구비를 지원받게 되며, Embodied Commonsense Reasoning for Safe, Human-Like AI Agents 라는 주제로 대규모 언어모델 및 Physical AI, Safety 연구를 Google 연구자들과 장기적인 협업으로 추진할 계획이다.Google Research Scholar Award는 매년 인공지능, 시스템, 로보틱스, 보안, HCI 등 다양한 분야에서 혁신적인 성과를 보인 연구자를 선정하고 있으며, 수상자 명단은 전 세계 연구자들에게 공개된다. 전체 수상자 명단과 관련 소식은 구글 리서치 공식 웹사이트(Google Research Scholar Program Recipients)에서 확인할 수 있다....
포스트 대표 이미지

박재식 교수 연구진, 제로샷 3D 포인트클라우드 정합 기술 ‘BUFFER-X’로 최우수 컴퓨터비전 학회 ICCV 2025 Highlight 선정

사전 정보나 매뉴얼 파라미터 튜닝 없이 동작하는 제로샷 3D 포인트클라우드 정합 기술 개발다중 스케일 적응 정합 파이프라인 및 학습 기반 키포인트 검출기 제거로 일반화 성능 극대화실내외, 다양한 센서 조건 포함한 11개 벤치마크에서 기존 SOTA 기법 대비 빼어난 성능 입증박재식 교수 연구진이 MIT SPARK LAB과 함께 복잡하고 다양한 환경에서도 학습 없이 바로 동작하는 제로샷(Zero-Shot) 3D 포인트클라우드 정합(point cloud registration) 기술을 개발하였다. 3D 포인트클라우드 정합은 기술은 서로 다른 시점이나 위치에서 촬영된 포인트클라우드를 하나의 좌표계로 정확히 맞추는 기술이다. 해당 기술은 3차원 센서를 활용하는 자율주행, 로봇 내비게이션, 3D 지도 제작 등 다양한 분야에서 핵심적인 역할을 한다. 현존하는 정합기술이 가진 문제는 포인트클라우드가 라이다(LiDAR), 3D 스캐너, 심도 카메라(depth camera) 등 서로 다른 특성을 가진 센서에서 얻어지면, 데이터의 밀도, 해상도, 노이즈 특성이 달라 환경이 바뀌어 성능이 쉽게 저하된다.특히 기존 학습 기반 정합 기술은 특정 센서나 환경에 맞춰 학습해야만 높은 성능을 낼 수 있었으며, 테스트 환경이 달라질 때마다 파라미터를 수동으로 조정해야 하는 어려움이 있었다. 연구진은 이러한 한계를 극복하기 위해, 사전 학습 없이도 다양한 환경에서 즉시 동작할 수 있는 제로샷 정합 파이프라인 BUFFER-X를 제안했다.BUFFER-X는 데이터의 기하적 특성을 자동으로 분석해 최적의 파라미터를 설정하고, 사전 학습된 모델 없이도 정합에 필요한 핵심 지점을 안정적으로 추출한다. 또한 크기와 해상도가 다른 데이터 간의 차이를 보정해 정확한 정합을 가능하게 하며, 작은 범위부터 큰 범위까지 일관성 있게 매칭이 이루어지도록 설계됐다.이러한 BUFFER-X 파이프라인은 RGB-D, 라이다(LiDAR) 등 다양한 센서 환경과 실내외를 아우르는 11개 공개 데이터셋을 기반으로 구성된 신규 제로샷 일반화 벤치마크(Zero-Shot Generalization Benchmark)에서 기존의 학습 기반 최신 기법들을 압도하는 성능을 보였다.본 연구는 컴퓨터 비전 분야 최우수 학술대회 중 하나인 ICCV 2025에 오는 2025년 10월 발표 예정이며, 우수논문 상위 약 10%에 해당하는 Highlight 논문으로 선정되었다."BUFFER-X: Towards Zero-Shot Point Cloud Registration in Diverse Scenes", Minkyun Seo*, Hyungtae Lim*, Kanghee Lee, Luca Carlone, Jaesik Park, International Conference on Computer Vision (ICCV), 2025....
포스트 대표 이미지
포스트 대표 이미지

이재진 교수 연구팀, 법원 판결문 내 개인정보를 비식별화하는 AI 개발

이재진 교수 연구팀이 인공지능(AI)를 이용해 법원 판결문 내 개인정보를 빠르게 비식별화하는 기술을 개발했다. 이재진 교수가 이끄는 서울대 데이터사이언스대학원 연구팀은 판결문의 개인정보를 비식별화하는 ‘SNU Thunder-DeID 모델’을 개발하였다. 연구팀은 개발 과정에서 강제추행·폭행·사기 등 3가지 형사 사건으로 구성된 4500건의 판결문으로부터 2만 7000여 개의 개체를 추출하는 방식을 이용했다. 이후 수작업으로 이를 라벨링한 뒤 595종의 세분화된 개인식별정보 유형 체계를 수립해 정밀하게 비식별 처리가 가능하도록 학습 데이터를 구축했다.​헌법 제109조에 따르면 판결문은 민·형사 소송법 관련 규정에 제시된 절차와 근거를 바탕으로 열람 및 복사가 가능하다. 여기에 더해 법원은 판결서 등의 열람 및 복사를 위한 비실명 처리기준 규정에 따라 판결문 내 개인정보와 간접식별정보(다른 정보와 결합해 개인을 식별할 수 있게 하는 정보)를 가리고 공개해야 한다. 그러나 2019년 발표된 ‘판결문 공개 확대를 위한 국회토론회’ 자료에 따르면 법원행정처의 ‘지능형 비식별 시스템’ 정확도는 15%에 불과하다. 법원행정처에 따르면 시스템의 처리율도 8% 수준으로 매우 낮은 상황이다. 대부분의 비식별화 작업이 수작업에 의존하게 되면서 재판 공개가 병목 현상을 빚는 이유다.연구팀이 개발한 AI 모델은 판결문 내 표현의 비식별화 대상 여부를 99% 이상의 정확도로 판별하는 것으로 나타났다. 이름·주소·기관명 등 비식별화 대상으로 판별된 항복의 세부 유형 분류도 89% 이상의 성능이 측정됐다. 연구팀은 “헌법상 재판공개의 원칙에 따라 국민에게 공개되어야 하는 판결문이 비식별화 작업의 병목으로 인해 원활히 공개되지 못하고 있다”면서 “이 연구는 AI 기술이 단순한 기술적 성능을 넘어, 공공성과 법적 가치를 함께 고려할 수 있는 수단이 될 수 있다는 점을 보여준다”고 밝혔다.연구팀은 이번 연구에서 개발한 모델과 데이터셋, 데이터 구축 과정에 사용된 소스코드를 공개했다. 모델 관련 정보들은 법원·검찰·변호사 단체 등에서 판결문과 재판기록물 공개를 위한 자동 비식별 처리 시스템으로 활용될 수 있다. 연구팀은 형사 사건뿐 아니라 민사 사건과 행정·특허 소송 판례, 진술서·수사보고서 등 다양한 재판기록물을 아우르는 법률 특화 언어모델 연구의 기반을 마련하는 것을 목표로 후속 연구를 이어갈 전망이다.​※ 출처: "AI로 판결문 비식별화 빠르게…서울대 연구팀, 99% 정확도 AI 개발", 서울경제, 2025년 7월 8일​...
포스트 대표 이미지

이재진 교수 연구팀, 고성능 한국어 LLM 개발

천문학적 비용을 들이지 않고 고성능 한국어 '거대 언어 모델(LLM)’을 개발할 수 있다는 점이 입증됐다. LLM은 방대한 양의 텍스트 데이터를 학습해 인간 언어를 이해하고 생성하는 인공지능(AI) 모델이다. 이재진 서울대 데이터사이언스대학원 교수 연구팀이 영어 기반 언어 모델인 ‘라마(Llama)’를 개량해 한국어에 특화된 언어 모델인 ‘Llama-Thunder-LLM’, 한국어 전용 토크나이저 ‘Thunder-Tok’, 한국어 LLM 성능을 객관적으로 평가하는 ‘Thunder-LLM 한국어 벤치마크’를 개발하였다. 토크나이저는 문장을 언어 모델이 이해할 수 있는 단위인 ‘토큰’으로 쪼개는 도구이고 벤치마크는 특정 기준과 비교해 성능을 측정하고 평가하는 도구다. 한국어에 특화된 LLM을 만들려면 개발에 막대한 비용이 든다. LLM 구축을 위한 데이터가 한정적이라는 한계도 있다. LLM이 대기업과 해외 빅테크 기업 중심으로 개발돼온 이유다. 중소 연구기관이나 대학에서는 LLM 연구개발을 하기 어렵다. 연구팀은 데이터 수집부터 사후 학습까지 언어 모델 학습의 모든 단계를 자체 진행해 중국 LLM ‘딥시크’처럼 제한된 자원으로 고성능 언어 모델을 구축할 수 있다는 점을 입증했다. Llama-Thunder-LLM은 3TB(테라바이트, 1TB=1024GB) 크기의 한국어 웹 데이터를 수집·전처리한 다음 라마 모델에 연속 학습과 사후 학습 등의 개량 기법을 적용한 한국어 특화 LLM이다. 연속 학습은 기존 모델에 새로운 데이터를 추가로 학습시켜 능력을 확장하는 과정이고 사후 학습은 사용자의 질문·응답 등으로 추가 미세조정하는 학습 과정이다. 한국어의 문법적 특성을 반영한 토크나이저 Thunder-Tok은 기존 라마 토크나이저 대비 토큰 수를 약 44% 절약해 추론 속도 및 학습 효율성을 높였다. 토큰 수가 줄면 AI 모델 운영 비용이 감소한다. 연구팀이 자체 개발한 ‘한국어 평가용 데이터셋’을 포함한 Thunder-LLM 한국어 벤치마크는 한국어 LLM 성능을 객관적이고 체계적으로 평가할 수 있는 기반을 제공한다.​이재진 교수는 “이번 연구는 학계도 자주적인 LLM 개발이 가능하다는 점을 입증했고 국내 소버린 AI(자국 AI)에 기여한 의미 있는 결과”라며 “한국어 기반 LLM 및 토크나이저, 벤치마크 데이터셋을 온라인에 공개하고 개발 과정 또한 상세히 기술해 누구나 후속 및 재현 연구에 활용할 수 있도록 했다”고 말했다. 연구 성과는 ‘초거대 AI모델 및 플랫폼 최적화 센터’ 웹페이지(https://champ.snu.ac.kr/resource)에 공개됐다. ※ 출처: 동아사이언스, 한국판 '딥시크' 만들 수 있다…서울대 연구진 '고성능 한국어 LLM' 개발​...
포스트 대표 이미지

김선 교수 연구실, 세계적 AI 바이오인포매틱스 학회 ISMB 2025에 논문 두 편 동시 게재 성과

서울대학교 컴퓨터공학부 김선 교수 연구실 및 (주)아이겐드럭 소속 방동민 연구원이 공동 제1저자로 참여한 연구 논문 두 편이 오는 7월 20일 영국리버풀에서 개최되는 세계 최고 권위의 AI 바이오인포매틱스 학회 ISMB/ECCB 2025에 동시 게재되는 영예를 안았다. ISMB 학회는 매년 전세계에서 50여편만 선정하기 때문에 2편의 논문이 한해에 게재되는 일은 매우 드문 성과이다.두 논문의 제목은 각각 "ADME-Drug-Likeness: Enriching Molecular Foundation Models via Pharmacokinetics-Guided Multi-Task Learning for Drug-likeness Prediction" (주저자: 방동민 25년 8월 박사 졸업예정) 과 "MixingDTA: Improved Drug-Target Affinity Prediction by Extending Mixup with Guilt-By-Association" (주저자: 김영오 25년 2월 석사졸업)으로, 모두 AI 기반 약물 개발 연구에서 획기적인 기술적 발전을 제시한 것으로 평가받고 있다. ADME-Drug-Likeness 논문은 화합물의 약동학적 데이터(ADME)에 연속적 멀티태스크 러닝기법을 활용하여 약물 유사도를 정의하는 최초의 인공기술이며 생물의학지식정렬및 단일 클래스 기반 경계최적화기법으로약물유사도를정의하는최초의 인공기술이고, MixingDTA 논문은 약물과 타겟단백질 결합력 예측력 향상을 위해 새로운 데이터증강 기법을 개발한 연구이다. ​김선 교수 연구팀의 이번 성과는 서울대 컴퓨터공학부의 AI 및 바이오인포매틱스 연구 역량을 다시 한번 세계적으로 입증하는 계기가 될 것으로 기대된다....
포스트 대표 이미지

서울대 학생 공동창업 AI 스타트업 에임인텔리전스, 세계 최정상 AI 학회서 논문 4편 동시 발표

서울대 학생 공동창업 '에임인텔리전스', ICML 및 ACL 2025 논문 4편 채택AI 모델의 안전성, 보안 취약점 분석 및 방어 기술 등 핵심 문제 해결 기여에임 연구 인턴 1기(대부분 학부생), 참여 3팀 전원 최정상 학회 논문 채택 (100% 합격률)AI 안전과 보안 스타트업 에임인텔리전스가 세계 최고 권위의 AI 학회인 ICML과 ACL에 총 4편의 논문이 동시 채택되는 쾌거를 이뤘다. 설립 10개월 만의 성과로, AI 안전 및 보안 분야에서 국제적인 연구 역량을 입증했다는 평가다. 에임인텔리전스는 유상윤 대표(서울대 전기정보공학부 석사 졸업), 박하언(서울대 컴퓨터공학부), 김하늘(연세대), 이의준(가천대 졸업) 4인이 공동 창업한 스타트업이다.에임인텔리전스는 짧은 기간 안에 메타 Llama 혁신상 (국내 유일), 국내 및 글로벌 대기업 고객 확보, 구글 포 스타트업 AI 퍼스트 배치 등 주목할 만한 성과를 거두며 빠르게 성장하고 있다.이번에 발표된 주요 연구는 다음과 같다:ELITE (ICML 2025): 비전언어모델(VLM)의 유해성을 정밀 평가하는 체계로, AI 응답의 숨은 위험까지 탐지한다. (서울대, 연세대, KIST, 숙명여대 공동 연구)M2S (ACL 2025 Main Track): 다중 턴 LLM 공격을 효율적인 단일 턴으로 압축하는 프레임워크로, 적은 비용으로 높은 공격 효과를 보였다. (서울시립대, KAIST, 서울대, 연세대, KIST 공동 연구)SUDO (ACL 2025 Industry Track): AI 에이전트의 보안 취약성을 실증한 공격 프레임워크로, AI 에이전트의 거절 명령 우회 가능성을 입증했다. (서울대, 연세대 공동 연구)REPBEND (ACL 2025 Main Track): LLM 내부의 유해 표현을 교란시켜 안전성을 높이는 기법으로, 공격 성공률을 크게 낮추면서도 사용성은 유지했다. (서울대, 연세대, UMichigan, Stanford, Amazon AWS 공동 연구)특히, 이 중 3편의 논문(ELITE, M2S, SUDO)은 '에임인텔리전스 연구 인턴 1기' 프로그램에 참여한 인턴(대부분 학부생)들이 주도하여 얻은 성과다. 총 6명의 인턴이 3개 팀으로 연구를 진행, 모든 팀이 논문 채택에 성공률 100%의 성과로 뛰어난 역량을 입증했다.에임인텔리전스 박하언 CTO는 "서울대에서 경험이 큰 밑거름이 되었고, 에임 인턴십을 통해 인턴분들이 큰 성과를 내서 매우 자랑스럽다"며, "앞으로 이미지/비디오 생성, 에이전트, 로봇, 의료 및 국방 AI 등 다양한 분야의 AI 안전 기술을 지속적으로 연구 개발하겠다"고 밝혔다.[논문 정보]"ELITE: Enhanced Language-Image Toxicity Evaluation for Safety", Wonjun Lee*, Doehyeon Lee*, Eugene Choi, Sangyoon Yu, Ashkan Yousefpour, Haon Park, Bumsub Ham, Suhyun Kim, ICML 2025."SUDO: Screen-based Universal Detox2Tox Offense for Large Agent Models", Sejin Lee*, Jian Kim*, Haon Park, Ashkan Yousefpour, Sangyoon Yu, Min Song, ACL 2025 Industry Track. "One-Shot is Enough: Consolidating Multi-Turn Attacks into Efficient Single-Turn Prompts for LLMs", Junwoo Ha*, Hyunjun Kim*, Sangyoon Yu, Haon Park, Ashkan Yousefpour, Yuna Park, Suhyun Kim, ACL 2025. "Representation Bending for Large Language Model Safety", Ashkan Yousefpour*, Taeheon Kim*, Ryan S. Kwon, Seungbeen Lee, Wonje Jeung, Seungju Han, Alvin Wan†, Harrison Ngan, Youngjae Yu, R Jonghyun Choi, ACL 2025.​...
포스트 대표 이미지