회사소개
디노티시아는 AI와 데이터를 융합해 혁신적인 가치를 창출하는 장기기억 인공지능 전문기업입니다. 세계 최초로 개발한 벡터 데이터 연산 가속기인 VDPU(Vector data processing unit)를 기반으로 한 고성능 벡터 데이터베이스, ‘Seahorse(씨홀스)’를 선보이며, 생성형 인공지능 핵심 기술인 검색증강생성(RAG:Retriveal-augmented generation) 솔루션을 구현합니다. 또한 자사 고성능, 저비용 LLM 기반 파운데이션 모델을 활용한 Personal/Edge LLM 디바이스인 ‘Mnemos(니모스)’를 통해 개인화된 AI경험을 가능하게 합니다. 디노티시아는 특화된 반도체와 최적화된 알고리즘을 통합하여 새로운 인공지능 시대를 열고자 합니다. AI에 데이터를 융합하여 장기기억을 가진 AI를 개발함으로써, 누구나 쉽게 이용할 수 있는 낮은 비용의 AGI (Artificial General Intelligence)를 구현하고, AI의 혜택을 대중이 쉽게 누릴 수 있는 미래를 열어갑니다.
모집기간
- 모집기간 : 2025년 9월 1일 (월) ~ 9월 30일 (화) *조기 채용 시 마감
모집부문
1) LLM Engineer
• LLM Pre-Training 속도 개선을 위한 GPU 대규모 멀티 노드 학습 진행, 잡 스케쥴링, NCCL 최적화
• LLM Pre-Training 성능 개선을 위한 데이터 크롤링, 필터링 및 모델 아키텍처 개선
• LLM Post-Training 성능 고도화를 위한 방법론/강화학습 연구
• LLM 평가 방법 연구 및 벤치마크 분석 개발 진행
• LLM 모델링 관련 최신 논문 분석 및 적용
2) Optimization Engineer
• LLM (Large Language Model) Inference 엔진의 설계 및 개발
• Open Source 기반 Inference 프레임워크(e.g., vLLM)의 구조 분석 및 필요시 커스터마이징
• LLM 워크로드에 대한 정량적 분석 및 병목 지점 프로파일링
• Quantization 및 Pruning 기법을 활용한 추론 경량화 및 최적화 설계 및 구현
• 최신 논문 및 공개된 구현체 기반 최적화 기법 지속적 습득 및 적용
• 시스템/하드웨어 특성에 맞춘 추론 경로 최적화 (e.g., CPU-GPU 간 데이터 이동 최소화, 메모리 계층 활용 등)
3) SoC & System Architect
• Vector Database를 비롯해 LLM 서비스 솔루션을 구성하는 다양한 workload와 알고리즘의 특성을 분석/이해하고 시스템과 SoC의 요구사항을 정의
• 요구 사항을 기반으로 SoC 전체 구조와 이를 구성하는 주요 서브 시스템 (CPU-subsystem, Memory-subsystem, NoC, System Control, Interconnect 등) 및 Software 구성 요소의 구조를 정의
• 타겟 응용에 요구되는 Security 아키텍처, Post-silicon 검증과 성능/전력 분석을 위한 Debug 아키텍처를 정의
• SoC 및 시스템 레벨 분석/평가를 위한 모델과 시뮬레이터를 개발하고 성능/기능 검증 시나리오를 정의
• 이를 기반으로 성능, 전력 등을 분석/평가하여 구조의 타당성을 검증하며 다양한 병목을 분석하여 개선
• 반도체, 프로세서, 가속기 및 당사의 주요 응용 관련 최신 기술 동향을 이해하고 지속적으로 학습
• 사내 알고리즘, 응용 개발, 하드웨어 설계 및 소프트웨어 전문 조직과 긴밀한 협업이 요구되며, 제품 개발 주기의 모든 단계에 직간접적으로 참여
지원자격
- 4년제 대학 또는 대학원 졸업자 또는 졸업예정자 (2026년 2월)
지원방법
전형절차
- 서류전형 ▶ 실무면접 ▶ 임원면접 ▶ 처우협의 ▶ 최종 합격
채용문의