모두의 AI
머신러닝AI논문

배우기

  • 논문리뷰
  • 이론·수학 기반
    • 2026
      • CPAL
        • Kernel von Mises Formula of the Influence Function
  • 모델 최적화·경량화
    • PolarQuant: Quantizing KV Caches with Polar Transformation
  • 핵심 아키텍처·알고리즘
    • 2026
      • CPAL
        • AlphaFormer: End-to-End Symbolic Regression of Alpha Factors with Transformers
  • 예측 모델링·정형 데이터
  • AutoML·ML 파이프라인
    • 2025
      • ICML
        • AutoML-Agent: A Multi-Agent LLM Framework for Full-Pipeline AutoML
      • ICLR
        • SELA: Tree-Search Enhanced LLM Agents for Automated Machine Learning
  • 컴퓨터 비전·멀티모달
  • NLP·LLM
    • 2026
      • CPAL
        • The Curse of Depth in Large Language Models
  • 신뢰성·XAI
  • 데이터 중심·특성 공학
  • 엣지·웹·서비스
  • 도메인 특화 응용
🏅내 업적
배우기/AI논문/모델 최적화·경량화

Model Optimization & Efficient AI (모델 최적화 및 경량화)

분류 대상

연산 효율성을 극대화하기 위한 Low-Rank Approximation, LoRA, 양자화(Quantization), 가지치기(Pruning) 등 모델 압축 및 가속화 관련 논문.

키워드

경량화, 파라미터 효율성, 추론 속도 개선, 메모리 최적화

이 카테고리의 세부 논문 리뷰

1개

현재 공개된 세부 논문을 바로 확인할 수 있습니다.

  • 모델 최적화·경량화›세부 논문
    PolarQuant: Quantizing KV Caches with Polar Transformation