모두의 AI
머신러닝AI논문

배우기

  • 논문리뷰
  • 이론·수학 기반
    • 2026
      • CPAL
        • Kernel von Mises Formula of the Influence Function
  • 모델 최적화·경량화
    • PolarQuant: Quantizing KV Caches with Polar Transformation
  • 핵심 아키텍처·알고리즘
    • 2026
      • CPAL
        • AlphaFormer: End-to-End Symbolic Regression of Alpha Factors with Transformers
  • 예측 모델링·정형 데이터
  • AutoML·ML 파이프라인
    • 2025
      • ICML
        • AutoML-Agent: A Multi-Agent LLM Framework for Full-Pipeline AutoML
      • ICLR
        • SELA: Tree-Search Enhanced LLM Agents for Automated Machine Learning
  • 컴퓨터 비전·멀티모달
  • NLP·LLM
    • 2026
      • CPAL
        • The Curse of Depth in Large Language Models
  • 신뢰성·XAI
  • 데이터 중심·특성 공학
  • 엣지·웹·서비스
  • 도메인 특화 응용
🏅내 업적
배우기/AI논문/핵심 아키텍처·알고리즘

Core Architecture & Algorithms (핵심 아키텍처 및 알고리즘)

분류 대상

새로운 Transformer 변형 구조, CNN, GNN 등 모델의 뼈대가 되는 새로운 신경망 구조나 학습 방법론(Loss function, Optimizer 등)을 제안하는 논문.

키워드

모델 구조, 딥러닝 아키텍처, 학습 알고리즘

이 카테고리의 세부 논문 리뷰

1개

현재 공개된 세부 논문을 바로 확인할 수 있습니다.

  • CPAL2026›세부 논문
    AlphaFormer: End-to-End Symbolic Regression of Alpha Factors with Transformers