Awesome System Papers Wiki

标签: quantization

此标签下有7条笔记。

  • 2026年4月24日

    DeepSeek-V4-arXiv26

    • foundation
    • llm
    • moe
    • long-context
    • attention
    • quantization
    • rl
    • post-training
  • 2026年4月24日

    FP8FlowMoE-MLSys26

    • fp8
    • quantization
    • moe
    • training
    • mixed-precision
  • 2026年4月24日

    IntAttention-MLSys26

    • quantization
    • edge-inference
    • attention
    • int8
    • softmax
  • 2026年4月24日

    Kitty-MLSys26

    • kv-cache
    • quantization
    • inference
    • gpu-kernel
    • long-context
  • 2026年4月24日

    MixLLM-MLSys26

    • quantization
    • llm-inference
    • mixed-precision
    • gpu-kernel
    • ai-infra
  • 2026年4月24日

    MorphServe-MLSys26

    • llm-serving
    • quantization
    • kv-cache
    • elastic
    • workload-aware
  • 2026年4月24日

    OptiKit-MLSys26

    • llm-inference
    • auto-tuning
    • quantization
    • enterprise
    • slo

Created with Quartz v4.5.2 © 2026

  • GitHub
  • Discord Community