Blog1

标签: Google

此标签下有2条笔记。

  • 2026年4月30日

    MoE 混合专家模型

    • MoE
    • 架构
    • DeepSeek
    • Kimi
    • Qwen
    • Google
    • Switch-Transformer
  • 2026年4月30日

    Switch Transformers: Scaling to Trillion Parameter Models with Simple and Efficient Sparsity

    • MoE
    • Switch-Transformer
    • 万亿参数
    • Google
    • 架构

Created with Quartz v4.5.2 © 2026

  • GitHub
  • Discord Community