Blog1

标签: 架构

此标签下有5条笔记。

  • 2026年4月30日

    DiT 扩散 Transformer

    • DiT
    • 扩散模型
    • Transformer
    • 架构
    • 图像生成
  • 2026年4月30日

    MoE 混合专家模型

    • MoE
    • 架构
    • DeepSeek
    • Kimi
    • Qwen
    • Google
    • Switch-Transformer
  • 2026年4月30日

    多模态模型的最终形态是原生统一还是模块化组装

    • 多模态
    • 原生多模态
    • 架构
    • 统一模型
  • 2026年4月30日

    Outrageously Large Neural Networks: The Sparsely-Gated Mixture-of-Experts Layer

    • MoE
    • 条件计算
    • 稀疏门控
    • Google-Brain
    • 架构
  • 2026年4月30日

    Switch Transformers: Scaling to Trillion Parameter Models with Simple and Efficient Sparsity

    • MoE
    • Switch-Transformer
    • 万亿参数
    • Google
    • 架构

Created with Quartz v4.5.2 © 2026

  • GitHub
  • Discord Community