Blog1

标签: pretraining

此标签下有5条笔记。

  • 2026年5月11日

    BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

    • BERT
    • pretraining
    • NLP
    • bidirectional
    • MLM
  • 2026年5月07日

    GPT-2

    • llm
    • pretraining
    • zero-shot
    • openai
  • 2026年5月07日

    Qwen 技术报告

    • llm
    • qwen
    • alibaba
    • pretraining
    • alignment
    • rlhf
    • code-generation
    • math-reasoning
  • 2026年5月07日

    Qwen2.5 技术报告

    • llm
    • qwen
    • alibaba
    • pretraining
    • coding
    • math
  • 2026年4月30日

    DeepSeek LLM: Scaling Open-Source Language Models with Longtermism

    • deepseek
    • scaling-laws
    • pretraining
    • open-source

Created with Quartz v4.5.2 © 2026

  • GitHub
  • Discord Community