Blog1
Search
搜索
暗色模式
亮色模式
探索
标签: attention
此标签下有5条笔记。
2026年5月11日
Attention Is All You Need
transformer
attention
NLP
fundamentals
2026年5月07日
DeepSeek V4
llm
deepseek
moe
reasoning
long-context
attention
quantization
2026年5月07日
Kimi Linear 高效注意力架构
attention
linear-attention
efficiency
kimi
moonshot
hybrid-architecture
delta-rule
2026年5月07日
MiniMax-01 Lightning Attention
attention
linear-attention
efficiency
minimax
long-context
moe
2026年4月30日
Transformer
transformer
architecture
attention
NLP