长琴
...
→
菜单
跳至内容
首页
导览
简历
好玩
大神
观点
资源
存档
2026
TRPO深度拆解:为什么做后训练应该读懂TRPO
COPO:基于认知模式的 Step-Level Agentic RL 优化
LLM 的下一步:从“会答”到“会想”——Planning as Data 与思考范式重构
探寻实时学习新路径:挖掘极致高效的“子空间微调”
RL新范式:从经验到更高质量数据——我们不再训练模型,而是在制造数据
Training-Free RL:当“训练”不再更新参数,而是更新上下文
MoE RL 训练不稳定性再思考:训推不一致,还是采样噪声?
稳定压倒一切:MoE RL 训推不一致问题及解决策略
LLM 强化的“炼金术”:主流开源模型的 RL 优化策略赏析
2025
RL究竟能不能突破Base边界——关于推理能力外推、稳定性与训练条件的系统分析
Reward建模新范式:无验证RL——当模型只能相信自己,会发生什么?
DeepSeekV3.2后训练:稳定压倒一切
DeepSeekMath-V2自我验证:搞数据的风吹到了奖励模型
两处容易踩的坑:LLM 消息数组与字典工具的隐藏副作用
Reward建模新范式:无验证器RL与Reference的妙用
重识LLM法则:上下文工程与数据进化
GiGPO:双层级优势函数驱动的Agent强化学习新范式
解锁模型潜能:Reward 数据如何塑造与激发 LLM 的推理策略
激活诱导LLM指令跟随
指令跟随近期工作梳理(2025年上半年)
GRPO优化在继续——CISPO和熵
Reward Model建模
R1后范式最佳实践:Seed-Thinking和Qwen3
Yarz-Logic:R1-Zero相关实验报告
VAPO:基于价值方法的新突破
R1相关:R1-Zero的进一步理解和探索
异曲同工之妙的DrGRPO——DAPO几乎同时出现的又一GRPO优化!
DAPO:为GRPO的锦上加四点花
DeepSeek R1后LLM新范式
R1相关:DPO数据选择与DPO等RL算法
预训练:NTP和Scaling Law
LLM、强化、蒸馏讨论
R1相关:RL数据选择与Scaling
R1相关:少量高质量数据SFT激活LLM推理能力
DeepSeek R1深度技术解析及其影响
预训练:无处安放的躁动之心
2024
MIO
Tiny LLM Continual Pre-training:RHO-1
LLM中的演绎推理、归纳推理和溯因推理
LLM Tiny Pretrain:H2O-Danube and Stable LM
LLM DataManagement:Weaver
LLM DataManagement:Ziya2
LLM Continual Pre-training:Ziya2
2023
关于大语言模型的思考
ChatGPT 开发指南:Hugging LLM Hugging Future
ChatGPT 基础科普:知其一点所以然
ChatGPT 影响冲击:职业、行业与产业
ChatGPT 标注指南:任务、数据与规范
ChatGPT Prompt 示例
语言模型级联
ChatGPT Prompt工程:设计、实践与思考
Put Human in NLP Loop
GPT3 和它的 In-Context Learning
2022
W2NER解读
Global Pointer:Novel Efficient Span-based Approach for NER
DeepGen:Diverse Search Ad Generation and Real-Time Customization
FLAN:Fine-tuned Language Models are Zero-Shot Learners
W2NER 代码
统一NER为词词关系分类
MarkBERT
预训练模型与传统方法在排序上有啥不同?
量化NLM模型的记忆力
NLP预训练模型的不可能三角
Training Data is More Valuable than You Think
句子表征综述
T5:Exploring the limits of Transfer Learning with a Unified Text-to-Text Transformer
ExT5:Towards Extreme Multi-Task Scaling for Transfer Learning
2021
Pretrain, Prompt and Predict, A Systematic Survey of Prompting Methods in NLP
Data Augmentation Approaches in Natural Language Processing:A Survey
Debiasing Techniques for Pre-Trained Language Models
浅析文本分类——情感分析与自然语言处理
TensorBay 指南
R-Drop
UniLM
通过最优转移进行词表学习:VOLT
简单的对比学习框架:SimCSE
预训练模型的过去、现在和未来
对NLP预训练模型的思考
Few-Shot NER and BERT Noisy Learning:ProtoBERT Paper Note
深度探索 Bert:BERTology Paper Note
SqueezeBERT 论文笔记
2020
从 Sentence-BERT 谈句子表征
Bert-Flow 论文笔记
NLP 表征的历史与未来
Funnel Transformer 论文笔记
PEGASUS 论文笔记
DeBERTa 论文+代码笔记
RoBERTa 论文+代码笔记
Bart 论文+代码笔记
中文分词系列一:思考分词
ALBERT 论文+代码笔记
DistilBERT 论文+代码笔记
Transformer 代码笔记
Luong Attention 论文+代码笔记
GPT-2 论文+代码笔记
Node2Vec 论文+代码笔记
TextRank Keyword Extraction 论文+代码笔记
Reformer, The Efficient Transformer 论文笔记
Bahdanau Attention 论文笔记
Encoder-Decoder Models Attention and Contextual Embedding Note (SLP Ch10)
2019
Neural Architectures for Named Entity Recognition 论文笔记
Few-Shot Charge Prediction with Discriminative Legal Attributes 论文笔记
关系提取简述
ELECTRA 论文笔记
自然语言记忆模块(NLM)
CTRL 论文+代码+实践笔记
Bert 论文笔记
Transformer 论文笔记
ERNIE Tutorial(论文笔记 + 实践指南)
ChatBot 设计方案
Statistical Parsing Note (SLP Ch14)
XLNet 论文笔记
Syntactic Parsing Note (SLP Ch13)
Formal Grammars of English Note (SLP Ch12)
Sequence Processing with Recurrent Networks Note (SLP Ch09)
Part-of-Speech Tagging Note (SLP Ch08)
Neural Networks and Neural Language Models Note (SLP Ch07)
Vector Semantics Note (SLP Ch06)
Logistic Regression Note (SLP Ch05)
Naive Bayes and Sentiment Classification Note (SLP Ch04)
Regular Expressions, Text Normalization, and Edit Distance Note (SLP Ch02)
Information Extraction Note (SLP Ch18)
自然语言计算机形式分析的理论与方法笔记(Ch18)
自然语言计算机形式分析的理论与方法笔记(Ch17)
自然语言计算机形式分析的理论与方法笔记(Ch16)
《纳博科夫最喜欢的词》读书笔记与思考
自然语言计算机形式分析的理论与方法笔记(Ch15)
自然语言计算机形式分析的理论与方法笔记(Ch14)
自然语言计算机形式分析的理论与方法笔记(Ch13)
自然语言计算机形式分析的理论与方法笔记(Ch12)
自然语言计算机形式分析的理论与方法笔记(Ch11)
自然语言计算机形式分析的理论与方法笔记(Ch10)
自然语言计算机形式分析的理论与方法笔记(Ch09)
自然语言计算机形式分析的理论与方法笔记(Ch08)
自然语言计算机形式分析的理论与方法笔记(Ch07)
自然语言计算机形式分析的理论与方法笔记(Ch06)
自然语言计算机形式分析的理论与方法笔记(Ch05)
自然语言计算机形式分析的理论与方法笔记(Ch04)
2018
自然语言计算机形式分析的理论与方法笔记(Ch03)
自然语言计算机形式分析的理论与方法笔记(Ch02)
自然语言计算机形式分析的理论与方法笔记(Ch01)
NLP 与 AI
2018CCF-GAIR:自然语言如何商业落地摘录及思考
2017
Language Model Note (SLP Ch03)
语言、AI、情感
自然语言处理(NLP)知识地图