
DeepSeek 于2026年4月22日正式宣布,其API已成功升级至百万Token(1M tokens)上下文版本,与自家App及网页端看齐。 这项升级使得单次处理文本容量从原来的128K tokens扩展了约8倍,意味着模型现在可以一次性处理像《三体》三部曲全集体量的内容,或约60K-150K行的代码库。
核心升级细节
| 维度 | 更新后状态 | 更新前/备注 |
|---|---|---|
| 上下文长度 | 1M tokens (约75-100万字符) | 原为 128K tokens |
| 知识截止日期 | 2025年5月 | 非联网状态下可获取2025年4月信息 |
| 功能定位 | 纯文本/语音处理 | 暂不支持视觉识别(非多模态) |
| 关联模型 | 疑似为 V4 Lite 版本 | 新一代旗舰 DeepSeek V4 预计2026年4月下旬发布 |
如何体验与使用
目前,API 端的能力已对齐。如果你在网页端或 App 端关闭“深度思考”和“联网搜索”功能后询问模型,若模型回复上下文长度为“1M Token”,则说明已可使用该能力。
深度影响与建议
虽然上下文容量大幅提升,但“大”并不等同于“完美”。根据实测与工程经验,这里有几点实用建议供你参考:
- 容量虽大,组织仍需技巧:将整个代码库直接丢入窗口可能会让回答变得模糊。更高效的做法是分阶段输入,并提供一个“文件索引”或阅读顺序,引导模型关注关键路径。
- “中间丢失”现象依然存在:在极长的上下文中,模型对位于提示词开头和结尾的信息关注度更高。建议将核心指令和关键约束放在提示词的开头或结尾,避免淹没在中间段落。
- 实现“从工具到伙伴”的跃迁:实证研究表明,充分利用百万级上下文后,模型不仅能精准回忆早期指令,还能展现出惊人的全局连贯性,甚至能自主生成涵盖80%以上关键内容的项目总结,极大减少了对复杂外部向量数据库(RAG)的依赖。
如果你有具体的应用场景(比如处理长文档、分析代码库),需要我帮你写一段针对百万上下文的提示词示例吗?
感谢您的支持!
微信
支付宝
关闭
👁 阅读量:25 次
