shenwenAI 推出的轻量级代码补全模型,拥有 5 亿参数,
专为代码补全场景优化,可在本地设备高效运行。
shenwen-coder-0.5b 是 shenwenAI 推出的首款开源代码补全模型。 该模型拥有 5 亿参数,经过大规模代码语料预训练与代码补全场景的专项微调, 能够根据上下文精准预测并补全代码,显著提升开发效率。 凭借轻量化的架构设计,模型可在普通 CPU 或消费级 GPU 上流畅运行, 真正实现本地化、低延迟的智能代码补全体验。
# 输入上下文(已有代码)
def bubble_sort(arr):
n = len(arr)
for i in range(n):
# ↓ shenwen-coder-0.5b 自动补全
for j in range(0, n - i - 1):
if arr[j] > arr[j + 1]:
arr[j], arr[j + 1] = arr[j + 1], arr[j]
return arr
shenwen-coder-0.5b 专为代码补全场景深度优化
理解当前代码上下文,精准预测下一行乃至多行代码,支持函数体、类方法、逻辑块等多种场景的自动补全。
0.5B 的轻量化参数规模确保极低推理延迟,可在普通 CPU 上实时响应,无需高端 GPU 即可获得流畅的补全体验。
模型完全在本地运行,代码数据不出设备,保护企业与个人的代码隐私安全,无需担心数据泄露。
支持 Python、JavaScript、C/C++、Java、Go、Rust 等主流编程语言,满足不同技术栈开发者的补全需求。
支持 FIM(填空补全)模式,可根据光标前后的代码上下文在中间位置精准插入代码,适配主流 IDE 集成场景。
基于 Apache 2.0 协议完全开源,可免费用于个人与商业项目,欢迎开发者在此基础上进行二次开发与定制。
三步即可在本地运行 shenwen-coder-0.5b
通过 pip 安装 transformers 库,确保您的 Python 环境已就绪。
从 HuggingFace 下载并加载 shenwen-coder-0.5b 模型与分词器。
输入代码前缀,调用模型生成接口,获取智能补全结果。
shenwen-coder-0.5b 已发布至 HuggingFace Model Hub,支持通过 transformers 库直接加载,也可下载 GGUF 格式配合 swllm.cpp 在本地高效运行。