最新模型

shenwen-coder-0.5b

shenwenAI 推出的轻量级代码补全模型,拥有 5 亿参数,
专为代码补全场景优化,可在本地设备高效运行。

模型概览

shenwen-coder-0.5b 是 shenwenAI 推出的首款开源代码补全模型。 该模型拥有 5 亿参数,经过大规模代码语料预训练与代码补全场景的专项微调, 能够根据上下文精准预测并补全代码,显著提升开发效率。 凭借轻量化的架构设计,模型可在普通 CPU 或消费级 GPU 上流畅运行, 真正实现本地化、低延迟的智能代码补全体验。

参数量 0.5B(5 亿)
模型类型 代码补全
架构 Transformer(Decoder-only)
开源协议 Apache 2.0
发布组织 shenwenAI
支持语言
Python JavaScript C/C++ Java Go Rust

代码补全示例

Python · 函数补全
# 输入上下文(已有代码)
def bubble_sort(arr):
    n = len(arr)
    for i in range(n):

# ↓ shenwen-coder-0.5b 自动补全
        for j in range(0, n - i - 1):
            if arr[j] > arr[j + 1]:
                arr[j], arr[j + 1] = arr[j + 1], arr[j]
    return arr

核心能力

shenwen-coder-0.5b 专为代码补全场景深度优化

智能代码补全

理解当前代码上下文,精准预测下一行乃至多行代码,支持函数体、类方法、逻辑块等多种场景的自动补全。

低延迟推理

0.5B 的轻量化参数规模确保极低推理延迟,可在普通 CPU 上实时响应,无需高端 GPU 即可获得流畅的补全体验。

本地私有部署

模型完全在本地运行,代码数据不出设备,保护企业与个人的代码隐私安全,无需担心数据泄露。

多语言支持

支持 Python、JavaScript、C/C++、Java、Go、Rust 等主流编程语言,满足不同技术栈开发者的补全需求。

Fill-in-the-Middle

支持 FIM(填空补全)模式,可根据光标前后的代码上下文在中间位置精准插入代码,适配主流 IDE 集成场景。

开源免费

基于 Apache 2.0 协议完全开源,可免费用于个人与商业项目,欢迎开发者在此基础上进行二次开发与定制。

快速开始

三步即可在本地运行 shenwen-coder-0.5b

1

安装依赖

通过 pip 安装 transformers 库,确保您的 Python 环境已就绪。

pip install transformers torch
2

加载模型

从 HuggingFace 下载并加载 shenwen-coder-0.5b 模型与分词器。

from transformers import AutoModelForCausalLM, AutoTokenizer model_id = "shenwenAI/shenwen-coder-0.5b" tokenizer = AutoTokenizer.from_pretrained(model_id) model = AutoModelForCausalLM.from_pretrained(model_id)
3

运行补全

输入代码前缀,调用模型生成接口,获取智能补全结果。

prefix = "def fibonacci(n):\n " inputs = tokenizer(prefix, return_tensors="pt") outputs = model.generate(**inputs, max_new_tokens=64) print(tokenizer.decode(outputs[0]))

在 HuggingFace 上获取

shenwen-coder-0.5b 已发布至 HuggingFace Model Hub,支持通过 transformers 库直接加载,也可下载 GGUF 格式配合 swllm.cpp 在本地高效运行。

0.5B
模型参数
6+
支持语言
FIM
补全模式
本地
运行方式

准备好体验智能代码补全了吗?

立即前往 HuggingFace 下载 shenwen-coder-0.5b