product / on-device translation

Translate

一个直接在浏览器中运行的 AI 翻译工具。模型从 zhanghe.dev 的 Cloudflare R2 拉取,文本不上传到翻译服务器。
Hy-MT1.5 1.8B / 440MB 量化模型目标支持文本翻译 v1本地历史仅保存在浏览器
architecture

隐私和性能是默认值

首屏由服务端渲染,模型代码延迟加载。浏览器空闲且网络条件合适时才预加载模型,弱网络和省流量模式会自动降级为手动加载。

worker

端侧推理

翻译请求在浏览器 Worker 中执行,主线程只负责界面状态,输入文本不会被发送到第三方翻译 API。
r2

中国地区可访问

模型、WASM 和 tokenizer 文件通过本站 Cloudflare/R2 路径提供,不依赖 Hugging Face CDN。
runtime

格式兼容

运行时优先使用 Transformers.js 自托管 ONNX 模型;当 440MB GGUF 版本更适合部署时,自动走 browser-side WASM 适配层。

模型交付

R2 对象路径被限制在 models/translate/ 前缀下,模型响应支持 Range、ETag 和长期 immutable 缓存,适合 440MB 级别模型分段下载和浏览器缓存复用。

/models/translate/*
张赫

常见问题