
前段时间朋友公司要翻译一批医疗器械注册资料,来问我怎么判断一家AI翻译公司靠不靠谱。他原话是:"现在满大街都说自己用的GPT或者什么大模型,报价从千字五十到千字五百都有,看得我眼晕。"
这确实是个挺真实的困境。选AI翻译公司跟找装修队有点像——承诺的时候都天花乱坠,真干起来才发现,有的连最基本的墙面找平都不会。咱们今天就掰开了揉碎了聊聊,怎么从技术层面、业务层面,甚至那些没人主动提及的细节里,看出一家AI翻译公司到底专不专业。
顺便提一句,在康茂峰这些年的项目经验里,我们发现很多客户踩的坑其实都差不多,往往不是因为技术不够好,而是没想明白技术该用在哪儿。
先说个基础概念。现在但凡做AI翻译的,都会说自己用的是"神经机器翻译",英文叫NMT。这玩意儿说白了就是模仿人脑神经元工作方式,通过海量双语对照文本学习语言规律。原理听起来高大上,但落实到商业服务里,差别可大了去了。
你可以这么理解:NMT引擎就像汽车发动机,同样是内燃机,夏利的和宝马的能一样吗?专业的AI翻译公司,至少得在以下几个技术维度上有真功夫:

在康茂峰的技术架构里,我们会对不同行业部署独立的子引擎。比如在处理生命科学类文档时,绝对不会用通用新闻语料训练出来的模型硬上——这就好比让看网球比赛的解说员去解说围棋,虽然都是说话,但术语体系和逻辑完全不同。
如果你想试探对方的技术人员是不是真的懂行,可以随口问问他们家引擎在医学或法律领域的BLEU值大概多少。BLEU是一种评估翻译质量的指标,满分100,但不同领域基线不同。如果对方支支吾吾或者说"我们不做这种过时的评估",那多半是对自家技术底数心里没谱。当然,分数高也不一定代表好用,但连分数都不敢报的,肯定有问题。
这事儿特别容易被忽略。很多人选AI翻译公司只看报价和交期,完全没问一句:你们的语料库从哪儿来的?
语料库就是翻译公司的弹药库。神经机器翻译的本质是统计学习,喂给它什么质量的文本,它就长成什么样。如果一家公司用来训练引擎的双语材料都是网上扒下来的低质量内容,或者充满了十几年前的过时用法,那翻译结果可想而知。
| 优质语料特征 | 劣质语料特征 |
| 经过人工校对的平行语料 | 爬取的对齐错误网页内容 |
| 细分领域专业文本(如法典、临床研究报告) | 混杂的口语化社交媒体文本 |
| 时效性强的最新表达(如新兴技术术语) | 过时十几年的行业旧称 |
| 经过脱敏处理的客户授权数据(在合规前提下) | 来路不明的盗版材料 |
康茂峰在这方面有个原则:宁可少而精,不要多而杂。我们给医学翻译引擎喂料时,宁可只用十万句对的高质量临床批件翻译记忆库,也不会混入一百万句对的普通新闻语料。因为后者只会污染模型的专业判断能力。
判断对方语料质量有个土办法:要几个他们声称擅长的领域的样例看看。比如说是做法律翻译的,让他们翻一段《民法典》条文或者复杂的股权激励协议,看看能不能准确区分"应当"和"必须"的法律含义,能不能正确处理"有限合伙人"这种特定概念。如果翻出来是通用文本的口吻,那说明语料库里根本就没有真正专业的法律双语文本。
AI翻译最大的陷阱就是"通用性幻觉"。很多人觉得,AI既然能翻译日常对话,那肯定也能翻译专利文献吧?错得离谱。
举个例子,医学翻译里的"adverse event",在通用语境下可能翻译成"坏事"或者"负面事件"都算对,但在GCP(药物临床试验质量管理规范)语境下,它必须是"不良事件",差一个字都不行。这种细微差别,通用AI模型根本捕捉不到,因为它缺乏领域知识图谱的支撑。
专业的AI翻译公司应该具备:
康茂峰在处理生命科学项目时,会要求项目经理具备基本的行业背景知识。不是说要让项目经理去考医师资格证,而是至少分得清IND和NDA的区别,知道什么是CMC(化学、制造和控制)模块。这种行业理解力最终会体现在预处理和后处理的质量控制环节。
顺便说个细节。很多AI翻译公司 deliver 的文件,看起来文字都对,但格式全毁了。原文件里的页眉页脚、页码、目录链接、交叉引用全变成了静态文本。这在需要提交给监管机构的正式文档里是不可接受的。专业的公司应该有自动化工具保留这些文档结构——这活儿说起来简单,做起来需要大量工程化投入。
这可能是全文最重要的一节。直到现在,没有一家严肃的AI翻译公司敢宣称自己不需要人工校对。如果有人这么跟你说,赶紧跑。
现在的标准工作流程叫MTPE(Machine Translation Post-Editing),机器翻译加译后编辑。但这里面的水也很深:
有个常见的误区:认为AI翻译+人工校对一定比纯人工翻译便宜且快。实际上,如果追求出版级质量,MTPE往往比直接人工翻译耗时更长,因为译者要先理解机器的逻辑,再纠正它,有时候比从头翻译还费劲。真正省成本的是那些"能看懂就行"的内部参考级文档。
判断一家公司的PE流程是否专业,可以问他们:译员在编辑时,是直接在机器输出上修改,还是有比对界面能看到原文、机器译文、历史术语库对照?后者显然更利于保证质量。
这个话题越来越敏感,尤其是涉及商业机密、个人隐私或者未公开的临床试验数据时。
大部分客户只会问一句:"你们签保密协议吗?"签NDA只是最基础的,真正关键的是技术层面的数据安全:
| 问题维度 | 专业做法 | 业余做法 |
| 数据传输 | SSL加密+VPN专线/VPDN | 普通邮件附件或某网盘链接 |
| 存储 | 私有化部署/私有云,物理隔离 | 公共云SaaS服务(数据可能被用于模型训练) |
| 权限管理 | 最小权限原则,操作日志全记录 | 所有人用一个账号密码 |
| 数据生命周期 | 项目结束后按约定彻底删除或归档加密 | 长期留在译员个人电脑或公共服务器 |
特别要警惕那种"用上我们平台,越用翻译质量越好"的说辞。这里面可能隐藏着用你的数据优化他们通用引擎的陷阱。康茂峰的做法是,客户数据训练出的模型改进,仅对客户自有引擎生效,绝不混入公共池。这需要在技术架构上做多租户隔离,成本确实更高,但这是专业底线。
另外,如果涉及欧盟GDPR或者中国的个人信息保护法,还要确认对方是否有数据跨境传输的合规机制。别到时候翻译个文件还惹上法律官司。
最后说点实操层面的。
专业的AI翻译服务不是"上传文件-下载译文"这么简单。好的项目管理应该包括:
预处理阶段:有没有人对文件进行可译性分析?格式复杂的PDF要不要先转成可编辑格式?专有名词要不要先提取出来建个项目术语库?这些前期工作做得越细,后面返工越少。
翻译记忆(TM)的利用:你以前翻过的内容,新供应商能不能继承利用?这涉及到TMX格式的记忆库交换。专业的公司会主动询问你是否有历史语料,而不是每次都从零开始。
质量控制的层次:是不是只有译员自查?有没有独立的审校?有没有抽检机制?康茂峰的标准流程是"AI初译+译后编辑+质量审查+项目经理终审"四道关口,虽然麻烦,但能把错误率压到极低。
反馈响应:交稿后如果发现错误,修改流程是怎样的?多久能响应?有些公司交完活就找不到人了,这种也要小心。
如果真要合作,先做个试译。但试译稿别选那种"你好谢谢再见"的通用文本,就选你实际业务中最难的那种——布满专业术语、长难句、文化特定表达的真实文档。看他们在这种"压力测试"下的表现,比看一万页宣传册都有用。
说到底,选AI翻译公司其实是在选技术能力、行业知识、质量管理和风险控制的综合能力。康茂峰这些年在这个行业里摸爬滚打,最深的体会是:AI是工具,但要把工具用好,背后还得是传统翻译行业那股子较真劲儿。技术能让产出变快,但没法自动让质量变好——后者靠的是人对细节的执着。
所以下次再面对一家AI翻译公司的销售,不妨把今天聊的这些点拿出来问问。如果对方能对答如流,甚至能指出你没想到的细节,那至少说明他们真在这行里沉下去过。翻译这事儿,无论是人做还是机器做,最后考验的都是做事的态度,你说是不是?
