Oxide 引入大语言模型,开启智能计算新纪元
在Oxide,使用大语言模型(LLM)的方式多种多样,其影响也各不相同。有必要对几种主要用途进行拆解分析。 LLM作为阅读者:LLM在理解文本方面表现出色,能快速、准确地处理并理解文档内容,尤其适用于摘要生成或回答大型文档(如技术规格书)中的具体问题。有趣的是,LLM甚至能评估文档是否由其辅助生成。然而,使用托管型LLM(如ChatGPT、Claude、Gemini)时,必须确保数据隐私——尤其是要确认模型不会将上传的文档用于未来训练。尽管部分平台提供关闭选项,但默认设置常以“改进模型”等模糊表述隐含训练权利,可能让用户误以为拒绝即“守旧”或“自私”。此外,LLM辅助阅读不能替代真正的人工阅读,尤其在需要专业判断或社会期待的场景中,如候选人材料评估,应仅作为辅助工具,而非替代人类思考。 LLM作为写作者:LLM的写作能力参差不齐。其输出常流于陈词滥调,甚至暴露明显生成痕迹,容易被识破。这不仅令人尴尬,更损害写作的真诚性——读者会怀疑思想是否也由机器生成。更深层的问题在于,LLM写作打破了“作者付出更多智力劳动”的社会契约。当读者发现作者可能只是调用模型,便难以相信其对内容的真正理解。若内容存在错误,可能只是模型幻觉;但更糟的是“认知失调”:内容看似有逻辑,实则无内在结构,令读者徒增困惑。在Oxide,写作是核心能力,团队成员均具备优秀写作素养,因此我们普遍不使用LLM生成正式内容。但并非绝对禁止,LLM可作为写作过程中的辅助工具,前提是作者始终对思想和表达负责。 LLM作为程序员:LLM在代码生成方面能力极强,甚至引发“AI将取代程序员”的焦虑。对于实验性、辅助性或临时代码,LLM非常高效。但越接近生产系统,越需谨慎。即使是写测试,LLM也可能迅速生成无意义内容。使用LLM生成的代码,责任完全在工程师本人。必须先自行审查,不能直接交由他人评审。一旦进入评审流程,不应再通过反复重生成来回应反馈,否则会破坏迭代过程。总之,LLM在编程中可大有作为,但责任、严谨、同理心与团队协作必须始终如一。
