越来越多证据表明,人类现在说话方式越来越受到聊天机器人的影响

  当一位英国议员在下议院起身发言时说出"I rise to speak"这样的开场白,这本应是一个平常的议会程序。但2025年的数据揭示了一个令人不安的现实:这个短语在英国议会的使用频率出现了统计学意义上的异常激增——从2024年的231次暴涨至2025年的635次。

  问题的根源直指ChatGPT:当要求这款聊天机器人撰写议会演讲稿时,它会习惯性地使用这个在美国国会常见但在英国议会传统上较少使用的表达。这不是孤立现象,而是一场正在悄然发生的语言污染事件的缩影——人类的说话和写作方式正越来越多地受到人工智能的影响。

  马克斯·普朗克人类发展研究所今年7月发表的一项研究提供了首个系统性证据。研究团队分析了YouTube用户在ChatGPT发布前后的口语表达,追踪了"delve"(深入探讨)、"meticulous"(一丝不苟)、"bolster"(支撑)、"swift"(迅速)等词汇的使用频率变化。

  结果显示,在ChatGPT推出后的18个月内,这些在聊天机器人文本中高频出现的词汇,在人类口语中的使用率也显著上升。研究者谨慎地表示这是一种"可能但并非确凿"的关联,但时间上的巧合和词汇分布的重叠程度引人深思。

  佛罗里达州立大学的后续研究进一步证实了这一趋势。研究人员发现,某些ChatGPT的"流行语"正在从屏幕渗透到现实生活对话中。

  "delve"一词的案例尤为典型——这个相对正式的词汇在ChatGPT输出中出现频率异常高,可能因为它在训练数据中某些地区(如尼日利亚)的文本里使用率较高。随着越来越多人使用AI辅助写作和编辑,这些原本带有地域或风格特征的词汇开始跨越边界,以一种人工的方式在全球英语使用者中传播。

  检测困境与身份危机

  Reddit社区的版主们正面临一场新的内容管理危机。在Wired杂志的最新报道中,负责管理r/AmItheAsshole、r/AmIOverreacting等热门子版块的版主们表示,他们越来越难以区分真实用户发帖和AI生成内容。这些以分享人际冲突和情感困境为主题的社区,其吸引力恰恰在于真实人类经历的复杂性和不可预测性。但版主们发现了一个令人不安的新模式:不仅有更多明显的AI垃圾帖子,而且真实用户的写作风格也开始趋同于机器生成的文本。

  名为Cassie的版主对Wired解释了这种双向污染:"人工智能是通过模仿人类来训练的,而人类也会模仿他们看到其他人所做的事情。人类变得越来越像人工智能,而人工智能也变得越来越像人类。"这种相互模仿创造了一个自我强化的循环。当用户在日常生活中频繁接触AI生成的文本——无论是工作邮件的自动补全、社交媒体上的算法推荐内容,还是搜索引擎返回的AI摘要——他们的语言模式不可避免地受到影响。而这些被影响的人类文本又会成为下一代AI模型的训练数据,进一步固化这种风格。

  越来越多证据表明,人类现在说话方式越来越受到聊天机器人的影响

  一段受数字技术影响的语音,配图是一个屏幕上的男人,他的嘴部图像发生了扭曲变形。 rootstock via Shutterstock

  版主们依赖"感觉"来识别AI内容,因为传统的技术检测手段正在失效。AI检测工具本身就存在准确性问题,误判率可达30%,而且特别容易将非英语母语者的写作误判为AI生成。更严重的是,随着人类写作风格向AI靠拢,即使是纯人工撰写的文本也可能触发检测器的警报。许多学生和专业写作者报告,他们完全由自己撰写的文章被AI检测器标记为机器生成,这种"假阳性"现象反映了人类语言表达正在发生的深层变化。

  《纽约时报杂志》专栏作家萨姆·克里斯在深入分析聊天机器人写作风格后指出,这种新兴的"AI文体"具有明确的特征:过度使用抽象概念、充满夸张的隐喻、倾向于使用某些特定词汇和句式结构。当克里斯注意到星巴克门店关闭时张贴的告示写道"这是你的咖啡馆,一个融入你日常生活节奏的地方,在这里创造了回忆,多年来与我们的伙伴建立了有意义的联系"时,他无法确定这是否真的是AI生成的文本。但可以确定的是,这种风格在ChatGPT发布后变得无处不在——无论撰写者是人类还是机器。

  文化输出的意外后果

  英国议会的"I rise to speak"争议揭示了AI对人类语言影响的一个关键维度:文化和地域表达的混淆。保守党议员汤姆·图根哈特在议会发言中公开指责工党同僚:"在对面,我们听到的只是ChatGPT生成的新闻稿。'I rise to speak'——如果你看到有人这么说,很可能他们使用了AI。"这个指控并非空穴来风。分析显示,该短语在2025年6月的某一天就出现了26次,统计Z值达到3.60,远超正常波动范围。

  这种现象的危险性不仅在于议员可能偷懒使用AI代写演讲稿,更在于它代表了一种文化同质化的趋势。ChatGPT的训练数据以英语内容为主,特别是美国英语,这导致它输出的文本带有明显的美式表达习惯。当全球用户都使用同一个AI工具辅助写作时,地域性的语言特色、文化细微差别和表达多样性可能被一种标准化的、中性化的"全球AI英语"所取代。研究语言学的专家警告,这可能导致语言活力的丧失和文化身份的稀释。

  科学研究也证实了AI文本的可识别特征。发表在《自然》期刊上的语言学分析显示,ChatGPT生成的叙事文本使用更少的第一人称代词,更少描述相对关系,而更多使用抽象概念和泛化表述。这些特征源于AI模型的工作原理——它基于统计规律预测下一个词,而非基于真实经验和情感进行表达。然而,当人类长期暴露在这种文本风格中,他们的写作习惯会不自觉地向这个方向漂移,即使他们本人并未使用AI工具。

  在职场环境中,这种影响可能更为深远。许多专业人士使用AI辅助撰写电子邮件、报告和演示文稿,以提高效率和保持"专业"语气。但"专业"本身正在被重新定义为"听起来像ChatGPT"。领英和其他职业社交平台上充斥着高度相似的自我介绍和职位描述,这些文本往往使用诸如"passionate about"(热衷于)、"drive innovation"(推动创新)、"collaborative team player"(协作型团队成员)等套话——这些正是AI模型在生成职业内容时最常选择的表达。

  更令人担忧的是这种影响对年轻一代的塑造作用。成长在AI辅助写作时代的学生,他们的语言发展过程本身就伴随着与机器文本的持续互动。如果他们的作文被AI工具"润色",他们的阅读材料中包含大量AI生成内容,那么他们学习到的语言模式可能从根本上不同于前几代人。这不仅是风格问题,还涉及思维方式的形成——语言塑造思想,而AI偏好的抽象、泛化和公式化表达可能影响年轻人的认知深度和创造性思维。

  从社会语言学角度看,这场"语言污染"本质上反映了技术对人类交流的深层渗透。历史上,新技术总会影响语言——印刷术统一了拼写,电报催生了简洁文体,互联网创造了网络俚语。但AI的影响速度和广度前所未有。它不是被动地记录和传播语言,而是主动生成大量文本,这些文本的质量足以被误认为人类作品,数量又大到足以改变整个语言生态。

  应对这一挑战需要多层面的努力。教育工作者需要教授学生识别和抵御AI文体同化的能力,保持个人声音的独特性。内容平台需要重新思考如何平衡便利性与真实性。而社会整体需要反思:在一个AI无处不在的世界里,什么才构成真正的人类表达?当机器可以完美模仿人类风格,而人类又在模仿机器时,"真实性"这个概念本身是否需要被重新定义?

  这场正在进行的语言实验没有简单的答案。但有一点是清楚的:我们每个人每天产出的文字——无论是工作邮件、社交媒体帖子还是随意对话——都在被这个新的语言环境悄然重塑。正如版主Cassie所观察到的,边界正在消失。在这个人类与AI相互模仿的时代,保持语言的多样性、真实性和人性可能成为我们这一代人面临的文化挑战之一。