
隐私研究员Alexander Hanff近日发文披露,Google Chrome正在未经用户明确同意的情况下,静默向设备推送安装约4GB的Gemini Nano端侧AI模型,引发了隐私合规与气候成本的双重担忧。这一发现不仅让Chrome的用户信任面临考验,更在技术社区掀起了关于AI本地化部署边界的大讨论。
根据Hanff的描述,Chrome浏览器在最近的更新中开始自动下载Gemini Nano模型文件,整个过程没有任何明显的用户提示或同意机制。Gemini Nano是Google推出的轻量化AI模型,设计用于在本地设备上执行推理任务,如文本生成、智能回复等功能。4GB的体积对于存储空间有限的设备来说并非小数目,更何况这一下载行为完全绕过了用户的知情权。
从隐私角度看,问题远不止于"未告知就下载"这么简单。端侧AI模型需要访问用户的大量本地数据才能发挥作用——输入历史、浏览行为、文档内容等都可能被模型读取和处理。虽然Google声称端侧推理可以保护用户隐私(因为数据不必上传到云端),但在用户不知情的情况下部署一个能读取本地数据的AI模型,这种"保护"是否还有意义?隐私倡导者对此表示严重质疑。
气候成本是另一个被忽视的维度。全球Chrome浏览器用户超过30亿,如果每个设备都静默下载4GB的AI模型,总数据传输量将达到天文数字。在数据中心和带宽能耗已成为碳排放重要来源的今天,这种大规模静默推送的环境代价不容小觑。Hanff在文中指出,这种行为实质上是将AI推广的成本转嫁给了用户的网络带宽和电力消耗,而用户甚至没有选择的权利。
Google方面对此回应称,Gemini Nano的部署旨在提升浏览器的智能功能体验,并表示会在后续版本中改善用户提示机制。但这一回应并未平息社区的批评声音。许多开发者和隐私专家认为,AI功能的引入应当遵循"选择加入"原则,而非"默认启用再退出"的做法。
此次事件折射出一个更深层的问题:当AI功能成为科技巨头的战略重心,用户的选择权正在被悄然侵蚀。浏览器作为用户接入互联网的核心工具,其基本职责是安全高效地呈现网页内容,而非成为AI模型的静默投放渠道。希望此次争议能推动行业建立更透明的AI部署规范,让用户真正拥有"我的设备我做主"的权利。