在追赶AI浪潮的道路上,一向以“用户隐私”和“开放”为核心价值观的Mozilla Firefox,似乎走错了一步。
在其最新发布的版本中,多项与人工智能(AI)和大语言模型(LLM)相关的新功能,被悄然地、默认地,向所有用户开启了。
这批“不速之-客”,不仅没有带来预想中的惊喜,反而迅速在Firefox的核心用户社区中,引发了一场广泛的、关于隐私、性能和用户知情权的信任危机。
这场争议的焦点,首先集中在最直观的用户体验层面。

根据大量用户的测试反馈,在这些本地AI功能被默认启用后,Firefox浏览器的CPU和内存占用率,出现了明显的、可被感知的上升。
对于许多配置不高的电脑用户而言,这意味着浏览体验的直接下降。
更令用户感到困惑和不满的是,当他们试图关闭这些不请自来的新功能时,却发现在浏览器的常规设置菜单中,很难找到一个清晰、直接的“总开关”。
这种“请神容易送神难”的设计,与Firefox长期以来所标榜的“用户至上”、“高度可定制”的理念,形成了强烈的反差。
然而,比性能问题更深层次的,是关于“隐私”的担忧。
尽管这些AI功能,据称主要在本地运行,但一些对技术更为敏感的用户,对Firefox服务条款中,关于数据使用的模糊表述,表达了强烈的不满。
他们认为,在AI功能需要处理用户浏览数据的情况下,任何不够清晰、不够透明的数据使用条款,都存在着潜在的隐私风险。
对于一个其核心用户群体,恰恰是因为厌倦了商业巨头的“数据霸权”,才选择Firefox的浏览器而言,这种在隐私问题上的任何一丝含糊,都是不可接受的。
面对官方设置的“迷宫”,一部分硬核的技术用户,开始了一场“自救”行动。
他们通过访问Firefox深度配置页面“about:config”,成功地找到了一系列可以从底层彻底关闭这些AI功能的配置选项,例如“browser.ml.enable”和“browser.ml.chat.enabled”等。
更有热心的社区成员,编写并分享了可以一键执行的批量禁用脚本,以方便普通用户,在自己的Firefox配置文件中,快速地“驱逐”这些不需要的AI功能。
这场由社区驱动的“自救”,本身就是一个强烈的信号。它表明,Firefox的这次更新,已经触碰到了其核心用户群体最敏感的那根神经。
AIbase的分析认为,Firefox的这次“AI风波”,深刻地揭示了在AI技术与传统软件产品进行集成时,所必然要面对的一个核心矛盾:
是应该将AI作为一项需要用户主动选择开启的“增强功能”,还是应该将其作为一项默认开启的“基础能力”?
Firefox显然选择了后者,它试图通过这种“默认推送”的方式,来加速其在AI领域的追赶步伐,以应对日益激烈的市场竞争(目前其全球市场占有率已不足3%)。
但它似乎忘记了,对于一个以“信任”为基石的开源产品而言,任何未经用户明确同意的、默认开启的新功能,尤其是那些会显著影响性能和可能触及隐私的AI功能,都无异于一次对用户信任的透支。
在一个AI无处不在的时代,如何平衡技术的“强大”与用户的“自由”,如何确保用户的“知情权”和“选择权”始终被置于首位,将是所有产品,尤其是那些标榜“以用户为中心”的产品,都必须回答的首要问题。
而Firefox的这次教训,无疑为整个行业,都提供了一个极具警示意义的案例。