引子——AI 递过来的链接

有一天,我向公司内部使用的一套 AI 询问某厂商工具的操作方法。它既不是知名的开源项目,也不是有巨大社区的商业产品,网上只散落着少量信息。

AI 给出了精准的解法,还附上一条“参考链接”。

链接顺利打开。 页面上确实写着我需要的内容,但标题赫然写着:

“公司机密,禁止对外。”

咦?这是谁的内部资料?仔细一看,既不是我司的,也不是厂商的官方手册,更像是另一家同样使用该工具的公司的内部指南。

我赚到了?

……

一点也没有。那一刻我背脊发凉。

如果不靠 AI,换上恰当的关键词搜索,这个页面确实能被找到。但它深埋在搜索结果的几十页之后——真是大海捞针。


第一部分:AI 带来的“民主化”

传统的爬虫式搜索引擎让人类仿佛在沙山里淘金。各家服务提供商都努力把相关页面推到上方,但终究有限:大型网站占据顶端,重要细节被埋在角落。

AI 则截然不同,只要问题匹配,即便是排名靠后的站点,它也会直接把“金子”递过来。

  • 人类需要花几十分钟才能找到、甚至早已放弃寻找的小众信息,只要命中提示,就能瞬间呈现。
  • 过去接触不到专业知识或诀窍的人,如今也能立即触达答案。

这无疑是信息获取的民主化。 正如当年的互联网一样,AI 把知识从精英与专家的专属中解放出来,向更广泛的人群敞开。

在教育与研究领域,这种力量尤为明显。以往必须翻阅专业书籍或期刊才能获得的见解,现在学生和职场人伸手即得。初创企业可以不靠昂贵顾问就制定战略,个人甚至能在一夜之间写出应用。

在信息发布的意义上亦然。互联网让任何人都能向世界发声,但默默无闻的人仍难被发现。

如今我们看到的是:AI 把一个排名极低、可能是误设为公开、没有任何 SEO 的小页面瞬间端了出来——因为它正好解答了我的问题。

可以公平地说,AI 让信息的传播与获取都实现了比互联网时代更深一层的民主化。


第二部分:民主化背后的“曝光化”

但这一经历也让我意识到,同样的民主化其实是曝光化的引擎

那份文件之所以能被访问,是由于设置失误。 从理论上说,传统搜索引擎也可能把它收录,外部人士并非全无机会找到它。 然而没有 AI 的话,这种可能性微乎其微。几乎没人会翻到搜索结果第二十页并逐个点开。

那些原本可以“我们犯了错但没人看到,算是安全过关”的信息,一旦 AI 介入,就会立刻送达需求者。

这次不过是使用手册(还算不上绝密),提问者也没有恶意,所以没有造成实质伤害。 但若是敏感信息,而索取者带着恶念呢? 这一瞬间我明白了:在 AI 时代,“事实上的隐蔽”已经不复存在

“埋得够深就没事”的侥幸不再成立。只要被索引,想要的人就会迅速拿到。

像 ChatGPT 这样的主流服务会设置政策拒绝恶意请求,而且筛选机制只会愈发严格。 可如果有人打造一套完全没有政策限制的自用 AI 呢?

日本曾出现过 Winny 病毒泛滥的时期。通过 P2P 工具 Winny,大量文件被曝光:自卫队内部资料、企业客户名单、个人照片和视频……引发巨大的社会议题。有些公司甚至要求员工签署不使用 Winny 的保证书。(Winny 本身只是 P2P 工具,这样的反应确实过度,但当时的社会氛围就是如此。)

与之相比,如今生成式 AI 给出的精准回答带来的风险更大。一旦信息处于可获取状态,它落入恶意者之手的速度远超当年。无需任何病毒——一次失误就够了。

AI 被提问时毫不犹豫地给出答案,它没有伦理感,也没有责任感。(带有政策的系统会“犹豫”,但个人已经可以搭建毫无审查的模型——Hugging Face 上已有不少。)

在 AI 时代,“藏起来就安全”这种想法彻底失效。

而且曝光并非一次性事件。AI 可以学习这些数据,做出总结,再次提供给其他用户。信息可能在无人察觉泄露之前就扩散、固化。一旦被 AI 吸收,它便可能近乎永久地流通。


第三部分:速度的非对称性

另一个问题是速度的非对称

  • AI 获取、优化、传递信息的速度惊人。它匹配需求与答案的能力远胜传统搜索。
  • 法律、监管、伦理机制、防御措施以及公众意识的调整,即便再快,也只能以年为单位推进。

这种非对称让恐惧倍增。

以往的信息革命——报纸、电视、搜索引擎——都存在一定的摩擦与延迟,让社会得以在空档中建立规则。而 AI 近乎将摩擦降到零,把“最优解”瞬时铺向全球。

结果是:正确信息、错误谣言、不便的事实、惨烈的泄露,在 AI 学到它们的瞬间就以同样的速度扩散。专家的论文与匿名论坛里的错误帖子,很可能从 AI 口中以同等分量被说出。这个未来已经开始了。


第四部分:责任落在何处?

在我的案例里,我确实点开了链接。这并非未授权访问:页面本就能在搜索中出现,我也没有绕过任何认证。

问题在于,“我该不该看”的判断被完全抛给了我本人,而且压根没有任何流程去判断**“该不该让人看到”**。

AI 会给出答案,但不会思考是否应该答。正如我在之前的文章里写到的,AI 没有矜持、信念或责任心。 只有人类才能弥补这块缺口。

我于是打开那家公司的首页,按照页面上提供的邮箱发去通知。 这并非自我夸耀,而是用人的责任感、良心与敬畏来弥补 AI 的冷漠。

聪明的读者应该明白:不是每个人都会如此行事。有人可能把信息扩散开去,有人可能无意间把内部资料喂给 AI。 据我所知,事情尚未像当年 Winny 那样引起社会轰动,但迟早会成为议题。


结语——迈向 AI 时代的“责任设计”

AI 在信息获取与发布两方面带来的民主化,比互联网时代更强。然而另一面也无法回避:意外的曝光会被“精准而迅速”地送到恶意者手中。

令人害怕的本质在于,以前那种“配置错了但没人发现所以没事”不再成立。一旦误设的页面被索引,它就会被快速而准确地送到想要的人面前。

即便没有配置错误,曾被视为无害的碎片化信息,一旦全部串联,也能描绘出你从未计划公开的画像。 我曾尝试把整站文章喂给 ChatGPT,它给出的个人画像准确得惊人——凭感觉约有 60% 命中。虽然没有说出雇主和精确年龄(只猜了个大概),也犯了一些错,但已经足够让人心惊。

※ 风格计量学(stylometry)的研究显示,只需几十行文本就能识别作者。

对于某些对象,AI 甚至可能完全命中。那些看似无害的片段,只要被串连,就会揭露意想不到的现实。

※ OSINT(Open Source Intelligence,即公开源情报)指的是基于公开信息的收集与分析。AI 让 OSINT 更强大、更易用:任何人,甚至跟踪者,都能对目标动手。

接下来的课题不是简单地“加强安全防护”。我们需要构建符合 AI 时代的责任与安全设计——让制度与对策能追上信息民主化的速度。

AI 让知识比以往任何时候都更唾手可得。同时,“没人会发现”的安全神话也随之崩塌。 我目前仍没有答案,但在 AI 已模糊信息边界的当下,我们必须重新认识信息管理。

今后,每个人都只能带着民主化与曝光这两面硬币一起前行。