引子──AI 交到我手裡的連結

有一天,我向公司內部使用的 AI 諮詢某家供應商工具的操作方式。它既不是知名開源專案,也不是擁有龐大社群的商用產品,網路上頂多散落零星資訊。

AI 給出精準的解法,還附上一條「參考連結」。

連結順利開啟。 頁面上確實寫著我需要的內容,但標題卻是:

「公司機密,禁止對外。」

咦?這是誰的內部文件?仔細一看,既不是我司的,也不是供應商的官方手冊,更像是另一家同樣使用此工具的公司內部指南。

是我走運了嗎?

……

一點也不。那瞬間我只覺背脊發冷。

若不透過 AI,改用恰當關鍵字搜尋,這頁面確實能找到。但它深埋在搜尋結果數十頁之後——堪比大海撈針。


第一部:AI 帶來的「民主化」

傳統的爬蟲式搜尋引擎等於要人類在沙堆裡淘金。服務提供者努力將相關頁面往上推,但總有極限:大型網站占據前段,關鍵資訊往往被埋在下方。

AI 則相反,只要問題對上,即便是排名落後的站點,它也會直接把「金塊」送來。

  • 人類得花上好幾十分鐘才能找到、甚至早已放棄的小眾資訊,只要提示命中,就會瞬間現身。
  • 過去無法取得專業知識或祕訣的人,如今也能立即摸到答案。

這毋庸置疑是資訊存取的民主化。 就像網際網路當年做到的那樣,AI 把知識從精英與專家的壟斷中拆解出來,對更多人敞開。

在教育與研究領域,這股力量尤其鮮明。過去必須翻找專業書籍或期刊才能取得的洞見,如今學生與上班族伸手即得。新創團隊不用昂貴顧問就能規劃策略,個人甚至一夜就能打造應用。

在資訊發佈的意義上也是如此。網際網路讓任何人都能向全球發聲,但默默無聞者仍舊難以被看見。

如今的情景是:AI 將一個排名低落、可能因設定失誤而公開、也沒做 SEO 的小頁面瞬間端上來——因為它恰好解答了我的提問。

可以說,AI 讓資訊的散布與獲取在程度上都超越了純網路時代的民主化。


第二部:民主化背後的「曝光化」

然而這段經驗也讓我驚覺,這種民主化同時是曝光化的引擎

這份文件能被造訪,正是因為設定失誤。 理論上傳統搜尋引擎也可能收錄它,外人並非全無機會找到。 但若沒有 AI,機率微乎其微。很少有人會翻到搜尋結果第二十頁,並逐一點開。

那些原本可以「我們犯了錯但沒人看見,所以算安全」的資訊,如今只要 AI 介入,就能瞬間送到需要的人手裡。

這次只是使用手冊(也稱不上極機密),提問者也沒有惡意,因此沒有造成損害。 可如果內容是敏感資訊,而對方心懷惡意呢? 在那瞬間我明白:AI 時代已經沒有所謂的**「事實上的隱蔽」**。

「埋得夠深就沒事」這種僥倖心態不再成立。一旦被索引,想要的人很快就能拿到。

像 ChatGPT 這類主流服務會設下政策拒絕惡意要求,這些篩選機制也只會愈來愈強。 但若有人打造完全沒有政策限制的自用 AI 呢?

日本曾有一段「Winny 病毒」爆發的時期。透過 P2P 工具 Winny,大量檔案遭曝光:自衛隊內部資料、企業客戶名單、個人照片與影片……造成社會大騷動。甚至有公司要求員工簽下不使用 Winny 的切結書。(Winny 本身只是 P2P 工具,反應確實有些過度,但當時的社會氛圍就是如此。)

與當時相比,現在生成式 AI 所提供的精準答案風險更高。只要資訊處於可取得狀態,它落入惡意者手中的速度遠遠超過以往。不需要病毒——一次失誤就足夠。

AI 被詢問時毫不遲疑地吐出答案,它沒有倫理,也沒有責任心。(有政策限制的系統會「猶豫」,但任何人都能架設毫無審查的模型——在 Hugging Face 上早已有不少例子。)

在 AI 時代,「藏起來就安全」的想法徹底失效。

而且曝光並非一次性的。AI 會把資料學起來、摘要,再提供給其他使用者。資訊甚至可能在沒人察覺外洩之前就擴散、固定。一旦被 AI 吸收,便可能近乎永久地流通。


第三部:速度的非對稱性

另一個問題是速度的非對稱

  • AI 取得、優化與傳遞資訊的速度驚人。它將需求與答案匹配的能力遠勝傳統搜尋。
  • 法律、監管、倫理框架、防護措施與大眾意識的調整,即便再快,也往往以年為單位推進。

這種差距加深了不安。

過去的資訊革命——報紙、電視、搜尋引擎——都有一定摩擦與延遲,讓社會有時間建構規則。AI 幾乎把這些摩擦降為零,瞬間把「最優解」鋪向全世界。

結果就是:正確知識、錯誤謠言、不便真相與悲慘外洩,一旦被 AI 學到,就會以同樣的速度擴散。專家論文與匿名論壇的錯誤貼文,很可能從 AI 嘴裡以同等分量說出。這個未來已經到來。


第四部:責任究竟在誰?

在我的例子裡,我確實點了連結。但這不是未經授權的存取:該頁面本就出現在搜尋結果裡,我也沒有突破任何驗證機制。

問題在於,「我該不該看」的判斷被完全丟給了我自己,而且整個流程根本沒有任何環節判斷**「該不該讓人看到」**。

AI 會給出答案,但不會想是否應該回答。正如我在前一篇文章提過的,AI 沒有矜持、信念或責任感。 這道缺口只能由人來填補。

於是我開啟那家公司的首頁,依照上頭的聯絡信箱寄出提醒。 這不是自吹自擂,而是用人的責任感、良心與敬畏去填平 AI 的冷漠。

精明的讀者應該明白:不是每個人都會這麼做。有人會把資訊散播出去,有人會不小心把內部資料餵給 AI。 據我所知,這件事尚未像當年的 Winny 事件那樣演變為社會風暴,但我相信早晚會浮上檯面。


結語──邁向 AI 時代的「責任設計」

AI 在資訊取得與發布兩面帶來的民主化,遠比網際網路時期更強。然而另一面無法迴避:意外曝光會「準確又迅速」地送到惡意者手裡。

真正可怕的是,過去那種「設定錯了但沒人發現,所以沒事」已不再成立。一旦設定錯誤的頁面被索引,它就會被精準且快速地遞到需求者手中。

就算設定沒有錯,把原本以為無害的零碎資訊串起來,也能拼出你從未打算公開的樣貌。 我試著把整個部落格交給 ChatGPT 閱讀,結果它描繪的個人輪廓準確得驚人——體感上約六成命中。它沒有猜中我的雇主與確切年齡(只估到大概),也犯了不少錯,但已足以讓人心驚。

※ 風格計量學(stylometry)的研究指出,只需數十行文字就能辨識作者。

視對象而定,AI 甚至可能完全命中。那些看似無害的小片段,只要被串連,就能揭露意想不到的真相。

※ OSINT(Open Source Intelligence,即開放來源情報)指的是從公開資訊中蒐集與分析。AI 讓 OSINT 更強、更易取得;任何人,甚至跟蹤者,都能拿來對付目標。

接下來的課題不只是「把安全做得更嚴」。我們需要一套符合 AI 時代的責任與安全設計——讓規則與對策能追上被民主化的資訊速度。

AI 讓知識比以往更近在咫尺,同時「沒人找得到」的安全神話也崩解了。 我目前仍沒有解方,但當 AI 已經模糊了資訊邊界,我們勢必得重新檢視資訊管理。

今後,大家只能同時意識到民主化與曝光這兩面,繼續向前。