서문──AI가 건네준 “링크”

어느 날 회사에서 쓰는 AI에게 특정 벤더의 도구 사용법을 물었다. 이 도구는 유명 OSS나 커뮤니티가 활발한 상용 제품만큼 정보가 많지는 않지만, 그래도 인터넷을 찾으면 조금은 나오는 정도였다.

AI는 딱 맞는 해결책을 제시했고 “참고 자료”라며 링크까지 건네줬다.

링크를 클릭하자 페이지가 평범하게 열렸다. 찾고 있던 내용이 분명히 적혀 있었지만, 제목에는 이렇게 쓰여 있었다.

“사외비 비공개”

어라? 어느 회사의 내부 문서지? … 자세히 보니 우리 회사 것도, 벤더의 공식 문서도 아니었다. 같은 도구를 쓰는 다른 회사의 내부 매뉴얼처럼 보였다.

“득템했다!”

…라고 좋아할 일이 아니다. 오히려 등골이 서늘해졌다.

그 페이지는 AI를 거치지 않고 그럴듯한 키워드로 검색하면 나오기는 한다. 하지만 검색 결과 수십 페이지 뒤쪽에 묻혀 있어, 평소처럼 찾았다면 도달하지 못했을 위치였다.


제1부: AI가 가져온 “민주화”

로봇형 검색 엔진은 거대한 모래더미에서 사람이 금을 찾는 작업과 같았다. 물론 원하는 답이 실린 페이지를 상위에 올리려는 노력이 각 사에서 이어지고 있지만 한계가 있다. 대형 사이트가 상위를 차지하고 하위 사이트에 중요한 정보가 있어도 발견하기 어렵다.

AI는 다르다. 질문에 맞는다면 순위가 낮은 사이트라도 “금덩어리 그 자체”를 즉시 꺼내 건넨다.

  • 사람이라면 수십 분을 들여도 못 찾거나 중간에 포기했을 법한 마이너한 정보도, 질문과 매치되기만 하면 순간적으로 제시한다.
  • 전문 지식이나 노하우에 접근하지 못하던 사람도 이제는 누구나 답을 확인할 수 있다.

이는 분명한 정보 접근의 민주화다. 인터넷이 그랬듯 AI는 지식을 엘리트나 전문가의 독점물에서 더욱 멀어지게 만들고, 폭넓게 개방된 자산으로 바꾸고 있다.

교육과 연구에서도 이 효과는 뚜렷하다. 예전에는 전문 서적이나 학회지를 뒤져야 얻을 수 있었던 지식을 학생과 직장인이 즉시 손에 넣는다. 스타트업은 값비싼 컨설팅 없이 전략을 세울 수 있고, 개인이 하룻밤 사이에 앱을 만들기도 한다.

발신 측면도 마찬가지다. 인터넷이 누구에게나 전 세계로 의견과 정보를 발신할 기회를 주었지만, 인지도가 낮은 사람이 갑자기 무엇을 발신해도 널리 발견될 가능성은 여전히 낮았다.

그런데 보라. AI는 검색 순위가 처참히 낮고, 아마도 우연히 공개된 탓에 SEO조차 되어 있지 않은 마이너한 페이지에서조차 내 질문에 꼭 맞는 답을 즉시 끌어올렸다.

이는 정보를 찾는 사람과 발신하는 사람 모두에게 인터넷 시대와는 질적으로 다른 수준의 민주화가 이루어졌다고 할 만하다.


제2부: 민주화의 이면, “폭로화”

그러나 이 체험은 동시에 폭로화이기도 함을 일깨워 주었다.

그 회사의 정보는 설정 실수로 공개된 것이었다. 기존 검색 엔진으로도 색인되었으니 제3자가 발견할 가능성은 있었다. 접근 권한이 완전히 열려 있었고 검색 엔진에도 인덱싱되어 있었으니까.

하지만 AI가 아니었다면 아무도 알아차리지 못했을 것이다. 검색 결과 20페이지까지 하나하나 클릭하는 사람은 많지 않다.

본래라면 “위험했지만 아무도 보지 못했으니 다행”으로 끝났을 정보가, AI 덕분에 찾는 이에게 즉시 전달된다. 이번 사례는 도구 사용법, 그것도 극비라고 할 정도의 내용은 아니었고, 악의를 가진 사람이 요구한 것도 아니었기에 실질 피해는 없었다.

하지만 실수로 공개된 민감한 정보였고, 그것을 찾으려는 쪽이 악의적이었다면 어땠을까. 이 순간 나는 **사실상 숨겨져 있던 정보(practical obscurity)**가 AI 시대에는 더 이상 성립하지 않음을 깨달았다.

“묻혀 있으니 그나마 안전하다”는 가정은 AI 시대에 통하지 않는다. 한 번 색인된 이상, 원하는 사람에게 곧바로 도달한다.

물론 ChatGPT 같은 메이저 AI는 악의적 요청을 거절하는 정책과 필터를 갖추고 있고, 앞으로 더 강화될 것이다. 하지만 개인이 만든, 정책이 없는 AI라면 어떨까.

한때 일본에서는 P2P 파일 공유 툴인 Winny에서 “폭로 바이러스”가 기승을 부렸다. 자위대 내부 정보부터 회사의 고객 리스트, 개인의 사적인 사진과 영상까지 유출되어 큰 사회 문제가 되었고, 당시에는 직원에게 Winny를 절대 쓰지 않겠다는 서약서를 받는 기업까지 있었다. ※ Winny 자체는 단순한 P2P 도구였으므로 본질적으로는 과도한 대응이었지만, 당시 분위기로는 그런 요구가 공공연하게 이루어진 사례가 있었다.

하지만 생성 AI가 적절한 답을 내놓는 이 상황은 그때와 비교가 되지 않는다. 한 번 유출 가능 상태가 된 정보는 그 시절과는 비교도 되지 않을 속도로 악의적인 손에 넘어간다. 바이러스조차 필요 없다. 한 번의 실수면 충분하다.

AI는 질문을 받으면 주저 없이 “답”을 내놓는다. 거기에 윤리나 책임감은 존재하지 않는다. ※ 정책이 있는 AI는 “주저”하지만, 검열이 없는 모델을 개인이 구축하는 것은 이미 가능하다. 실제로 Hugging Face 등에는 비검열 모델이 공개되어 있다.

AI 시대에는 “묻혀 있으니 안전하다”는 말이 존재하지 않는다.

그리고 폭로는 한 번으로 끝나지 않는다. AI가 학습하고 요약해 다른 사용자에게 재활용하면서 정보는 “확산과 정착”을 동시에 이룬다. 누가 유출됐는지 모르는 사이에, 정보가 AI를 통해 반영구적으로 떠돌 가능성이 있다.


제3부: 속도의 비대칭성

여기서 문제가 되는 것이 속도의 비대칭성이다.

  • AI가 정보를 수집하고 최적화해 제시하는 속도는 압도적으로 빠르다. 특히 원하는 사람에게 정확히 전달하는 능력은 검색 엔진과 비교가 되지 않는다.
  • 반면 법률·규제·윤리 체계나 대응책, 개인의 인식 개선은 아무리 빨라야 연 단위로만 바뀐다.

이 비대칭성이 공포를 더 키운다.

과거 정보 확산은 신문, TV, 검색 엔진처럼 단계적으로 발전해 왔다. 어느 정도의 마찰과 지연이 있었고, 그 사이에 사회는 규칙을 마련할 시간을 벌었다. 하지만 AI는 마찰을 제로에 가깝게 만들고 “최적 답”을 전 세계에 즉시 배포한다.

그 결과 올바른 지식도 잘못된 소문도, 불편한 진실도, 비극적인 유출 정보도 AI가 학습한 순간 같은 속도로 퍼진다. 전문가 논문과 익명 게시판의 오정보가 AI의 입을 통해 같은 무게로 전달되는 미래가 이미 시작되었다.


제4부: 책임은 누구에게 있는가?

이번 사례에서 나는 링크를 열어보았다. 그러나 불법 접속은 아니다. 검색에도 뜨고 인증을 우회한 것도 아니다. 문제는 “봐도 되는가?”라는 판단이 온전히 인간에게 떠넘겨졌다는 점, 또는 보여줘도 되는지 판단하는 시점이 없었다는 점이다.

AI는 답을 내놓지만, 답을 내놓아야 하는지 고민하지 않는다. 이전 글에서 언급했듯 AI에는 긍지·신념·책임감이 없다. 결국 인간이 책임을 보완할 수밖에 없다.

나는 혹시 몰라 그 회사 페이지의 최상위 URL로 올라가 대표 메일 주소로 연락을 넣었다. 자화자찬하려는 건 아니지만 AI의 무책임함을 인간의 책임감과 양심, 그리고 두려움으로 메운 셈이다.

독자 여러분은 이미 눈치챘겠지만, 모든 사람이 같은 행동을 하지는 않는다. 정보를 퍼뜨리는 사람도 있을 것이고, 내부 정보를 AI에 학습시키는 사람도 나타날 것이다. 내가 아는 한 아직 이 문제가 Winny 폭로 바이러스처럼 사회적 대문제가 되지는 않았지만, 언젠가는 과제로 떠오를 것 같다.


결론──AI 시대의 “책임 설계”를 향해

AI는 정보 획득과 발신 양쪽에서 인터넷 전성기보다 훨씬 강력하게 민주화를 이끈다. 그러나 그 이면에서는 의도치 않은 폭로가 일어나고, 악의를 가진 이에게 “정확하고 신속하게” 전달되는 것도 가능해진다. 무서운 본질은 예전에는 가능했던 “설정을 잘못해 공개 상태였지만 못 찾았으니 괜찮다”가 통하지 않고, “설정을 실수해 인덱싱되는 순간 악의적인 이에게 정확하고 신속하게 배달된다”는 데 있다.

심지어 설정 실수조차 아니더라도, 한때는 공개해도 괜찮다고 판단했던 정보를 모조리 엮으면 원하지 않았던 모습이 떠오를 수도 있다. 실제로 나는 이 블로그 글을 모두 ChatGPT에 읽히게 해 실험해 봤는데, 체감상 60% 정도 정확도로 내 프로필을 분석해 보여줬다. 물론 근무처나 “정확한” 나이는 맞히지 못했고 틀린 부분도 많았지만, 전혀 엉뚱하다고 보기는 어려운 수준이었다. ※ 스타일로메트리(stylometry) 연구에서는 단 몇십 줄의 텍스트만으로 저자를 특정할 수 있다는 결과도 보고되어 있다.

분석 대상에 따라서는 완전히 맞히는 경우도 있을 것이다. 겉보기에는 무해한 정보 묶음도 전부 연결하면 뜻밖의 현실을 낱낱이 드러낼 수 있다. ※ OSINT(Open Source Intelligence, 공개 정보 기반 정보 수집·분석)가 훨씬 강력하고 쉬워져서, 누구든지, 누구를 상대로도──예를 들어 스토커가 표적에게도──실행할 수 있다는 뜻이다.

앞으로의 과제는 단순한 보안 강화가 아니다. AI 시대에 어울리는 책임과 보안의 설계──정보 민주화의 속도에 맞춰 인간 사회의 규칙과 대응책을 모색해야 한다.

AI 덕분에 지식은 그 어느 때보다 가까워졌다. 동시에 “못 찾으니 괜찮다”는 안전 신화는 무너졌다. 솔직히 지금 당장은 해법이 떠오르지 않는다. 그러나 AI가 정보의 경계를 녹여 버린 이상 새로운 정보 관리에 대한 인식이 필요함은 분명하다.

앞으로 우리는 민주화와 폭로화라는 동전의 양면을 의식하며 살아갈 수밖에 없다.