기사 공유하기

언어에는 ChatGPT, 이미지에는 미드저니. 공공의 사안을 논의하고 의견을 수렴하려면, 사회적 현실과 가치를 반영하는 사실과 의견을 꾸준히 섭취해야 한다. 좋은 음식을 만들려면 좋은 재료가 필요한 것처럼 말이다. 

그러나 이러한 재료들이 AI의 급속한 발전으로 인해, 실재하는 인간사의 조건들을 우리의 당연한 기대치보다 훨씬 덜 반영하는 상태가 될 수 있다. 그렇기에 많은 현인들이 이미, AI가 우리의 공론장을 본질적으로 파괴해서 해를 끼칠 것이라는 경고를 내렸다.

이런 지적들은 대체로 타당하지만, 정말 근본적인 문제라고 보지는 않는다. 정말 간단한 이유 한 가지 때문인데, 이미 제목에서 스포일러를 해버렸다. 어쨌든 먼저, 몇 가지 주장을 분류해 보자.



[우려 1.] AI는 인간이 만든 ‘제대로 된 정보처럼 보이는 것들’을 양산하여, 대중에게 잘못된 정보를 습득시킨다.

이것은 많은 이들의 우려다 . 말하자면 일종의 근원-우려다. 우리는 우리의 피조물이 우리와 같아 질까봐 두려워한다. AI가 만들어내는 모든 결과물에는 의도적이거나 의도하지 않은 거짓, 그러니까 프로파간다(선동)에서 할루시네이션(오류)까지, 사회적 편견 같은 것들이 담기게 되는데, 그것들은 인간이 만들어온 제대로 된 정보나 의견과 다르지 않아 보일 것이며, 따라서 사람들이 여기에 속아 넘어갈 것이라는 이야기다.

그러나 

사람들에게 잘못된 정보를 제공하고 믿게 만드는 것에는, 딱히 대단한 정교함이 필요한 것이 아니다. 

낸시 펠로시 미 하원의장. 2022년 당시 모습. 퍼블릭 도메인.

몇 년 전 미국 하원의장이었던 민주당 낸시 펠로시 의원이 회의 중에 술에 취해 있었다는 이야기로 소동이 일어난 적이 있었는데, 이 거짓 정보를 무려 영상 증거와 함께 퍼뜨리는 데에는 딱히 무슨 사실적인 ‘딥페이크’가 필요하지 않았다. 그냥 정상적 의정활동을, 약간 느리게 편집한 것이 전부였다.

민주당 고위직들이 인신매매와 아동성착취, 살해를 일삼는 악마 숭배자 조직 소속이고 그 근거지는 워싱턴 D.C. 소재코밋 핑퐁이라는 피자가게 지하실이라고 극우 음모론자가 올린 사진. 물론 허위 주장이고, 해당 피자가게엔 지하실이 아예 존재하지 않는다.

더 황당한 음모론이었던 ‘피자게이트‘라고 해서 무슨 개연성과 논리에 힘입어 그렇게 널리 퍼져갔겠는가. 다른 나라에서 현재 전개 중인 어떤 전쟁의 상태에 관해 거짓말을 하고 싶다면, 포토샵을 킬 필요도 없다. 구글에서 과거 언젠가 일어난 전쟁의 끔찍한 사진을 찾아서 올리면 된다. 사람들에게 먹힐만하면 무엇이든 먹힌다.

현실 점검

자료 자체의 탄탄함보다는 자료가 어떤 맥락에서 유통되는지가 더 중요하다. 적절한 청중을 찾아내서, 강력한 증폭 공간을 가진 해석 공동체를 구축하는 것 말이다(‘반향실 효과’라는 오래된 거친 비유에서 약간 더 발전한 설명으로 나아가야 할 때다). 우리 자신의 믿음을 스스로 반증해보는 습관을 훈련받지 않는 한, 우리는 보통은 그냥 믿고 싶은 것을 믿게 된다. 

그러한 교육을 받은 경우라고 해도, 아마도 매우 좁디좁은 전문 분야에 관해서일 뿐이다. 내 사례를 들자면, 미디어 현상에 대한 지적 회의론에 관해서라면 다소의 전문 지식이 있는 편이다. 그러나 아마도 분자 생물학에 관한 이야기라면, 수많은 헛소리를 비판 없이 믿고 있을 것이다.


[우려 2.] 오남용되지 않는 경우라도, AI는 실제 정보와 경험에 대한 근사치만을 제공한다.

그렉 이건과 함께 현존하는 최고의 SF 작가로 평가받는 테드 창(Ted Chiang). 2011년 당시 모습. 위키미디어 공용.

SF 작가 테드 창이 아름다운 글로 설명한 바 있다. AI는 알고리즘을 통힌 근사치에 의존한다. 그래서 그렇게 생산된 정보는 우리 현실을 반영해내는 수준을 덜 정교하게 만든다. 그런 열화된 데이터로 AI가 다시 학습하고 결과물을 내놓고 학습하는 과정이 반복되면 결과물과 원래 반영해야 할 것 사이의 거리는 점점 더 멀어진다.

테드 창은 인공지능이 권력의 집중을 심화시킬 가능성을 경고했다. 인공지능이 세상을 장악하는 최후의 날(doomsday) 시나리오보다 더 두려운 것은 소수의 손에 권력이 집중되고 불평등이 심화되는 상황이라고 보기 때문이다. 공상과학 소설가가 걱정할 정도로 지금 벌어지고 있는 현실이 상상 가능한 미래보다 더 끔찍하다는 이야기다.

테드 창은 “궁극적으로 우리의 삶을 의미 있게 만드는 것은 사람과 사람 사이의 상호 작용, 사람과 사람이 서로 반응하는 과정에서 얻는 공감과 의도”라고 강조했다. “챗봇과 대화를 할 때면 마치 의식이 있는 상대방이 있는 것처럼 느껴지지만 그렇지 않다”는 사실을 간과해서는 안 된다는 이야기다.

슬로우뉴스, 테드 창의 제안, “인공지능이 아니라 ‘응용통계’라고 부르자.”, 이정환, 2023년 6월 3일.

그러나

우리는 항상, 정보를 퍼뜨릴 때 정보를 해체하고 재구성해 왔다. 그 과정에서 어떨 때는 더욱 깊은 통찰력이 삽입된다. 하지만 대부분의 경우, 그냥 원 정보의 허접한 근사치만 뱉어내곤 한다. 원본 출처에 대한 엄격한 인용을 요구라도 하는 건 학계와 위키백과 정도다.

직접적인 이해관계가 없는 한, 정보가 그 출처를 공정하게 반영하는지 여부를 정확하게 알아낼 의향이 우리들 대부분에게는 별로 없다. 우리는 요약판 뉴스레터를 좋아한다. 우리는 소셜미디어에서 이미 좋아하는 사람들이 날라주는 공감가는 메시지를 좋아한다. 우리는 감정적으로 와닿는 것, 실행 가능해 보이는 것들에 관해서는 쉽게 권위를 부여하고, 세세한 부분은 따지지 않고 넘어가 준다.

현실 점검

그러니까 이것은 우리가 정보와 경험에 접근하기를 원하는 방식 자체의 문제다. 우리는 정보가 편리하고, 정서적으로 가깝고, 우리 삶의 좁은 범위에서 실용적이기를 원한다. 이 세상에서 일어나는 거의 모든 사안에는 너무나 많은 복잡성이 있기에, 우리는 ‘원본’ 현실이라는 온전하게 이해하기 힘든 냉정함보다는 그저 말랑말랑하고 부드러운 근사치를 원한다.

슬로우레터는 뉴스를 더 열심히 읽고 구조와 맥락을 이해하기 위한 프로젝트입니다. 

우리가 사는 세상을 더 잘 이해하고 문제에 더 깊이 뛰어들기 위해서입니다. 슬로우뉴스를 지지하는 가장 좋은 방법은 주변에 슬로우레터 구독을 추천하는 것입니다. 고맙습니다. 

날마다 아침 7시에 찾아뵙겠습니다. 

슬로우레터를
구독하세요.

우리에게 필요한 것은 더 많은 뉴스가 아니라 본질을 꿰뚫는 맥락과 통찰입니다. 잡음을 거둬내고 진짜 중요한 뉴스가 무엇인지 짚어주는 컨텍스트 레터. 이메일 주소를 남겨주시면 날마다 아침 7시에 찾아갑니다.

(이메일 주소를 남겨 주시면 확인 메일이 갑니다. 거기서 확인 버튼을 눌러 주셔야 구독이 완료됩니다. 혹시 확인 메일이 안 오면 스팸함을 확인해 주세요.)

[우려 3.] AI는 인간 자체에 의심을 불러일으켜 타인을 덜 신뢰하게 만들 것이다.

이것은 유발 하라리조나단 하이트 및 기타 여러 인류 문명 걱정 전문가들의 관심사다. 많은 사람들이 [우려1.]의 내용에 공감하면, 우리는 유통되는 모든 정보에 관한 신뢰를 잃을 것이고, 가짜일 수 있다는 우려로 모든 것을 불신하게 된다. 다른 사람들의 존재와 그들 나름의 합리성 추구에 대한 신뢰가 없다면, 공론장은 와해된다. 아니, 사회 자체가 와해된다.

소셜미디어를 통해 우리는 확증편향을 더욱 강하게 구조화했다. 그렇게 인공지능 시대를 맞이하고 있다.

그러나

우리는 어떤 발언을 인간이 했다고 생각하는 경우라도, 발화자에 관한 학습이나 상상을 통해 어떤 적대감을 가진다면 그냥 불신한다. 메시지의 이면에 인간이 있다고 믿든 말든 상관없이, 메시지를 매크로가 뱉어냈다고 조롱하는 사람들이 좋은 예다. 그런 메시지들은 대체로, 사회적으로 문제적지만 그래도 인간의 경험에서 비롯되기는 한, 다른 정치적 관점을 가진 사람들에 의해 쓰여진 것일 뿐이다.

반면에 우리는 우리가 옹호하기로 선택한 모든 것들은 쉽게 신뢰한다. 때로는 개인이 아니라 어떤 시스템 통째로를 그렇게 여기기도 한다. 한때 ‘온라인 광장’이 되기를 희망했던 트위터의 현재 소유주이자 파괴자인 일론 머스크를 보라. 그는 기성(“레거시”) 언론을 싸잡아 쓰레기로 비난하고는, 그 대신 왜곡된 버전의 ‘시민저널리즘’을 옹호하고 다닌다 .

현실 점검

진정한 인간이고 말고는 중요하지 않다. 결정 요인은 자기가 썼든 AI를 활용했든, 메시지를 내놓은 자가 나쁜 놈이라고 생각되는지 여부다.

그러니까, 요지는 다음과 같다.

  1. 우리에게 잘못된 정보를 습득시키는 것은 메시지가 아니다. 우리가 의지하곤 하는, 우리에게 세상을 해석하는 방법을 제공하는, 우리가 좋아하는 인간들의 네트워크가 문제다.
  2. 의미의 왜곡 자체가 잘못된 정보를 습득시키는 것이 아니다. 우리가 실제로 아는 바 이상으로 많은 것들을 알고 있는 느낌을 원하는 것 자체가 문제다.
  3. 인간이고 말고가 잘못된 정보를 습득시키는 것이 아니다. 다른 사람들도 함께 어떤 공동선을 추구하는 데 합의할 수 있다는 감각을 상실하는 것이 문제다.

이 세 가지 요소는 차세대 AI의 출현 같은 것보다 훨씬 먼저 있던 현상이다. 우리는 이런 모습을 넘쳐나는 소셜미디어와 온라인 소통에서 이미 보았다. 그 전에, 서로의 진영으로 당파화된 뉴스의 놀라운 흥행을 통해 이미 보았다. 그 전에, 상업적 인센티브가 최우선시되는 미디어 산업의 큰 방향에서 그 조짐을 보였다. 그 전에, 합리적 토론 관행의 질보다는 발언 통로의 양만 늘리면 모든 문제가 해결될 것이라는 순진한 낙관론이 있었다.

AI가 우리 문명을 파괴하게 될 방식이라고 비판하는 것이 무엇이든간에, 우리는 스스로 이미 그렇게 하고 있었다. 네트워크로 연결된 인간들이 말이다.

문제가 인간이라면, 인공지능의 발전을 잠시 멈추라고 요구하는 것으로는 해결할 수 없다. 그보다는, 민주적 규범, 공감의 방식, 사회적 복잡성 및 기타 인간사의 조건들에 대한 기본 교육을 더욱 강화해야한다.

딱 그런 것을 하라고 원래 존재하는 어떤 학문 분야가, 그런 기능을 제대로 못하고 지난 수십 년 동안 주변으로 밀려나기에 바빴다는 것이 아무래도 안타깝다. 바로 인문학 말이다.


관련 글