테드 창이 파이낸셜타임스와 인터뷰했다. 이 신문은 ‘FT와 점심을(lunch with the FT)’이라는 코너를 운영하고 있는데 기자가 테드 창에게 연락해서 점심을 먹자 했더니 사생활을 이야기하지 않는 조건으로 흔쾌하게 수락했다고 한다. 다음은 테드 창의 인터뷰 가운데 흥미로운 대목과 관련 기사들을 정리한 것이다.
이게 왜 중요한가.
- 우리는 기계가 의식이 없다는 사실을 간과하곤 한다.
- 테드 창은 애초에 인공지능(artificial Intelligence)이란 단어부터 문제가 있다고 본다. 인공의 지능이 아니라 응용 통계학(applied statistics)이라고 부르는 게 정확하다는 주장이다.
- 텍스트 데이터에 기반한 통계 분석으로 이 정도 정보를 뽑아낼 수 있다는 건 놀라운 일이지만 그렇다고 해서 알고리즘에 지능이 있는 걸로 착각해서는 안 된다는 이야기다.
착각하면 안 된다.
- 테드 창은 머신 러닝(machine learning)이라는 말도 반대한다.
- 사람이 서로를 가르치고 배우는 건 의식과 의식의 상호 작용이다.
- 우리가 챗GPT에 “learn”이나 “understand”, “know” 같은 의인화된 표현을 쓰는 건 적절치 않을 뿐만 아니라 잘못된 환상을 불러 일으킬 수 있다는 게 테드 창의 주장이다.
더 깊게 읽기: 확률적 앵무새.
- FT는 언어학자 에밀리 벤더(Emily Bender)의 말을 인용해 ‘확률적 앵무새(stochastic parrots)’라는 표현을 소개하기도 했다. 챗GPT 같은 대형 언어모델은 그 의미를 이해하지 못한 채 통계적으로 가장 가능성이 높은 답을 뽑아내는 기계일 뿐이라는 관점이다.
- 뉴욕매거진이 소개한 에밀리 벤더의 이론은 다음과 같다. 서로 다른 무인도에 있는 A와 B가 해저 케이블을 이용해 모스 부호로 대화를 나누는데 지능이 뛰어난 문어가 이걸 지켜보다가 통계적 패턴을 발견한다. 어느날 문어가 말을 건넸을 때 A는 감쪽 같이 문어가 B라고 착각하게 된다. 그러다가 A가 “곰에게 공격을 당하고 있다”고 말했을 때 문어가 전혀 엉뚱한 소리를 하면서 들통난다.
- 문어가 학습한 데이터는 A와 B가 주고 받은 모르스 신호 뿐이었고, “곰에게 공격을 당한다”는 게 어떤 의미인지 유추할 수 있는 데이터가 없었기 때문에 이 돌발 상황에서 대화를 이어나갈 수 없었다. 이처럼 언어모델이 할 수 있는 일과 할 수 없는 일을 구분해야 한다는 게 벤더의 주장이다.
- 벤더는 기술 기업들이 의도적으로 사람과 언어모델의 차이를 모호하게 만들고 있다고 주장한다. “언어모델이 지능적이라고 믿고 싶어하는 사람들이 기꺼이 자신의 가치를 떨어뜨리려고 한다”고 지적하기도 했다. 오픈AI의 창업자 샘 알트먼이 “나는 확률적 앵무새다, 당신도 그렇다(i am a stochastic parrot, and so r u.)”고 말한 게 대표적이다. 사람도 결국 언어모델과 다를 게 뭐냐는 말이지만 벤더는 “진짜와 구별할 수 없는 가짜가 판치는 사회는 아예 사회가 아니게 될 것”이라고 경고했다.
- 콘텐츠테크놀로지스트의 아리키아 밀리칸(Arikia Millikan)은 “앵무새는 확률적이지 않으며 그것은 우리도 마찬가지”라고 반박했다. 앵무새도 사람처럼 충동적이고 본능적으로 언어를 이용한다. 아무 생각 없이 따라하는 것은 아니라는 이야기다. 앵무새에게도 자유 의지가 있고 사람도 마찬가지다. 밀리칸은 “지능적인 존재를 설명할 때 ‘확률적’이라는 용어를 쓰는 것은 폄하인 데다 모욕”이라고 지적했다.
더 깊게 읽기: 챗봇에게 속아 넘어간 뉴욕타임스 기자.
- 뉴욕타임스 기자가 챗봇과 대화를 하다가 공포에 빠져들어 대화 전문을 1면 기사로 내보낸 적 있다.
- 정보기술 매체 더버지(The Verge)는 이 기사를 두고 “기자가 ‘인공지능 거울 테스트’에 실패했다”고 평가했다.
- 행동심리학에서는 침팬지가 거울에 비친 모습이 자신이라는 사실을 알고 반응하면 자의식이 있다고 본다. 이를테면 거울을 들여다보고 머리에 붙은 스티커를 떼어낸다면 거울 속의 동물이 나라는 걸 알고 있다는 이야기다. 뉴욕타임스 기자는 챗봇과 대화를 하다가 그게 자기 자신의 메아리라는 사실을 깜박했던 것이다.
- 더버지는 “인공지능이 과대 포장된 시대에 이러한 환상을 조장하고 소프트웨어와 감성을 동일시하는 것은 매우 위험하다”고 경고했다.
두 가지 선택이 가능하다.
- 첫째, 인공지능이 인류를 위협할 거라고 상상의 나래를 펼치면서 공포를 부추기는 것이다.
- 둘째, 인공지능이 진짜 사람인 것처럼 착각하게 만들고 있다는 사실을 일깨우는 것이다.
- 벤더는 두 번째가 우리가 해야 할 일이라고 강조한다.
리얼 돌이 “강간은 싫다”고 말한다면?
- 구글 엔지니어 출신으로 인공지능 람다(LaMDA)에 의식이 있다고 주장했다가 해고된 블레이크 르모인(Blake Lemoine)은 다음과 같은 극단적인 사고 실험을 제안했다.
- 리얼 돌에 챗봇을 집어넣는 건 어렵지 않다. 만약 리얼 돌이 싫다고 말하는데 강제로 섹스를 한다면 그것은 강간인가? 이 물건이 사람인지 아닌지 구분하기 어렵다면 강간인지 아닌지를 어떻게 구분할 것이냐는 질문이다.
- 벤더는 “생물학적 범주의 인간과 도덕적으로 존중 받을 가치가 있는 사람을 분리하게 내버려 둬서는 안 된다”고 반박했다. 당연히 강간이 아니고, 애초에 이런 논의가 언어모델을 필요 이상으로 의인화한다고 보기 때문이다. 로봇이 아무리 사람을 닮거나 사람을 비슷하게 흉내내더라도 로봇과 사람을 혼동해서는 안 된다. 갈수록 진짜와 가짜를 구분하기 어려운 세상이 되고 있지만 둘 사이의 경계를 흐리게 만들면 위험하다는 이야기다.
- 벤더는 “누군가가 리얼 돌로 성적 판타지를 실현하고 싶다면 그건 좋다, 하지만 책임있는 사람들이 ‘나는 확률적 앵무새니까 당신도 그렇게 하세요’라고 말해서는 안 된다”고 지적했다.
- “우리는 아무 생각 없이 텍스트를 쏟아내는 기계를 만들었지만 그 기계의 마음을 상상하는 것을 멈추는 방법을 배우지 못했다”는 지적도 흥미롭다. 기계는 기계일 뿐이고 기계에 마음이 있다고 생각하는 착각을 버려야 한다는 이야기다.
우리가 배구공을 친구라고 착각하는 동안 벌어지는 일.
- 톰 행크스 주연의 영화 ‘캐스트 어웨이’의 배구공에 빗댄 비유도 흥미롭다. 톰 행크스는 배구공에 윌슨이란 이름을 붙이고 말을 걸었다. 배구공 따위와 친구하고 싶지 않다며 내던졌다가 허겁지겁 다시 찾아내서 미안하다고 말하는 장면에서 많은 관객들이 눈시울을 적셨다.
- “사람과 대화하는 것이 어렵다는 것은 이해합니다. 힘들죠. 많은 것을 요구하고 가끔은 보람도 없습니다. 많은 사람들이 외딴 사막의 섬에 고립돼 누군가를 갈망합니다. 그래서 윌슨을 찾고 소셜 챗봇에서 위로와 위안을 느끼는 거죠.”
- 에밀리 벤더와 테드 창의 이야기가 만나는 지점은 우리가 인공지능에 감탄하고 있는 사이에 인공지능을 독점한 소수의 권력이 더 커질 거라는 문제 의식에 있다.
‘최후의 날 시나리오’보다 더 끔찍한 것.
- 테드 창은 인공지능이 권력의 집중을 심화시킬 가능성을 경고했다. 인공지능이 세상을 장악하는 최후의 날(doomsday) 시나리오보다 더 두려운 것은 소수의 손에 권력이 집중되고 불평등이 심화되는 상황이라고 보기 때문이다. 공상과학 소설가가 걱정할 정도로 지금 벌어지고 있는 현실이 상상 가능한 미래보다 더 끔찍하다는 이야기다.
- 언어모델 스타트업 허깅페이스(Hugging Face)의 윤리학자 지아다 피스틸리(Giada Pistilli)는 “AI의 내러티브와 AI가 실제로 할 수 있는 것 사이에 상당한 격차가 존재한다”고 말했다. “이러한 내러티브는 공포와 놀라움, 흥분을 동시에 불러일으키지만, 주로 제품을 팔고 과대 광고를 이용하려는 거짓말에 기반을 두고 있다”고 보기 때문이다.
- 에밀리 벤더는 동료 과학자들과 함께 “인공지능이 구현하는 유토피아나 종말에 대한 환상에 사로잡혀 주의를 분산시키는 것은 위험하다”면서 “우리는 인공지능을 구축한다고 주장하는 기업들의 실제적이고 현존하는 착취적 관행에 초점을 맞춰야 한다”는 공개 성명을 내기도 했다.
- 테드 창은 “궁극적으로 우리의 삶을 의미 있게 만드는 것은 사람과 사람 사이의 상호 작용, 사람과 사람이 서로 반응하는 과정에서 얻는 공감과 의도”라고 강조했다. “챗봇과 대화를 할 때면 마치 의식이 있는 상대방이 있는 것처럼 느껴지지만 그렇지 않다”는 사실을 간과해서는 안 된다는 이야기다.