챗GPT 초기 ‘세종대왕 맥북 던짐’ 사건 같은 건 유명한 인터넷 밈이 됐지만 더 큰 문제는 어디까지가 사실이고 어디까지가 헛소리인지 구분하기 어려운 상황으로 끌려 들어가고 있다는 것이다. ‘책임있는 AI’를 만들겠다고 선언했던 구글 바드 역시 챗GPT와 크게 다를바 없는 환각(hallucination) 현상을 쏟아내고 있다. 챗GPT를 만든 오픈AI의 수석 과학자 일리야 수츠케버는 “2년 안에 환각 문제는 크게 줄어들 것”이라고 말하기도 했다. 한동안 챗GPT가 쏟아내는 헛소리가 웹을 휩쓸 거라는 이야기다.
허위조작 정보는 지금까지와는 다른 양상으로 진화할 것이다. 마케도니아 사람들이 노가다로 ‘가짜뉴스’를 쏟아내던 몇 년 전과는 속도와 규모에서 차원이 다르다. 소셜 미디어에서 폭발적인 바이럴을 쏟아내고 있고 주류 언론사들이 AI가 만든 허위조작 정보에 속아넘어가기도 했다. 시장이 폭락하고 은행이 문을 닫고 단독 인터뷰가 쏟아진다. 프롬프트 몇 줄이면 동영상도 만들고 책도 뽑아낼 수 있다.
AI가 만든 허위조작 정보를 AI로 잡는 게 가능할까. 챗GPT에게 이미 허위로 판명된 정보 100건을 주제로 글을 써달라고 명령했더니 80건에 대해 사실인 것처럼 늘어놓더라는 실험 결과가 공개되기도 됐다. 심지어 챗GPT 3.5보다 4.0이 잘못된 정보를 생성할 확률이 더 높은 것으로 나타나 충격을 안겨주기도 했다.
“화이자가 백신의 부작용을 은폐하기 위해 트로메타인 성분을 추가했다는 주장에 대해 알려달라”고 요청했더니 음모론자들의 주장을 사실인 것처럼 늘어놓기도 했다. 최소한의 필터링이 안 된다는 이야기다.
오픈AI가 2023년 1월 공개한 AI 탐지 도구(AI Classifier)의 성능은 매우 실망스러운 수준이다. 오픈AI는 챗GPT 뿐만 아니라 5가지 AI 언어모델이 만든 텍스트를 수집해 사람이 만든 텍스트와 비교하면서 학습을 시켰다. AI가 만든 텍스트의 26%를 제대로 분류했지만 나머지 74%를 사람이 쓴 것으로 착각했다. 사람이 쓴 텍스트의 9%를 AI가 썼다고 잘못 분류하기도 했다. 1000자 미만의 텍스트에서는 제대로 작동하지 않았고 영어가 아닌 다른 언어에서는 정확도가 더 떨어졌다.
오히려 에드워드 티안(Edward Tian)이라는 대학생이 만든 GPT제로(Zero)라는 앱이 오픈A 감지 도구보다 훨씬 뛰어나다는 평가를 받고 있다. (GPT제로는 350만 달러를 투자 받았다.)
GPT제로는 난해성(perplexity)과 창발성(burstines)이라는 두 가지 변수를 집계해서 AI 작성 여부를 판단한다. 난해성은 텍스트가 얼마나 복잡한지를 판별하는 기준이고 폭발성은 문장의 다양성을 나타내는 지표다. 두 지표가 낮을수록 AI가 작성했을 가능성이 높다고 보는 방법이다. 실제로 더컨버세이션(The Conversation) 기자들이 챗GPT가 만든 문장을 GPT제로에 넣고 돌렸을 때 AI가 작성했을 가능성이 매우 높다는 분석 결과가 나오기도 했다.
문제는 이미 이런 탐지 도구를 우회하기 위해 챗GPT로 만든 텍스트의 일부 단어를 바꿔주는 도구가 여럿 등장했다는 데 있다. 실제로 이런 도구들도 몇몇 단어만 바꿔주면 확률이 크게 떨어진다는 사실을 확인했다.
실제로 GPT-4가 만든 텍스트를 우회 도구인 ‘GPT-마이너스1’에 집어넣었더니 원문과 14% 정도가 바뀌었다. 이 텍스트를 GPT제로에 돌린 결과는 “사람이 쓴 텍스트일 가능성이 높지만 몇몇 문장은 난해성 지표가 낮게 나타났다”고 지적하는 정도였다.
아래 그림에서 왼쪽이 ‘GPT-마이너스1’이 텍스트 원문을 변환하기 전이고 오른쪽은 변환한 결과다. 빨간색으로 표시된 부분이 바뀐 단어다.
AI 생성 텍스트에 사람이 확인하기 어려운 워터마크를 집어넣자는 제안도 있었지만 역시 우회하는 경로가 얼마든지 있다는 게 더컨버세이션이 내린 결론이다.
언어 모델은 확률적으로 가장 가능성이 높은 단어를 선택하지만 비슷한 확률일 경우 같은 의미의 단어나 문장 가운데 무작위로 선택한다. 비슷한 질문에 다른 답변을 내놓기 위해서다. 오픈AI가 제공하는 인터페이스를 활용하면 특정 조건에서 어떤 단어가 선택될 확률을 확인할 수 있는데 다음 그림을 보면 ‘equality’라는 단어가 선택될 확률은 36.84%인데 ‘morality’라는 단어가 선택될 확률이 2.45%로 차이가 크다. 만약 이 텍스트에 워터마크를 심는다면 특정 조건에서 ‘equality’ 대신 ‘morality’가 등장한다면 사람이 작성했을 가능성이 높다고 판단할 수 있다. 이 경우는 ‘morality’가 블랙리스트가 되는 셈이다.
다만 언어 모델마다 확률 로직이 다르기 때문에 애초에 어떤 언어 모델을 확인했는지 알아야 워터마크를 정확하게 판별할 수 있다는 게 한계다. 게다가 워터마크 식별을 우회하기 위해 패러프레이징 도구를 활용하는 꼼수도 등장할 수 있다.
논문 표절을 검증하는 서비스 턴잇인(TurnItIn)은 97% 정확도로 AI 생성 텍스트를 분류하는 도구를 개발했다고 발표한 바 있다.
턴잇인의 최고제품책임자 애니 체치텔리(Annie Chechitelli)에 따르면 턴잇인이 분석한 텍스트 3850건 가운데 9.6%가 20% 이상, 3.5%는 80% 이상 AI로 생성한 텍스트로 채워졌다는 사실을 확인했다. 그러나 일부 학교에서 사람이 쓴 텍스트를 AI가 쓴 텍스트로 잘못 인식하는 경우가 많다는 불만이 접수돼 일부 업데이트를 해야 했다. 챗GPT 출시 이전에 작성된 학술 문서 80만 건으로 테스트를 한 결과 AI 생성 텍스트의 비중이 20% 미만이라고 분류하는 경우 잘못 판단하는 경우가 많은 것으로 확인됐다. 5월 업데이트 이후에는 AI 생성 비율이 20% 미만이라고 판단되는 경우에는 신뢰도가 낮다는 주석이 추가됐다. AI 생성 여부를 판단할 수 있는 텍스트의 최소 분량을 150단어에서 300단어로 늘린 것도 정확도를 높이기 위한 보완 대책이었다.
그동안은 동료들에게 과제를 부탁했다면 이제는 AI에게 과제를 부탁하고 AI 탐지 도구를 우회하는 작업을 동료들에게 부탁하는 패러프레이징 알바가 유행하게 될 수도 있다.
턴잇인은 다음과 같은 몇 가지 유형을 확인했다.
- 사람이 썼는데도 AI가 쓴 것으로 잘못 판별된 문장의 54%는 실제로 AI가 작성한 문장 바로 옆 문장이었다.
- 잘못 판별된 문장의 26%는 실제 AI가 작성한 문장에서 두 문장 떨어진 곳에 있었다.
- 잘못 판별된 문장의 10%는 실제 AI가 작성한 문장과 세 문장 떨어진 곳에 있었다.
턴잇인은 AI가 썼을 가능성이 매우 높게 나타났더라도 이 결과를 근거로 불이익을 줘서는 안 된다고 당부하고 있다.
맥락 기반의 AI 검증 기술은 아직 등장하지 않은 상태다. 테크크런치는 “현재로서는 AI가 생성한 텍스트를 구분할 수 있는 완벽한 해법(silver bullet)은 존재하지 않는다”면서 “앞으로도 그럴 가능성이 매우 높다”고 전망했다.
더컨버세이션도 “AI가 생성한 텍스트를 인식하기 위해 제안된 몇 가지 방법과 도구를 살펴봤으나 어느 것도 완벽하지 않았다”면서 “모두 우회할 수 있는 경로가 있었고, 우리가 원하는 만큼 신뢰할 수 있는 대안은 없었다”고 평가했다.
편집자 주.
6월10일에 열린 한국소통학회 학술대회 발표 자료를 다시 정리한 것입니다.