편집자 주.
생성형 인공지능이 저널리즘의 지형을 바꿔놓고 있습니다. 생성된 콘텐츠가 넘쳐나고 신호와 소음을 구분하기가 더 어려워졌습니다. 뉴스와 뉴스가 아닌 것의 경계가 모호해지고 제로 클릭의 시대에 진입하고 있다는 경고도 나옵니다.
슬로우뉴스에 독립 편집자(Editor-at-Large)로 참여하고 있는 김낙호 드렉셀대 교수가 AI 시대의 저널리즘 가이드라인을 제안합니다.
혼탁한 답변과 근본적인 질문, 그리고 저널리즘의 사명.
기본 전제: 저널리즘은 사람의 몫, 도구가 대신할 수 없다.
- 저널리즘의 본령은 사회적 사안들에 대한 사실 관계와 그에 입각한 의견들을 발굴해서 정리하고 해석해, 시민들이 올바르게 상황을 파악하고 민주적 의사결정을 내릴 수 있도록 돕는 것이다. 특히 현대 선진 민주제 사회의 특징인 다양한 정체성의 다원적 이해관계 속에서 섬세한 사회적 발전을 도모하고자 한다면, 저널리즘이 시민들에게 전달해야할 내용의 양과 질, 소통의 효과성 등은 갈수록 큰 도전을 안겨준다.
- 저널리즘은 역사적으로 인쇄술부터 인터넷까지 항상 당대 소통 도구의 첨단을 때로는 선진적으로 때로는 더디게 수용해가며 역할을 수행하고자 했는데, 생성형 인공지능(generative AI, 이하 AI) 또한 그 틀에서 바라볼 수 있다. AI라는 도구는 사실관계의 너른 수집을 한층 수월하게 할 수 있고, 그 중 어떤 의제가 돋보이는지 가늠할 수 있도록 돕고, 설명하기 위한 정리의 틀거리를 골라줄 수 있고, 가능한 해석에 대한 선택지를 뽑아줄 수도 있으며, 그것을 어떻게 여러 관심사의 시민들에게 전달할지에 대한 효과적 포장법을 제안할 수도 있다.
- 반면, 저널리즘의 사회적 기능 자체는 온전히 저널리즘을 수행하는 사람의 몫이고, 어떤 착시가 있다 한들 도구가 대신해줄 수 없다. 우리 사회에 지금 어떤 목소리가 더 발굴되어야 할지, 어떤 갈등 사안에 어떻게 더 적절한 전문적 견해를 결합시킬 것인지, 개별 시민들의 주의력 이상의 장기적 관심이 주어져야 해결을 보는 사안에 대한 관심을 어떻게 유지할 것인지, 나아가 기계적 형평성과 노골적 편들기 사이에서 어떻게 가장 사회적으로 도움이 되는 균형점을 찾을지 등 많은 질문은 사회라는 울타리 안에서 그것을 스스로 가꾸며 살아갈 수 밖에 없는 인간의 입장에서 그때그때 최선의 답을 탐색해야 하는 과정이다.
- 인간이 사회적 기능을 고려하지 않고 단지 도구만을 움직여서 만들어진 결과물은, 저널리즘이 아니라 그저 당장의 생산량이나 조회수의 성과를내는 언어 덩어리일 따름이다.
책임 주체는 도구가 아니라 사람이다.
- 저널리즘의 책임 주체는 도구가 아니라 사람이다.
- 추론이나 평가, 함의 제시 등 가치 판단을 요구하는 부분은 반드시 인간의 가치 정합성 검증 과정을 거쳐야 한다.
- AI가 생성한 요약문 등의 단순 사실 서술 또한 의도치 않은 엇나감을 방지하려면 반드시 인간 편집자의 팩트체킹을 거쳐야 한다.
AI의 한계를 직시해야 한다.
- AI는 알고리즘에 내재된 편향에서 자유로울 수 없다. 개발자의 편향과 학습 데이터의 편향을 반영한다.
- AI에게는 인간에게 기대할 만한 내적 일관성이 없다. 같은 질문을 던져도 완전히 다른 결과물을 내놓을 수 있다.
- AI를 활용한 문장은 물론이고, 데이터 수집과 분석조차 인간 기자가 근거 자료의 신뢰성과 대표성, 분석 방법론에 대한 세부적 이해를 충분히 갖춘 상태에서만 활용해야 한다. 당연히 편집과 교열 또한 이 지점에 중점을 두고 이뤄져야 한다.
AI를 활용했다는 사실을 밝혀야 한다.
- AI의 결과물은 특정 맥락 안에서 생성된 것이므로, 신뢰성과 검증성을 위한 자료 출처 명시로서 AI 사용 여부, 사용 조건 및 사용 이유를 투명하게 밝혀야 한다. 나아가 AI가 작성한 내용물을 사람이 작성한 콘텐츠로 오인하게 방조하지 않아야 한다.
- 개인화된 추천과 요약 등에 개인 데이터를 활용할 때는 반드시 그 사실을 밝혀야 하고 거부한 상태로 이용할 수 있는 옵션을 제공해야 한다.
- AI로 생성하는 시각 이미지는 실존하지 않는 것에 한정해야 한다. AI를 통해서 실제 사람 또는 사건을 묘사하는 생생한 이미지를 생성하는 것은, 본질적으로 조작에 가까울 수 밖에 없다. 어떤 AI 생성 이미지가 뉴스 가치 때문에 보도에 포함되어야 할 경우, AI 결과물이라는 사실을 반드시 밝혀야 한다.
- AI를 활용하여 자기 콘텐츠를 재가공하는 경우에도 AI 사용 여부와 조건을 명시해야 한다. 여기에는 요약본, 음성이나 영상 등으로 매체 전환, 기사 묶음, 외국어 번역 등도 포함된다.
AI가 악용될 가능성을 경계해야 한다.
- AI를 활용해 정보를 만들고 유통하는 것은 저널리스트만이 아니다. 의도적으로 누군가에게 유리하거나 불리한 잘못된 정보를 그럴싸한 모습으로 대량으로 뿌리는 것에 AI는 유용한 도구가 될 수 있다.
- 저널리스트는 자신이 수집한 자료가 AI로 생성 또는 변조됐거나, AI를 활용하여 비정상적인 방식으로 유통됐을 가능성을 면밀히 따져야 한다. 나아가 자신의 기사가 AI로 변형돼 원래 의도에서 벗어날 가능성을 경계해야 한다.
도구는 도구일 뿐, 저널리즘의 본질을 놓쳐서는 안 된다.
- AI를 효과적으로 활용하면 자료 수집과 문장 작성, 재가공 등에 드는 노동과 시간을 줄일 수 있는데, 그 편의를 그저 더 대량의 콘텐츠 쏟아내기에 사용하는 것은 허망한 일이다. 도구의 편의로 만들어진 여력을 바탕으로, 저널리즘의 본령을 더욱 깊게 추구해야 한다.
- AI를 통해 쉽게 다양한 이슈의 지형을 뽑아낼 수 있다면, 사람은 그 안에서 각 의제의 중요성을 입체적으로 저울질할 수 있다. 대중적으로 주목 받을 만한 내용과 사회적으로 주목 받아야만할 내용 사이의 한층 효과적인 줄타기를 고민할 수 있다.
- AI를 통해 쉬운 언어로 통계적으로 검증된 현실이나 과학 지식을 전할 수 있다면, 사람은 세부적 조건 설명의 난이도 때문에 대중과 만날 접점이 적은 귀중한 학술 연구들을 마음껏 서로 연결하고 소개할 수 있다. 선호와 감이 아니라, 지식에 기반한 여론 환경에 저널리즘이 기여할 기회가 되는 것이다.
- AI를 통해 조금 더 수월하게 시민들과 뉴스 정보를 매개로 한 신뢰를 조성할 수 있으면, 사람은 그 바탕 위에서 더 본질적이고 구조적인 질문들을 제기할 수 있다. 문제의 근본 패턴을 짚어내고, 해결에 필요한 재료들을 발굴하며, 해결에 도전해온 사람들의 경험과 식견을 끄집어내서 더 많은 이들의 참여를 유도해낼 수 있다.
더 읽을 거리: 해외 언론 기관들의 AI 가이드라인.
- Poynter Institute: https://www.poynter.org/ai-ethics-journalism/ai-ethics-guidelines/
- Associated Press: https://www.ap.org/the-definitive-source/behind-the-news/standards-around-generative-ai/
- The Guardian: https://www.theguardian.com/help/insideguardian/2023/jun/16/the-guardians-approach-to-generative-ai
- The New York Times: https://www.nytco.com/press/principles-for-using-generative-a․i․-in-the-timess-newsroom/