기사 공유하기

  • 진짜 ‘가짜뉴스’가 온다.
  • 허위조작 정보에 대한 완전히 다른 접근이 필요하다.
  • 사람이 만든 것과 사람이 만들지 않은 것의 경계, (AI를 의인화해서는 안 된다.)
  • 저널리즘과 저널리즘이 아닌 것의 경계를 무너뜨려서는 안 된다. 진짜 뉴스에 대한 신뢰 확보가 매우 중요하다.
  • 저널리즘의 역할이 그 어느 때보다도 중요한 때다.

‘가짜뉴스’는 없다.

말이 현실을 규정할 때가 있다. ‘가짜뉴스’라는 말 좀 쓰지 말자는 수많은 논의가 있었지만 여전히 ‘가짜뉴스’만큼 입에 딱 붙는 말이 없는 게 사실이다.

“이건 허위 조작 정보입니다, 여러분” 보다는 “가짜뉴스에 속지 마세요”라는 게 훨씬 강력하다는 걸 부정하기는 어렵다.

대통령 윤석열이 워싱턴포스트와 인터뷰에서 “100년 전의 일을 가지고 무조건 무릎꿇어야 한 하는 것은 받아들일 수 없다”고 말한 게 논란이 되자 국민의힘은 대뜸 ‘가짜뉴스’라는 딱지를 붙였다. 다음은 국민의힘 대변인 유상범의 말이다.

“민주당은 대통령의 발언마다 가짜뉴스 선동에 이용한다. (중략) 한국어 원문을 보면 윤석열 대통령은 주어를 생략한 채 해당 문장을 사용했다.”

그러나 워싱턴포스트 기자가 곧바로 녹취록 원문을 공개하면서 이 해프닝은 일단락됐다. 실제로 원문에는 “저는 받아들일 수 없다”고 돼 있었다.

‘가짜뉴스’라는 말을 너도나도 쉽게 쏟아내지만 이런 경우는 완전히 잘못된 용법이다.

  • 애초에 사실이 아닌 게 아닐뿐더러,
  • 언론에 정식으로 보도된 내용을 ‘가짜뉴스’라고 불러서는 안 된다.
  • 비판에 동의할 수 없다고 해서 ‘가짜뉴스’로 매도하는 건 진실을 보도하는 언론에 대한 모독이다.
  • ‘가짜뉴스’라는 말이 자주 언급될수록 언론 전반에 불신이 확산된다.

부정확하거나 왜곡된 보도는 언제나 있을 수 있지만 언론 보도에 ‘가짜’라는 딱지를 붙이는 건 신중해야 한다. 언론은 늘 100%의 진실을 이야기하지는 않는다. 100% 확인되지 않은 사실일 수도 있고 사실이라고 판단해서 기사로 내보냈는데 사실이 아니거나 정확하지 않은 것으로 드러나는 경우도 많다. 의혹은 늘 완성되지 않은 상태에서 제기되기 때문에 의혹인 것이고, 그래서 더욱 정교해야 하고 언제나 잘못 판단할 가능성을 고려해야 한다.

한국에서의 ‘가짜뉴스’는 이처럼 미국이나 다른 나라들과는 양상이 조금 달랐다. 한국에서 엄밀한 의미의 ‘가짜뉴스’가 본격적으로 등장하지 않았던 건 다음 다섯 가지 요인을 꼽을 수 있다.

  • 첫째, 누구나 요건만 갖춰 등록하면 언론사를 만들 수 있다. 진짜 언론사를 만들어서 저질 기사를 내보내는 것도 결코 어렵지 않다. (에스더 기도운동은 엄밀한 의미에서 ‘가짜뉴스’는 아니다. 왜곡 선동이고 혐오와 차별 주장일 뿐.)
  • 둘째, 가짜 언론사를 만든다고 해도 노출이 안 되니 별 의미가 없다. 마케도니아의 가짜뉴스 제작자들은 소셜 미디어를 이용했지만 한국은 바닥이 좁고 ‘듣보잡’ 언론사는 금방 발각된다. 게다가 소셜 미디어의 바이럴 효과도 그때와는 많이 다르다. (열린공감TV나 더탐사도 등록된 언론사다.)
  • 셋째, 이게 더 큰 이유인데, 장난이든 진심이든 거짓 정보를 흘려보내기 위해 굳이 뉴스의 외형을 갖출 이유가 없다. 사람들은 뉴스에 나왔다고 해서 믿기 보다는 뉴스에 안 나온 은밀한 이야기에 더 솔깃해 하는 경향이 있다. 네이버나 다음에 검색해 보면 금방 사실을 확인할 수 있지만 많은 사람들이 포털에 뜨지 않는 진짜 내밀한 고급 정보가 있다고 생각한다.
  • 넷째, 뉴스보다 훨씬 더 폭발력 있는 전달 수단이 많다. [받은 글] 형태로 카카오톡이나 텔레그램에 떠도는 온갖 찌라시들도 그렇고 커뮤니티 게시판에 흘러 다니는 출처불명의 게시물도 엄밀한 의미의 ‘가짜뉴스’는 아니지만 많은 사람들이 뉴스 이상의 신뢰를 부여한다. ‘가짜뉴스’를 퍼뜨리고 싶으면 뉴스의 흉내를 낼 필요가 없다는 이야기다.
  • 다섯 째, 유튜브와 커뮤니티가 매체의 역할을 한다. 불신하면서도 의존도가 높고 접근성도 높다. 많은 사람들이 굳이 구분하지 않는다. 신문과 방송을 무조건 믿지도 않지만 신문과 방송이 아니라고 해도 무조건 불신하는 것도 아니다. 잘 팔리는 허위조작 정보는 충분한 개연성을 확보하고 있다. 유튜브는 엄밀한 의미의 ‘가짜뉴스’가 아니지만, 그렇기 때문에 훨씬 더 위험하다.

여기에 ‘가짜뉴스’의 범주를 더욱 혼란하게 만드는 게 정치인들의 무책임한 ‘가짜뉴스’ 타령이다.

윤석열은 바이든-날리면 논란 이후 출근 길에 기자들을 만난 자리에서 “우리 국가 안보의 핵심축인 동맹관계를 사실과 다른 ‘가짜뉴스’로 이간질하려고 아주 악의적인 행태를 보였기 때문에 대통령 헌법수호 책임의 일환으로서 부득이한 조치였다”고 말했다.

워터게이트 사건을 터뜨린 워싱턴포스트 기자 밥 우드워드가 이런 말을 했다.

‘가짜뉴스’는 트럼프가 만들어낸 용법이다. 트럼프가 언론의 신뢰를 저해시키고자 하는 의도로 ‘가짜뉴스’란 용어를 사용했다. 그 표현으로 트럼프가 성공한 면도 있다. 자신을 비판하는 언론에 대한 불신을 확산시켰다. 영리한 마케팅이었다. ‘가짜뉴스’라는 수사적 표현을 있는 그대로 받아들여선 안 된다.”

애초에 ‘가짜뉴스’는 뉴스가 아니면서 뉴스인 척하는 거짓 정보를 말한다. 도널드 트럼프가 CNN 기자의 질문에 “You are fake news(당신들은 ‘가짜뉴스’야)”라고 윽박지른 것처럼 (내가 보기에) 나쁜 뉴스를 ‘가짜뉴스’라고 매도하기 시작하면 논점이 흐트러진다.

한국에서도 마찬가지다. 한동훈(법무부 장관)이 청담동 술자리 논란을 ‘가짜뉴스’라고 일축하는 건 논란의 진위 여부를 따지지 않고 애초에 더탐사를 언론이라고 보지 않겠다는 판단이 깔린 것이다. ‘일국의 장관’에게 진짜 언론사와 가짜 언론사를 구분할 자격을 누가 줬나.

한국언론진흥재단이 2017년 3월에 실시했던 설문조사에서는 ‘기존 언론사들의 왜곡, 과장보도’를 ‘가짜뉴스’로 본다는 답변이 40.1%였는데 2019년 2월에 설문조사에서는 ‘선정적 제목을 붙인 낚시성 기사’를 ‘가짜뉴스’로 본다는 답변이 87.2%나 됐다. 심지어 ‘클릭수 높이기 위해 짜깁기 하거나 동일 내용을 반복 게재하는 기사’를 ‘가짜뉴스’라고 본다는 답변이 86.8%, ‘한 쪽 입장만 혹은 전체 사건 중 일부분만 전달하는 편파적 기사’를 가짜뉴스라고 본다는 답변도 81.4%나 됐다. ‘가짜뉴스’가 포괄적으로 ‘나쁜 뉴스’의 개념으로 쓰이고 있다는 이야기다.

한국에서는 여전히 정부 차원에서 ‘가짜뉴스’를 때려잡아야 한다는 논의가 계속되고 있다. 문재인 정부가 ‘가짜뉴스’ 근절대책을 내놓은 바 있고 윤석열 정부는 아예 ‘가짜뉴스’와의 전쟁을 선포하기도 했다. 현실은 ‘가짜뉴스’의 정의 조차 명확하지 않고 실제로 뭘 때려잡겠다는 건지 알 수도 없는 상태다.

진짜와 가짜의 경계가 무너지고 있다.

지금까지의 ‘가짜뉴스’ 논쟁이 뉴스의 외연을 흐트러뜨리고 뉴스의 신뢰를 끌어내렸다면 지금 등장하는 새로운 유형의 ‘가짜뉴스’는 사실과 진실의 근간을 뒤흔드는 근본적인 위기라고 할 수 있다. 과거에는 뉴스인 것과 뉴스가 아닌 것을 구별하면 됐지만 이제는 무엇이 진짜 뉴스인지 그 경계가 모호해지고 있다.

챗GPT 시대의 ‘가짜뉴스’는 몇 가지 근본적인 차이가 있다.

  • 첫째, 비용이 거의 들지 않는다. 프롬프트만 적당히 잘 던져 넣으면 누구나 몇 초만에 만들 수 있다.
  • 둘째, 학습에 의한 진화가 가능하다. 독자들의 반응을 반영해 효율을 고도화할 수 있다. 수백 수천 번의 A/B 테스트를 자동화할 수 있다.
  • 셋째, 완성도가 높아졌다. 지금까지의 ‘가짜뉴스’는 뉴스 기사의 외형을 갖추는 데 어느 정도 진입장벽이 있었지만 이제는 진짜 뉴스와 구분이 가지 않을 정도의 퀄리티를 확보하게 됐다. 과거에는 ‘선수’들이 아니면 금방 들통이 났겠지만 이제는 ‘선수’들이 봐도 기사의 형식만으로는 진짜와 가짜를 구분하기 어렵게 됐다.
  • 넷째, [받은 글]이 떠돌았던 건 사람들이 출처를 의식하지 않기 때문이지만 AI ‘가짜뉴스’가 범람하면 그 경계가 더욱 급격하게 무너질 가능성이 크다.

지금까지는 잘못된 정보를 퍼뜨리려면 상당한 비용과 인력이 필요했지만 이제는 훨씬 더 적은 비용으로 개인화된 허위조작 정보를 퍼뜨릴 수 있게 됐다. 허위조작 정보가 양적으로 늘어날 뿐만 아니라 질적으로도 훨씬 고도화 될 거라는 전망이 나온다.

AI 생성 콘텐츠의 범람은 다음 네 가지의 문제를 낳는다.

  • 첫째, 허위조작 정보의 문제: 멀쩡하게 보이는 헛소리를 구분하기 어렵게 된다.
  • 둘째, 혼란과 불신 : 사람이 쓴 것인지 아닌지 의심부터 하고 봐야 한다. 학교 리포트, 디지털 아트, 동영상, 심지어 신문 기사까지도. 이 글 역시 챗GPT로 돌린 거 아니냐고 의심하는 사람이 있을 수 있다.
  • 셋째, 저작권과 오리지널리티의 문제: AI로 긁어서 만든 콘텐츠로 돈을 번다면 그 저작권은 누구에게 있을까. 만약 AI가 여기저기서 잘게 쪼개서 적당히 베껴서 만든 콘텐츠라면? AI가 만든 그림에 어떤 창작자의 아이디어가 묻어 있다면? 누가 봐도 베낀 것 같거나 느낌이 비슷하다면? AI 콘텐츠를 표절이라고 비난할 수 있을까? AI로 만들어 놓고 자기가 만든 거라고 우긴다면? 온갖 문제가 발생할 수 있다.
  • 넷째, 윤리적인 문제: AI가 인간 세상의 차별과 편견, 고정 관념을 학습해서 확대 강화할 가능성도 있다. AI의 도움을 받아놓고 그걸 자기 생각처럼 말하는 사람이 늘어날수록 우리 모두가 AI의 사고 체계에 갇히게 될 수도 있다. 자동 생성 블로그로 광고 수입을 얻는다거나 단순 자동화로 다른 사람들의 노력을 긁어간다거나 검색 엔진을 어뷰징한다거나 등의 여러가지 윤리적 문제가 발생할 수 있다.

대형 언어모델의 위험을 실감하게 하는 가장 최근의 뉴스는 미국 뉴욕에서 한 변호사가 인공지능의 도움으로 변론 요지서를 작성했다가 엄청난 위기에 몰렸다는 소식이다.

판사가 크로스체크를 하다 보니 완전히 사실 무근의 판례가 담겨 있었고 변호사에게 물어봤더니 사무 직원이 챗GPT에게 관련 판례를 찾아달라고 했다는 사실을 확인했다고 털어놓았다. 인공지능이 만든 환각(Hallucination)에 속아 넘어갔다고 변명하기에는 어쨌거나 변론의 최종 책임은 변호사가 져야 한다.

파이낸셜타임스는 “법률사무소 직원이 새벽 3시에 졸면서 작성한 참고 자료에 실수가 있었다면 이를 검토하고 확인할 책임이 변호사에게 있는 것처럼 애꿎은 챗GPT에게 책임을 물을 수는 없다”고 지적했다.

저널리즘의 영역에서는 99%의 사실은 진실이 아니고 1%를 마저 채워야 비로소 기사가 된다. 저널리스트의 책무는 접근 가능한 최선의 진실을 찾는 것이기 때문이다. 100% 확인되지 않은 의혹을 기사로 내보내야 할 때도 있지만 합리적인 근거를 제시해야 하고 무거운 책임이 뒤따른다. 그러나 챗GPT 같은 생성형 인공지능은 잘 모르는 질문을 받으면 가장 개연성 높은 확률의 답변을 골라서 던진다. 언뜻 그럴 듯해 보이지만 출처도 없고 과정도 건너 뛴다.

인디즈타임스(In These Times)의 노동 전문 기자 해밀턴 놀란이 “사람의 마음에서 나온 것이 아니라면 저널리즘이 될 수 없다”고 규정한 것도 이런 이유에서다. 사람 기자는 늘 실수를 하지만 실수에 따른 책임을 진다. 기사가 잘못 나가면 정정 보도를 하고 평판에 큰 타격을 받는다. “저널리즘은 신뢰를 바탕으로 운영되고 신뢰는 책임감의 결과”라는 지적도 의미심장하다. (위 두 문단은 월간 신문과방송 2023년 4월호, “AI는 거들뿐, 인간 기자의 경쟁력은 신뢰와 책임”에서 다시 인용.)

생성형 인공지능으로 값싸게 만들어낸 유사 저널리즘이 검색 엔진와 온라인 공론장을 황폐화할 거라는 우려도 늘어나고 있다. 몽클레어주립대 교수 타라 조지는 NBC와 인터뷰에서 “좋은 뉴스와 나쁜 뉴스, 잘 보도된 저널리즘과 ‘가짜뉴스’를 구분하는 것이 점점 더 어려워지고 있으며, 인공지능이 이런 혼란을 더욱 악화시킬 것”이라고 경고했다.

해밀턴 놀란은 “어느 언론사도 인공지능이 직접 생성한 저널리즘을 발행하지 않도록 하는 표준에 모두가 동의해야 한다”고 제안하기도 했다. 만약 이런 기준이 없다면 공론장이 오류와 편견, 출처 없는 정보로 가득 차고 진짜와 가짜를 구분하는 데 갈수록 많은 사회적 비용이 투입될 것이다. 놀란은 “이런 흐름을 방치하면 저널리즘이 파괴될 것”이라고 경고했다. 저널리즘의 신뢰를 유지하기 위한 사회적 합의가 필요하다는 이야기다.

노스웨스턴 복잡계연구소의 루이스 누네스 아마랄은 “페이스북과 소셜 플랫폼들이 가짜 콘텐츠를 제대로 단속하지 않는 건 비용이 많이 들기 때문이기도 하지만 이런 게시물들이 사람들을 분노하게 만들고 분열시키지만 참여를 유도한다는 사실을 알고 있기 때문”이라고 지적했다.

로이터저널리즘연구소는 “팩트체커들이 우려하는 것은 소프트웨어가 생산하는 콘텐츠가 아니라 생산되는 속도”라고 강조하기도 했다. 정보를 적절하게 검증하는 것 뿐만 아니라 빠르게 대응하는 것이 중요한 시대가 됐다는 이야기다.

허위조작 정보와 대형 언어모델의 만남.

칠레 디에고포르탈레스대 발렌티나 드 마르발은 “사람들이 더 쉽게 속는다는 게 아니라 신뢰할 수 있는 정보를 포함에 모든 정보에 더 회의적인 태도를 보이게 될 것”이라고 강조했다. 사람들이 자신이 보고 있는 것에 대해 좀 더 냉소적으로 판단하게 되고 극단적으로 어떤 이미지도 믿지 않는 상황까지 갈 수도 있다는 이야기다.

“무엇이 진실이고 무엇이 거짓인지에 대한 명확한 이해 없이는 사회가 작동할 수 없다. 진실과 잘못된 정보를 구별할 수 있는 도구가 필요하다.”

‘디지털 시대의 책임성 연구소(I4ADA)’ 공동 설립자 아서 반 더 위스(Arthur van der Wees)의 이야기다.

어질리티PR솔루션스는 대형 언어모델 시대의 ‘가짜뉴스’를 막기 어려운 세 가지 이유를 꼽았다.

  • 첫째, ‘가짜뉴스’는 돈이 된다. 마케도니아의 ‘가짜뉴스’ 제작자들과는 차원이 다른 거대 시장이 생겨나고 있다.
  • 둘째, 허위조작 정보에 대한 규제와 단속이 강화되고 있지만 여전히 구멍이 많다. 국경을 초월한 합의와 해법이 필요한 상황이다.
  • 셋째, 허위조작 정보를 막는 기술 만큼이나 그 기술을 우회하는 기술도 놀라울 정도의 속도로 진화하고 있다.

BBC를 비롯해 뉴욕타임스 등은 콘텐츠의 진위 여부를 확인하기 위해 암호화 인증 마크를 삽입하는 기술을 실험하고 있다. 마이크로소프트의 프로젝트 오리진(Project Origin)과 어도비의 파이어플라이(firefly) 등은 콘텐츠 자격 증명이나 인공지능 생성 여부를 알려주는 레이블을 포함한다. 미드저니는 특정 정치인의 이미지를 생성하지 않는 기능을 추가했다.

세계 최대 규모 개발자 커뮤니티 가운데 하나인 스택오버플로(Stack Overflow)는 챗GPT 출시 한 달이 지난 2022년 12월 챗GPT의 답변을 게시판에 공유하지 말아달라는 공지를 내보냈다. 챗GPT의 답변이 늘어나면 커뮤니티 전체의 신뢰가 무너질 수도 있다는 판단을 했기 때문이다. 더버지에 따르면 챗GPT의 답변은 언뜻 보기에는 정확해 보이지만 실제로는 작동하지 않는 경우가 너무 많았다.

다음은 스택오버플로의 공지 가운데 일부다. “문제는 수천 건에 이르는 AI의 답변을 어느 정도 이 주제에 대한 전문 지식을 가진 사람이 자세히 읽고 검토해야 한다는 사실이다. 이를 검증하기 위한 노력이 우리의 자원 봉사 기반 품질 큐레이션 인프라를 효과적으로 잠식했다.”

Give me a new portion of Fake news, please – drawn bucket of slop with FAKE title

해커뉴스의 한 이용자는 “진짜 무서운 건 AI가 너무나도 당당하게 엉터리 코드를 펼쳐놓았기 때문에 의심조차 하지 않는 상황”이라고 덧붙였다.

지금의 AI 탐지 기술은 텍스트와 소셜 네트워크를 평가해서 신뢰성을 판단한다. 참조 링크가 부족하다면 신뢰할 수 없는 정보라고 판단할 가능성이 높지만 여전히 학습 데이터가 부족한 상황에서 최신 정보를 판별해야 하는 위험이 있다. 더컨버세이션은 실제로 코로나 팬데믹과 관련된 정보는 다른 주제보다 ‘가짜뉴스’로 분류될 확률이 더 높다고 지적했다. 새로운 기술이 만병통치약은 아니라는 이야기다.

리투아니아 국방부는 알고리즘의 한계를 극복하기 위해 허위 정보라고 판단되는 게시물을 인간 전문가에게 전송해서 판별하게 하는 시스템을 개발하기도 했다.

2026년이 되면 온라인 콘텐츠의 90% 이상이 인공지능이 생성한 콘텐츠로 채워질 거라는 전망도 나온다. 기존의 뉴스 기업들이 가장 잘 하는 건 신뢰할 수 있는 정보를 만드는 것이고 사람 기자의 가장 큰 경쟁력은 윤리적 원칙을 따른다는 것이다. 좋은 정보를 골라내는 것 역시 사람 기자가 잘 할 수 있는 일이지만 인공지능을 보조도구로 활용할 수 있을 것이라는 이야기다. 마르코니는 “뉴스 업계는 인공지능 혁명에 적극적으로 참여해야 한다”면서 “우리는 노이즈를 걸러내고, 사실과 허구를 구분하며, 중요한 것을 강조하는 기계를 구축하는 데 집중해야 하는 변곡점을 맞이했다”고 강조했다.

영국의 인디펜던트는 ‘구글은 끝났다’는 기사를 내보내기도 했다. 사람들이 검색 결과 리스트에서 정보를 찾아 들어가는 게 아니라 정답을 찾는 방식으로 습관이 바뀔 거라는 전망이다. 검색엔진 최적화가 만든 질낮은 정보에 실망한 이용자들이 빠른 속도로 이탈할 거라는 이야기다. 챗GPT가 2년 안에 구글을 따라 잡을 것이고 구글의 핵심 수익 기반이 무너질 거라는 전망도 나왔다.

저널리스트의 책무: 감탄만 하지 말고 질문을 던져라.

드 마르발은 전통적인 미디어 리터러시 방법론이 인공지능 시대 ‘가짜뉴스’와 맞서는 데 여전히 유효하다고 본다. “텍스트와 이미지의 맥락을 살펴보고 누가 이러한 ‘뉴스’를 배포하는지 질문하는 것이 가장 중요하다”면서 “정치적으로 선동적인 메시지나 이미지일수록 그 진위 여부를 세심하게 검토해야 한다”고 강조했다.

더컨버세이션은 “정확한 뉴스에 어느 정도 노출된 사람들은 진짜와 가짜 정보를 더 잘 구별할 수 있다”면서 “핵심은 사람들이 온라인에서 보는 내용 가운데 일부가 실제로 사실인지 계속해서 확인하는 것”이라고 강조했다.

AI coding copilot

AI가 만든 허위조작 정보가 넘쳐나면서 공론장의 근간을 뒤흔들 위험에 대비해야 한다. 문제는 이 새로운 유형의 ‘가짜뉴스’가 매우 정교하고 그럴 듯 해 보이면서 빠른 속도로 확산되고 있다는 사실이다. 씨넷 기자들이 한 달 가까이 무슨 일이 일어나고 있는지 눈치채지 못했던 것처럼 대형 언어모델과 생성형 콘텐츠는 이미 우리 앞에 도착해 있다. 비슷한 것은 같은 것이 아니다. 사람처럼 말하고 글을 쓴다고 해서 그걸 사람이 만든 것과 동급으로 취급해서는 안 된다. 경계를 구분하고 진실을 침범하지 못하도록 가이드라인을 만들어야 한다. 저널리즘의 원칙을 강화하고 믿을만한 소스로서 언론의 책무와 역할을 바로 세우는 게 이 새로운 가짜뉴스 시대, 언론의 새로운 사명이 될 것이다.

지금까지의 논의에는 어떻게 싸울 것인지에 대한 질문이 빠져있다. 기술적인 도전 과제가 있지만 우리는 언제나 허위조작 정보와 함께 살아 왔고 당면한 더 큰 위협은 저널리즘의 붕괴라고 생각한다.

‘가짜뉴스’의 범람을 넘어 뉴스와 뉴스가 아닌 것의 경계가 무너지는 것이 진짜 큰 위험이다. 뉴스의 신뢰 위기는 더욱 가속화될 것이고 믿을 만한 정보에 대한 가치는 높아지겠지만 그 가치를 입증하기는 더욱 어려워질 것이다.

저널리즘의 브랜드의 복원이 가능할까. 정보와 뉴스, 저널리즘의 새로운 가치 제안이 필요할 것이다. 사람이 잘 할 수 있는 일을 해야 한다. 저널리즘은 새로운 기회와 도전의 시기에 직면했다.

편집자 주.

6월10일에 열린 한국소통학회 학술대회 발표 자료를 다시 정리한 것입니다.

관련 글