기사 공유하기

[box type=”note”]2015년 6월 29일 슬로우뉴스가 “슬로우포럼: 알고리즘 사회와 노동의 미래”를 개최했습니다. 독자들을 위해 이날의 발제와 토론을 정리해 공개합니다.

슬로우포럼: 알고리즘 사회와 노동의 미래

[/box]

이 글은 2015년 6월 29일 열린 “슬로우포럼: 알고리즘 사회와 노동의 미래”의 패널 토론을 정리한 것입니다.

[box type=”info” head=”참여패널”]

  • 한상기 (소셜컴퓨팅연구소장)
  • 강정수 (디지털사회연구소장, 슬로우뉴스 편집위원)
  • 엄태웅 (캐나다 워털루대 박사과정)

[/box]

슬로우포럼

사회시스템의 변화

한: 강 박사께서 여러 가지 화두를 많이 던졌다. 새로운 시대에 대한 경계, 문제점에 대한 논의가 많이 등장하고 있는 것은 사실이다. 하지만 그렇다고 우리가 이걸 다 막아야 하는가 하는 것도 생각해 볼 수 있다. 지능적 존재의 도입이나 알고리즘 기반의 사회시스템 변화가 가져올 장점도 있을 것이다. 어떤 장점이 있을까?

강: 예를 들어 우리가 방을 구한다고 했을 때 예전에는 신문이나 광고 전단, 학내 게시판 등을 통해 빈방을 구했을 텐데 이제 스마트폰을 켜면 된다. 즉, 나의 욕구들을 실현하는 데 있어서 저렴한 비용이 든다는 것이고 인간의 이익이 그만큼 증가할 수 있다는 말이기 때문에 인류에게 줄 수 있는 이득은 굉장히 크다고 본다.

한: 사실 기술 유토피아적인 사람들이 하는 이야기 중 하나는 사회 시스템의 가장 큰 오류는 사람 때문에 생긴다는 것이다. 그래서 사람을 배제하는 것이 여러 가지 문제점과 에러율을 낮출 수 있다.

구글의 자율주행 자동차가 사고율을 줄일 수 있다고 기대하듯이 점차 기계의 참여가 훨씬 더 안전을 보장해줄 것이고 그런 측면에서 알고리즘과 기계에 의해서 이뤄지는 프로세싱들이 우리 사회에 긍정적인 효과가 많을 것이라는 주장이다. 동의하나?

강: 하지만 문제는 거기에 차별이 발생한다는 것이다. 미국사회는 알고리즘 사회가 되면서 자동화한 많은 것들이 등장할 테지만 한국사회도 똑같이 갈까? 절대 아니라고 생각한다.

우리가 자꾸 실리콘밸리를 보니까 우리가 실리콘밸리로 향하고 있다고 생각하는데 이미 그 기술을 가지고 있는 국가, 국민들의 경제와 기술을 가지지 못한 곳의 경제에는 엄청난 차이가 있을 것이다. 이 후유증을 어떻게 할 것인가.

예를 들어 이런 것을 국제적으로 유니버설 테크놀로지로 정의한다든지, 그래서 이걸 수출금지조항으로 풀어낸다든지… 이런 국제적 논의도 있어야 한다고 생각한다. 즉, 알고리즘 사회의 유익은 클 것이나 그 유익이 일부 사회에만 점유되는 것이 아니라 인류 보편적 기술로서 점유되는 사회가 빨리 와야 한다는 것도 중요한 이슈라고 생각한다.

온디맨드 이코노미

한: 온디맨드 이코노미에서의 계약조건과 관련된 문제점이나 피플랭크(우버)같은 것으로 쌓은 사람들의 성과, 평판의 소유와 관련한 문제들을 (발표 때) 이야기하셨다. 그리고 기계의 참여로 굉장히 많은 일자리가 소멸할 것으로 예상하는 등 많은 문제를 지적했는데 우리 사회에서 이런 문제에 대해 좀 더 같이 논의할 방법이 뭐가 있을까?

강: 실업률이나 여러 가지 면에서 달라질 사회에 대한 새로운 사회 계약이 필요하다고 본다. 예를 들어 아까 말했던 것처럼 우버에서 일하면서 쌓았던 평판을 리프트에도 가져갈 수 있고, 또는 새로운 경쟁자가 나타났을 때 그 새로운 서비스에도 가져갈 수 있게 해주는 것처럼 말이다.

이런 것은 지금까지 우리가 경험해보지 못했던 문제인데 이런 것을 논의할 틀이 필요하며 제일 중요한 건 정치라고 본다. 현재 정치가 이런 논의에 완전히 제외되어 있다. 그리고 저널리즘도 중요하다. 사람들이 이 문제의 심각성에 대해서 같이 고민하고 토론해야 한다. 그래서 이런 슬로우포럼 같은 행사가 보편화하고 확장돼야 한다.

한: 얼마 전 캘리포니아 법정에서 운전기사 한 명이 우버에 소송했다. 결과적으로 우버의 운전기사는 우버의 피고용인으로 봐야 한다는 변화가 생겼다. 어제는 파리에서도 소동이 있었고. 이제 사람들이 그러한 변화에 대해서 조금씩 인지하고 있고 우버나 에어비앤비 같은 온디맨드 서비스의 약탈적인 모습에 대해서도 많이 인식해 가고 있는 것 아닌가?

강: 그렇다. 그런데 그걸 해결해야 한다. 예를 들어 에어비앤비는 완전한 블랙마켓이다. 세금 안 낸다. 이런 것이 유럽 전체에 문제가 되면서 관광객들은 늘었는데 관광세수가 걷히지 않는다.

이런 게 사회문제가 될 때마다 사회가 논의를 해줘야 하는데 대부분 정치인이나 사람들은 IT, 딥 러닝 뭐 이런 어려운 것이라는 태도를 보인다. 도대체 이게 어떻게 굴러가는지를 이해를 못 하고 남의 일이라고 보기 때문에 이로 인한 사회적 문제마저도 보지 못하고 있다. 기술에 대한 이해가 좀 더 진화되어야 한다고 생각한다.

슬로우포럼

딥 러닝의 문제점들

한: 인공지능 이야기를 조금 해보자. 딥 러닝, 인공지능에 대해서는 장밋빛 얘기들이 많이 있다. 딥 러닝이 인공지능의 인지적 문제는 많이 해결해 왔다. 반면 페이스북의 AI 관련 총괄이며, 딥 러닝의 거두 중의 한 명인 얀 러쿤(Yann LeCun)이 최근에 딥 러닝의 문제점 네 가지를 정리해 발표한 게 있다.

What’s missing from deep learning?

  1. Theory
  2. Reasoning, structured prediction
  3. Memory, short-term/working/episodic memory
  4. Unsupervised learning that actually works.

어떻게 생각하나?

엄: Theory에 관해 말하자면, 예를 들어 여러분들이 1차, 2차, 3차 함수에 대해서 많은 이해를 하고 있을 텐데, 딥 러닝의 경우에는 굉장히 많은 노드와 굉장히 많은 층을 가지고 있다. 거기에서 사용되는 파라미터는 약 10억 개다. 그렇다면 그 10억 개의 변수가 많은 양의 데이터를 어떻게 변화시키고 있는지에 대한 이해가 아직은 그렇게 크지 않다.

사실 지금은 거의 마술의 수준이다. 이러이러한 방법을 이용해 최적화했더니 정말로 해내더라 라는 것. 우리가 알고 있는 지식과 합치려면 분명히 구조적인 지식이 필요한데 그런 것들이 아직 나오지 않았다는 뜻이다.

비지도 학습방법(Unsupervised Learning) 문제를 보자. 사실 우리가 대하고 있는 많은 데이터가 비지도(unsupervised)다. 무슨 말이냐면 사진을 보면서 이 사람이 한상기, 한상기… 저 사람이 강정수, 강정수… 이렇게 다 태그해주지 않아도 우리는 사진을 딱 봤을 때 ‘어? 한상기네! 강정수네!’ 이렇게 안다. 하지만 세상의 많은 데이터는 라벨이 붙어 있지 않다. 지금까지 발전된 대부분의 러닝은 이런 라벨링 된 데이터에 의해 이뤄져 왔고 그 데이터에 대한 가치도 굉장히 높다. 하지만 궁극적으로 우리(과학자)는 로봇이 사람과 같은 비지도 학습을 해야 한다고 생각하고 있다. 그것에 대한 이해가 부족하다는 이야기다.

메모리(memory) 문제는… 사실 지금까지의 발전은 이미지나 비디오와 같은 스태틱(static)한 데이터를 통해 이뤄져 왔다. 비디오도 여러 페이지의 이미지를 연속으로 보여주는 것에 불과하다. 이처럼 굉장히 숏텀 메모리(short-term memory)만 가지고 추론을 했는데, 인간의 경우 어떤 행동을 한다는 것에는 굉장히 긴 히스토리를 가지고 있다. 내가 지금 자리에 앉는 이유는 그전에 내가 많이 걸었고 앉았었고… 이런 여러 가지 이유가 있다는 것이다. 인공지능은 그런 롱텀 메모리(long-term memory)를 가지고 판단을 하는 게 아니다. 그런 의미에서 메모리도 문제라고 하는 것이다.

수퍼인텔리전스

한: 우리가 지금 컴퓨터 기반의 인공지능 기술만 이야기했는데 사실 닉 보스트롬이 수퍼인텔리전스(Superintelligence)를 거론하고 거기에 대해 앨런 머스크나 스티븐 호킹이나 빌 게이츠조차도 수퍼인텔리전스 즉 초지능을 갖게 됐을 때 우리 인류의 문화는 큰 위협을 받을 것이다, 우리는 어쩌면 로봇의 애완견이 될지도 모른다, 우리가 생물학적인 진화의 마지막 존재가 될 것이다… 이런 얘기들을 하고 있다. 이런 얘기들에 대해서는 어떻게 생각하나?

강: 기본적으로 기술적 특이점은 이른 시일 안에 올 것이라고 본다. 수퍼인텔리전스도 현실화할 가능성이 크다고 본다. 버클리 같은 곳에서는 도덕에 관한 학습도 가능할 것이라는 얘기도 나오고 있다. 윤리적 판단도 로봇이 내릴 수 있을 것이다.

하지만 중요하게 생각하는 것은 사회가 이렇게 전환될 때의 사회적 디프레션, 사회적 충돌의 문제다. 러다이트가 멍청한 노동자들의 저항이라고 생각하지 않는다. 소외된 사람들이 생길 거고 이런 사람들이 ‘주세요! 주세요!’ 하다가 안 되면 결국 엎어버릴 것이다. 이러한 충돌에 맞서서, 예를 들면 최근 베를린에서 지하철 노동자들이 파업을 크게 하자 철도를 자동화하면 어떻겠느냐는 칼럼이 나오기 시작했다.

사회적 격동의 한 축에 기술의 발전이 있다면 기술의 가능성을 경제적으로 구현하려는 층이 있다. ‘파업을 당할 바에는 파업노동자를 대체해 버리자’는 생각이 딥 러닝이라든지 AI 같은 기술발전으로 더 강화되면 사회적 저항이 더 커질 수 있다. 수퍼인텔리전스에 대한 우려는 인공지능이 인간을 파괴할 것이라는 두려움이 아니라 거대한 사회적 충돌을 제어하지 못하면서 경제논리에 의해 걷잡을 수 없이 사회질서가 재편될 가능성을 우려하는 것으로 생각한다.

한: 로봇 연구자는 이런 얘기에 대해 어떻게 생각하나?

엄: 철학적인 이야기는 잘 모르지만, 기본적으로 기계학습 시대에서 이뤄지고 있는 것이 ‘기계학습은 당연한 판단을 당연하게 잘한다’는 것이다. 달리 말하면, 어떤 통계적인 것이 있을 때 어떤 확률이 높으면 어떻게 될 것이라는 판단을 잘한다는 것이다.

그런데 그런 판단의 영역이 점점 늘어나고 있다. 로봇이 야구에 대한 기사를 작성하는 것처럼 그런 영역이 점점 늘어나면서 사람이 그 밑에 깔리거나 그 위로 올라가거나 하게 될 것이다. 밑에 깔린다는 건 밑에서 데이터를 생산하는 노동자가 된다는 것이고 위로 올라간다는 건 그 데이터를 총합해서 판단을 내릴 수 있는, 그야말로 수퍼인텔리전스 위에서 최종 판단하는 사람이 된다는 뜻이다.

인구적으로 봤을 때 당연히 위로 올라가는 사람은 극소수일 것이고 밑으로 깔리는 사람이 다수가 될 것이다. 그런 의미에서 수퍼인텔리전스에 대한 우려에 동의할 수 있다. 하지만 그런 것은 먼 미래가 아닐까? 기술은 긍정적으로 발전하는데, 정책이나 법률 같은 것이 못 따라가는 게 문제라고 생각한다.

슬로우포럼

프로그래밍의 도덕적 문제

한: 아까 발표에 이야기 나왔듯이 맹목적 진보가 더 위험하다는 것에 대해서는 동의한다. 또 다른 측면으로 프로그래밍의 도덕적 문제에 대해 질문을 해보자.

우리가 프로그래밍을 하거나 아니면 또 다른 제어방식을 통해서, 로봇이 됐든 소프트웨어가 됐든 어떤 도덕적 판단을 해야 하는 상황이 많이 생길 것이다. [애틀란틱] 기사에서는 알고리즘이 판단할 때 인종차별적인 판단을 굉장히 많이 할 것이라는 얘기도 한다. 어떤 사람이 상점에 들어오면 이 사람이 어떤 인종이고 그 사람의 소득수준이 어떤지를 판단해 물건을 팔지 말지를 판단하는 것이다. 왜냐하면, 이 사람이 환불을 많이 할 것 같으면 안 팔아야 하기 때문에 그런 일들이 나타날 거라는 얘기다.

질문의 요지는 “이런 프로그램들을 개발자와 기업이 자체적인 판단으로 개발하도록 놔둬야 하는가?”라는 것이다. 굉장히 많은 소프트웨어들이 자체적인 판단을 하고 있는데 이걸 과연 누가 검증할 것인가?

강: 그런 논의는 필요하다. 예를 들어 자율주행 자동차의 경우 어쩔 수 없이 스쿨버스와 충돌할 수밖에 없는 상황이 발생했을 때 운전자를 보호할 것이냐 상대편인 스쿨버스를 보호할 것이냐 하는 문제가 발생할 수 있다. 사람은 본능적으로 반사적으로 움직이겠지만, 프로그램은 어떤 식으로든 프로그래밍이 되어 있을 것이다. 이미 많은 윤리적 판단들이 작은 알고리즘에 다 들어가 있다. 이 부분을 인식하고 사회적인 합의를 만들어내야 한다고 본다.

한: 스쿨버스는 굉장히 극단적인 얘기지만, 앞에 고양이가 서 있을 때 어떻게 할 건가. 무인운전 시스템을 갖춘 신분당선이라고 생각해 보자. 사람이 앞에 있을 때 판단은 쉽다. 사람을 보호하면 된다. 동물이 들어왔을 때 어떻게 판단하게 할 건가.

강: 개발자들도 논의할 것이다. 설마 즉흥적으로 결정하거나 몇몇이 판단해서 하지는 않겠지만, 문제는 어떤 식으로 논의하고 어떤 식으로 자문을 받는지는 알 수 없다.

한: 엘런 머스크가 기업마다 AI 안전 위원회를 만들자는 제안을 했다. 그래서 AI 연구가들이 AI의 위험성에 대해서 검증하고 그것을 외부의 인력들과 같이 협의할 수 있는 걸 만들자는 것이다. 그런 곳에 지원하겠다는 거다.

그런데 이 문제가 기업 단위로 이루어질 수 있는 건가? 도덕은 사회적 합의에 바탕을 둔 것 아닌가. 작년에 미국의 한 컨퍼런스에서 이런 걸 토의했을 때 많은 사람이 ‘로봇이 이 사회를 언제쯤 점령할 것인지’ 질문했다. 나온 대답은 ‘이미’였다. 이미 로봇이 점령했다. 이제 와서 이것을 어떻게 점검하고 그들의 코드 안에 어떤 윤리적 판단이 들어갔는지를 어떻게 파악하고 검증할 것인지에 대한 숙제가 우리에게 있는 것 아닌가?

강: 맞다. 해야 한다. 이제라도 해야 한다고 보는 게 저는 몇 년 전까지 메커니컬 터크(일감을 가진 수요자와 일을 할 수 있는 공급자를 연결해주는 웹 기반 서비스. 아마존이 운영)가 무진장 좋은 것으로 생각했다. 하지만 작년에 가디언 보도를 보고 놀랐다. 나와 마찬가지로 이러한 문제들에 대한 사회적 인지가 중요하다. 기업비밀인 부분도 있고 코드를 일일이 깐다든지 과잉개입을 해서는 안 되겠지만 최소한의 윤리적 가이드라인을 지키도록 하던 자율규제를 하던 이런 논의를 시작하는 게 필요한 시점이라고 생각한다.

엄: 사회의 주도권이 정부가 아니라 기술에 점점 넘어가고 있다. 지금도 구글-EU 싸움에서 구글이 이기는 사례가 늘어나고 있다. 그래서 정책 관여에 대해서 앞으로는 정부가 기술과 밀접하게 일해야 하는 거 아닌가 하는 생각이다.

두 번째는 ‘가치 판단을 어떻게 할 건가?’하는 문제인데 윤리위원회 같은 것을 열어서 할 수도 있겠지만 여기도 기술이 들어가야 한다고 생각한다. 사회적으로 큰 문제의 경우에는 국민투표를 할 수 있다. 지금까지는 오프라인의 한계로 국민투표를 자주 할 수 없었지만 기계학습이 사람들의 도덕적 가치관과 가치판단을 측정하고 자료를 수집할 수 있다면 충분히 기술적인 방식으로 알고리즘에 의한 민주주의가 가능하다고 생각한다.

관련 글