기사 공유하기

[box type=”note”]슬로우뉴스는 NCSOFT와 함께 2016년 연중기획으로 디지털 기술이 우리 사회에 초래한 변화를 점검하고, 그 미래를 전망하는 ‘미래 읽기’를 연재한다. (편집자)

인공지능 윤리 

  1. 왜 지금 인공지능 윤리를 논의해야 하는가?
  2. 인공지능 윤리는 왜 어려운가?
  3. 인공지능 윤리 기준을 위한 활동들
  4. 로봇이 인간 가치를 학습하기 위한 조건

[/box]

이 시리즈의 첫 번째 글에서, 인공지능의 윤리는 개발자와 과학자들의 윤리, 인공지능 시스템에 내재한 윤리 코드, 인공지능 시스템이 학습과 추론하는 과정에서 이루어지는 윤리의 문제로 구별할 수 있다고 설명했다.[footnote]K. Abney, “Robotics, Ethical Theory, and Metaethics: A Guide for the Perplexed” in Robot Ethics: The Ethical and Social Implication of Robotic, eds. P. Lin, K. Abney, and G. Bekey, The MIT Press, 2012[/footnote]

이번 글에서는 첫 번째 영역인 관련 전문가들의 윤리에 관한 노력과 활동, 그리고 관련 단체를 소개하고자 한다.

기업 내부의 윤리 위원회와 투명성의 문제

구글이 2014년 딥마인드를 인수할 때 딥마인드의 창업자들이 인수 조건으로 회사 내에 ‘윤리 위원회’ 구성과 운영을 약속하라고 했다는 얘기는 널리 알려진 사실이다. 이미 많은 현대 기업은 ‘최고 윤리 책임자(Chief Ethics Officer)’ 등의 직책이나 회사 내부에 ‘윤리·규정 준수 위원회’ 등을 운영하고 있다.

구글, 딥마인드, AI 윤리 위원회

그럼에도 “왜 인공지능에서 또 다른 윤리 위원회가 필요한 것인가”에 대해서 2014년 포브스에 기고한 글에서 캘리포니아 폴리테크닉 주립 대학 철학 교수인 패트릭 린과 로체스터 공대의 철학 교수 에반 셀린저는 다음과 같이 정리하고 있다.[footnote] P. Lin and E. Selinger, “Inside Google’s Mysterious Ethics Board”, Fobes, Feb 3, 2014. [/footnote]

[box type=”info”]
1. 윤리는 단지 법적인 위험에 대한 것이 아니다.

구글도 다른 기업처럼 ‘윤리와 규정 준수팀’이 있으며, 모든 정치 관련 법이나 보고서 등에 준수 여부의 확인을 위해 외부의 윤리 위원회와 같이 협력하고 있다. 소비자의 위험이나 공공 안전을 개선하기 위한 행동을 통해 기업의 책임을 최소화하고자 하는 노력이다.

그러나 새롭게 떠오르는 기술은 아직 법이나 규제가 예측하거나 기술할 수가 없는 불분명한 윤리 영역이 있다. 이는 단순한 프라이버시 문제나 제품 책임의 문제를 넘어선다. 따라서 우리는 딥마인드의 요청으로 딥마인드가 법률적 위험 회피를 넘어서는 영역에 관심이 있음을 알 수 있다.

2. 외부와 내부 자문단 모두 장단점이 있다.

내부 위원회는 특별한 정보에 접근할 수 있고 온디맨드 가이드가 가능하며 기업 리더십에 영향을 미칠 수 있다. 이미 의학에서는 30여 년 전부터 윤리 위원회를 가동해서 생명 유지 장치의 제거나 정신적 장애에 의한 건강한 관절 제거 등의 문제를 풀어 왔다.

다른 영역에서도 아직 내부 윤리 위원회는 드문 상황이지만, 2014년에 BMW는 자율 주행 자동차 개발을 위한 내부 윤리팀을 구성했다고 한다. 외부 자문단은 독립성이라는 특장점이 있다. 이미 여러 영역에서 윤리학자들이 자문을 제공하고 있으며 ‘기술 철학 학회’[footnote]Society for Philosophy of Technology[/footnote]가 대표적인 조직이다.

3. 립 서비스가 아닌 진정한 접근 태도가 필요하다.

많은 기업이 대외적으로 자신들이 윤리에 관심이 있음을 보여주기 위해 윤리를 PR 차원에서 접근한다. 대표적인 것이 국방 산업에 있는 기업들이 드론이나 인간 증강 무기 등에 대해 무기 윤리에 관심 있는 척하는 것이다.

구글의 유명한 모토인 ‘악하지 말자(Don’t be evil)’를 진정으로 실천하려면, ‘악하다’는 것이 무엇이고 악한 행동이 무엇인지 정확히 정의하는 노력이 필요하다. 왜냐하면, 그 자체가 어렵기 때문이다.
[/box]

그럼에도 불구하고 구글이 딥마인드를 인수한 지 2년이 지난 지금도, 딥마인드의 하사비스가 존재한다고 주장하는 내부 윤리 위원회가 누구로 구성되어 있으며 어떤 일을 하는지 구글은 공개하지 않고 있다. 지난 3월 비즈니스 인사이더는 구글의 모호한 태도에 대해 비판적인 기사를 쓰면서, 누가 윤리 위원회에 들어 있는지 미디어와 학계도 공개를 요청하고 있다고 주장했다.

비즈니스 인사이더 기사 중에서
비즈니스 인사이더 기사 중에서

셀린저 교수 같은 윤리학자도 구글이 좀 더 투명하게 운영해야 하며, 인공지능의 미래가 한 기업의 닫힌 문 뒤에서 논의되어서는 안 되고 기술 회사, 정부, 대중이 함께 논의해야 한다고 주장한다.

이는 장기적으로 자기 개선이 가능한 초지능 머신을 만들어 냈을 때 ‘무엇을 해야 하는가’와 ‘이를 대비해 어떤 프레임워크가 준비되어야 하는가’에 관해 논의해야 하기 때문이다. 두 번째는 인공지능이 우리에게 정보를 제공하는 역할이 늘어나는데, 이런 정보 접근에 제약을 가하는 것은 윤리적 측면이 강하기 때문이다.

최근 ‘기계 지능 연구소’[footnote]Machine Intelligence Research Institute[/footnote] 웹사이트에 발표한 ‘안전하게 중단 가능한 에이전트 (Safely Interruptible Agents)’ 논문에서, 딥마인드의 로랑 오소와 옥스포드의 스튜어트 암스트롱은 소위 말하는 ‘커다란 빨간 버튼’을 통해 지속적으로 위험한 행동을 하는 에이전트를 방지하고 더 안전한 상황으로 전환하는 방안을 소개했다.

딥마인드나 구글이 이런 연구를 하고 있다는 것은 그들 역시 의도하지 않은 상태로 인간에게 해를 가하는 시스템의 개발 가능성을 인지하고 있음을 보여준다.

딥마인드의 또 다른 창업자 무스타파 슐레이만에 따르면 구글은 학계, 정책 연구가, 경제학자, 철학자, 법률가 등으로 구성해 윤리 이슈에 접근하고 있지만, 현재는 3~4명이 이에 집중하고 있으며 전문가들 더 뽑을 생각이라고 한다.

그러나 구글이 외부 논의와 승인 없이 자체적으로 윤리 위원회를 구성할 권리가 있는 것인가는 또 다른 이슈이다. 물론 구글은 하나의 회사이기 때문에 위원회 구성을 밖으로 알릴 의무가 있는 것은 아니지만, 인공지능이라는 분야가 가진 사회적 의미가 크기 때문에 이 문제는 앞으로도 논의해야 할 이슈이다.

이에 비해 텍사스 오스틴에 있는 인공지능 스타트업인 루시드 AI(Lucid AI)는 자체 윤리 위원회를 구성했는데 MIT 물리학 교수 맥스 테그마크와 임페리얼 칼리지 교수 머레이 샤나한을 포함해 6명으로 구성했음을 밝혔다.

이들이 인공지능이 미지의 영역으로 진입하기 때문에 자기들이 성취한 결과가 단지 ‘고객을 위해 대단한 것인가’가 아닌 ‘인류를 위해 대단한 것인가’를 물어봐야 한다고 밝히고 있다. 창업자이며 의장인 마이클 스튜어트는 자신들의 기술 영향이 옳은 것인가를 확인하는 윤리 자문 패널(Ethics Advisory Panel; EAP)에 의해서 지도(가이드)를 받아야 한다는 원칙을 지키려고 한다는 것이다.

EAP의 최고 책임자인 케이 퍼스-버터필드의 말에 의하면 회사의 모든 핵심제품 개발팀에 자기 팀원이 같이 하고 있으며, 외부 활동에도 적극적으로 참여하고 있다고 강조했다. 제품·기술 개발이 부정적인 방법으로 파괴적 혁신이 되는 것을 지켜보는 것이 아니라 시작부터 윤리적으로 올바르게 되도록 하는 것이 중요하다는 것이다.

인공지능 윤리 문제를 논의하는 기관들

인공지능과 관련된 기술 개발이 인류의 윤리 기준이나 인간성 보호, 보편적 가치를 지키도록 감시하거나 이에 관련된 연구를 하는 조직으로는 각 대학 내 연구 조직, 국제적 기구 등 다양한 유형이 있다.

이 가운데 가장 적극적인 활동을 하는 기관은 오픈 로봇윤리 이니셔티브(ORi)[footnote]Open Roboethics initiative[/footnote]로 로봇 공학의 윤리, 법률, 사회적 이슈에 대해 적극적 토의를 주도하는 싱크 탱크이다. ORi가 추진하는 캠페인 중 하나는 ‘킬러 로봇을 중단하라’는 캠페인이다. 즉, 자체적인 판단으로 전쟁 중이라도 사람에 대한 살상을 결정하는 로봇을 금지해야 한다는 운동이다.

이들의 주장은 일단 우리가 사람을 죽이는 자동화된 기계를 승인하는 순간, 다시 말해 ‘의미 있는 인간 제어’를 포기하는 순간 다른 모든 곳에서 기계에 권리를 넘기는 일이 발생할 것이라는 우려에서 비롯한다.

[box type=”note”]흥미로운 점은 ORi를 공동 설립한 인물 중 한 명이 브리티시 컬럼비아 대학[footnote]캐나다 브리티시컬럼비아 주의 밴쿠버와 켈로나에 위치한 연구 중심 공립 대학이다.[/footnote] 기계 공학과 박사 과정에 있는 문아정이라는 한국계 학생이라는 점이다.[/box]

ORi에서는 대중이 인공지능 윤리에 갖는 관심을 키우고, 때로는 사람들이 어떤 관점을 갖고 있는가에 대해 다양한 조사를 하고 있다. 군용 무기에 대한 의견뿐만 아니라 ‘알콜 중독자가 술을 요구하면 돌봄 로봇은 어떻게 해야 하는가?’, ‘비만 환자가 정크 푸드를 달라고 하면 돌봄 로봇은 음식을 가져와야 하는가?’ 등 흥미로운 질문을 통해 우리가 갖는 윤리 의식에 대한 대중적 의견을 취합하고 있다.

2015년에는 국제 인공지능 학술회의를 통해 1,000여 명의 학자와 오피니언 리더들이 자동화 무기 개발에 반대하는 의견을 공개서한으로 밝혔다. 이를 주도한 사람 중의 하나가 루시드 AI의 윤리 자문 패널 멤버인 맥스 테그마크이다.

‘LAWS[footnote]Lethal Autonomous Weapons Systems[/footnote] 편지’라고 부르는 이 공개서한은 ‘생명의 미래 연구소(Future of Life Institute)’에 공개되어 있는데, 이 연구소는 인공지능뿐만 아니라 핵무기와 생명과학, 기후 변화가 인류의 미래에 위협이 되지 않기 위한 노력과 연구를 수행하는 기관이다.

2015년 1월에는 인공지능 관련 수십 명의 학자와 리더가 푸에르토리코에서 인공지능 안전에 관한 컨퍼런스를 열었고, 버클리 대학의 스튜어트 러셀 교수, 인류 미래 연구소의 다니엘 뉴이, MIT의 맥스 테그마크는 미국 인공지능 학회 공식 매거진에 강건하고 유익한 인공지능을 위한 연구 우선순위에 관한 글[footnote]S. Russel, D. Dewey, and M. Tegmark, “Research Priorities for Robust and Beneficial Artificial Intelligence”, AI Magazine, Winter 2015.[/footnote]을 기고했다.

2015년 5월에는 스튜어트 러셀, 사빈 호이에르, 러스 올트먼, 마뉴엘라 벨로소가 인공지능의 윤리를 로봇 공학 입장에서 기고한 글이 네이처에 실렸다. 이들은 각각 자동 살상 무기 문제, 인공지능 전문가의 소셜 미디어 활동의 중요성, 인공지능 성과를 공정하게 분배하는 문제, 인간과 로봇의 공존 문제를 논의했다.

인류 미래 연구소학교 내에 있는 기관으로는 옥스포드의 닉 보스트롬 교수가 주도하는 인류 미래 연구소(FHI)[footnote]Future of Humanity Institute[/footnote]이다. 이 연구소는 철학부가 주도하면서 학자들과 수학, 과학 등의 다학적 연구를 수행한다. 현재 12명의 풀타임 연구자가 있다. 주요 연구는 거시 전략, 인공지능 안전, 기술 예측과 위험 평가, 정책과 산업에 대한 연구들이다.

2014년에 마이크로소프트 창업자 폴 앨런은 인공지능을 위한 앨런 연구소(AI2)를 세웠고 인류의 공동선을 위한 인공지능 연구를 하고 있다. 이들은 영향력이 큰 인공지능 연구와 공학을 통해 인류에게 공헌한다는 미션을 갖고 있다. 여기는 오렌 에트지오니(Oren Etzioni) 박사가 리드한다. 현재 40여 명의 연구자가 있다.

가장 최근에 이루어진 인공지능 윤리에 관한 움직임은 일론 머스크와 와이콤비네이터의 샘 올트먼이 설립을 주도한 비영리 ‘오픈AI’ 연구소이다. 여기에는 링크드인의 리드 호프만, 피터 틸, 아마존 AWS, 인포시스 등이 참여하며 초대 연구소장은 일리야 수츠케버(Ilya Sutskever)가 맡았다. 그는 구글 브레인 팀에서 일했으며 제프리 힌튼이 설립한 DNN 리서치의 공동 창업자였다.

오픈 AI 멤버 (출처: 오픈 AI 홈페이지)
오픈 AI 멤버 (출처: 오픈 AI 홈페이지)

이들은 범용 인공지능 기술을 연구하면서 인간의 부족한 점을 보충하는 이타적 기술에 주력하고, 인공지능에 의한 파국을 사전에 막는 솔루션도 연구할 예정이다. 흥미로운 점은 이들이 투입한 자금이 10억 달러이며 향후 모든 활동을 오픈 소스와 공개 논문으로 공유할 것이라는 점이다.

최근 일론 머스크는 리코드(Recode)가 주최하는 코드 컨퍼런스에서 자신이 걱정하는 인공지능 기업은 단 하나라고 말하면서 간접적으로 구글의 불투명한 행보에 비판을 가했다.

또 하나의 장기적이며 의욕적인 연구 집단은 스탠포드 대학의 인공지능 100년 연구 프로젝트(AI100)이다. 2014년 12월에 발표한 이 계획은 미국 인공지능 학회장 출신이며 스탠포드 대학 출신의 에릭 호로비츠에 의해 주도되었고, 바이오공학과 컴퓨터 사이언스 교수인 러스 올트먼이 끌고 나간다.

이 계획의 뿌리는 인공지능 학회에서 2008년부터 2009년까지 시행한 ‘장기 인공지능 미래’ 연구에서 비롯되었다. 다양한 연구 주제가 제시되었고 그중 하나가 인공지능 윤리의 문제로 ‘윤리적 도전과 질문’, ‘새로운 인공지능 진보가 윤리에 던지는 질문’, ‘인공지능 사용의 비윤리적 문제’, ‘인간과 같은 수준의 시스템이 제기하는 윤리 문제’ 등을 연구할 예정이다.

인공지능 윤리에 대한 논의는 그동안 학계나 일부 연구가들에 의해 기본적인 논의와 주요 의제들이 거론됐지만, 이제는 보다 구체적 사례가 나타나면서 본격적인 연구와 논의가 이루어지고 있다.

협력

다양한 기관이나 단체에 의해 거론되는 핵심 주제는 ‘인류의 공동선을 어떻게 추구할 것인가’와 ‘인류에게 해가 될 수 있는 무분별한 개발을 어떻게 억제하면서 기술 진보를 이루어낼 것인가’에 대한 논의로 귀결된다.

때로는 공동 행동이 필요해 유엔과 같은 국제기구에서 이를 다루게 하며, 때로는 공동체에 질문을 던져 윤리 문제에 대한 관심을 고취하고, 전 세계 연구자들이 협력해 나가는 움직임을 보이고 있다.

미래 읽기

관련 글