지난 주는 미 행정부 변화에 따른 정책 전환이 크게 이루어졌으며 스타게이트를 포함한 대규모 투자 계획 등으로 많은 논의가 온라인에서 벌어졌다. 중국의 작은 기업이 발표했던 딥시크(DeepSeek) 기술 문서를 본 많은 연구자들이 이를 기반으로 토론하고 일부는 경악했다. 그리고 미국이 오픈소스 분야에서 리더십을 상실하는 것 아닌가 하는 질문이 등장했다. 동시에 여전히 첨단 AI를 어떻게 평가할 것인가에 관한 노력도 진행 중이다. 

1. 트럼프의 ‘AI MAGA’ 정책과 스타게이트 프로젝트


트럼프 행정부가 시작하자마자 트럼프는 바이든 정부가 진행했던 행정 명령 상당수를 폐기했다. 그중 AI에 가장 영향을 주는 것은 EO 14110을 폐기한다는 것이다. EO 14110(Executive Order 14110)은 바이든 정부의 대표적 정책이었다. 따라서 이에 맞춰 진행했던 많은 연방 기구의 계획과 일정이 일단 중지될 것으로 보인다. 

바이든 행정부의 AI 정책(위 사진 참고, 위키미디어 공용) 폐기를 선언한 트럼프.

이를 의식해 트럼프 행정부는 다시 1월 23일에 ‘바이든 행정부의 유해한 AI 정책을 철폐하고 미국의 세계적 AI 지배력을 강화하는 행정 명령’에 서명했다고 발표했다. 행정 명령의 주요 내용은 다음과 같다. 

  • 정부가 AI 개발 및 배포에 대한 통제를 강화하여 민간 부문이 AI 혁신을 이루는 능력을 저해한 바이든의 AI 행정 명령을 철회한다. 
  • 미국의 AI 리더십을 강화하는 것과 상충되는 바이든 AI 명령에 따른 모든 정책, 지침, 규정, 명령 및 기타 조치를 각 부서 및 기관에서 수정하거나 철회할 것을 촉구한다. 
  • 이 행정 명령은 인류의 번영, 경제적 경쟁력, 국가 안보를 증진하기 위해 AI 분야에서 미국의 우위를 유지하고 강화하겠다는 미국의 의지를 보인다.
  • 미국의 AI 시스템 개발은 이념적 편견이나 조작된 사회적 의제에서 자유로워야 한다. 올바른 정부 정책을 통해 미국은 AI의 리더로서의 입지를 굳건히 하고 모든 미국인에게 더 밝은 미래를 보장할 수 있다.
  • 이 명령은 대통령 과학기술보좌관, 백악관 AI 및 암호화 담당 차관, 국가 안보 보좌관이 주도하여 미국의 AI 우위를 유지하고 강화하기 위한 AI 행동 계획을 개발하도록 지시한다.
  • 또한 연방 정부의 AI 채택과 거버넌스에 대한 각 부처 및 기관에 대한  OMB AI 각서의 내용을 수정하여 재발행하도록 지시함으로써 미국의 AI 리더십을 방해하는 유해한 장벽을 제거하도록 했다.

한마디로 바이든 정부의 AI 정책을 전면 재검토하겠다는 이야기인데 이미 OMB의 2024년 4월 메모와 9월 메모에 대한 접근 링크가 사라졌다. 이렇게 되면 NIST에 만든 AI 안전연구소의 위상이나 각 연방 기관에 있는 CAIO, 그리고 이들을 모아서 개최하는 회의체 등이 모두 어떻게 되는 것인지 당분간 혼란스러울 것 같다.

같은 날 트럼프는 백악관에서 오픈AI, 소프트뱅크, 오라클이 ‘스타게이트’라는 조인트 벤처를 만들 것이고 여기에는 일단 1천억 달러로 시작해서 향후 4년 동안 5천억 달러가 투입될 것이라고 발표했다. 

이후 나온 소식을 보면 오픈AI와 소프트뱅크는 각각 190억 달러를 투자하며 오픈AI가 지분 40%를 가져갈 예정이라고 한다 (소프트뱅크도 마찬가지일 듯). 알트만은 스타게이트가 오픈AI와 소프트뱅크가 GP로 활동하는 벤처 펀드와 같을 것이라고 했고 오라클과 MGX (아부다비 펀드)도 GP가 된다. GP는 총 450억 달러를 투자할 예정이라 오라클과 MGX로부터 70억 달러가 투입될 전망이다.  운영은 오픈AI가, 재정 책임은 소프트뱅크가 맡으며 마사요시 손이 회장을 맡을 것이다. 

이미 텍사스 주 아빌란에서 진행하는 오라클 프로젝트가 시작이라고 보는데 이는 크루소(Crusoe)에서 임대받은 부지라고 한다. 여기에 10개의 데이터센터를 건설 중이라는 것이 오라클의 입장이다. 

스타게이트는 이미 몇 년 전부터 모색해 왔던 프로젝트이다. 샘 올트먼은 이미 2016년부터 엔비디아와 긴밀한 협력을 해 왔고, 오라클과는 새로운 파트너십을 발표했었다. 작년 9월에는 5GW 데이터센터를 여러 주에 건설하는 것이 왜 경제적 이익이 되는가에 대한 메모를 정부에 제출하고 이때는 스타게이트가 마이크로소프트의 계획인 것으로 혼동하기도 했다. 이때에도 샘 올트먼이 제시한 금액은 1천억 달러였다.

즉, 미국이 AI를 지속적으로 앞장서기 위해서는 대규모의 데이터센터와 GPU가 필요하다는 점을 미 정부에 호소했고, 이제 소프트뱅크와 오라클을 우군으로 삼아 트럼프가 이를 백업하게 한 것이다. 사실 이 발표에서 미 정부가 무엇을 할 것인지는 명확한 내용이 없다. (오라클, 소프트뱅크가 적극 참여하고 마이크로소프트는 왜 안 보이는지를 분석하는 내용을 쓰려면 특별 보고서를 써야 하므로 이 글에선 이 정도로만 얘기하자.)

근데 문제는 이 자금을 어떻게 모을 것인가 하는 점이다. 이에 대해 일론 머스크가 한마디로 ‘쟤네 돈 없거든?’하면서 조소를 날렸고, 올트먼은 처음에는 틀렸다고 하다가 나중에 정중하게 답하는 척하며 대답을 회피했다. 

오픈AI, 머스크, 올트먼의 X 갈무리.

일론이 지적했듯이 소프트뱅크도 190억 달러를 동원하기 쉽지 않은 상황에서 오픈AI가 이 돈을 어떻게 마련할 것이고 앞으로 지속적으로 5천억 달러를 펀딩할 수 있을지, 그리고 그 돈의 수익을 회수할 수 있는가에 관해서는 아직 쉽게 답을 할 수 없는 상황이다. 

파이낸셜 타임스도 “화려한 발표에도 불구하고 스타게이트는 아직 필요한 자금을 확보하지 못했고, 정부 자금 지원도 받지 않을 것이며, 완공된 후에야 오픈AI를 서비스할 것이라고 이 계획에 정통한 사람들이 말했다.”고 보도했다. 

이 두 가지 소식을 섞어 전하는 이유는 앞으로 당분간 미국 정부의 진짜 AI 전략이 무엇인지 확인하는데는 시간이 좀 걸릴 것이고 (앞으로 6개월 안에 과학기술 대통령 보좌관, AI와 크립토를 위한 특별 고문, 대통령 국가 안보 보좌관이 경제정책 보좌관, 국내 정책 보좌관, OMB 국장 등과 함께 AI 액션 플랜을 개발하라고 지시), 거대한 데이터센터의 구축은 국가 전략 자산이며 AI 산업 경쟁력을 위해서도 매우 중요한 핵심 전략이 되고 있다는 것이다.

데이터센터의 규모가 커져야 하는 것은 첨단 AI 모델의 개발이라는 점도 있지만 생태계의 수많은 애플리케이션을 포함해 수십억 명이 사용할 때의 컴퓨팅을 감당할 수 있어야 하기 때문이다. 뒤에 얘기할 메타의 새로운 데이터센터도 10억 명이 넘는 사용자가 메타 AI를 사용한다면 이를 감당할 데이터센터가 필요하기 때문이다.

2. 딥시크 열풍, 오픈소스가 폐쇄형을 넘을 수 있다 (얀 르쿤)


지난 1월 6일 기사에 소개한 딥시크에 대한 열풍이 일주일 동안 AI 연구계와 업계에 몰아닥쳤다. 특히 딥시크 개발진이 발표한 기술 문서가 나오면서 활발한 토론이 이루어졌다. 라마를 개발하는 메타 개발 그룹은 패닉에 빠졌다는 얘기가 올라오고, 엑스에는 이 모델이 진정한 모델 개발이 아니라 단지 여러 기법을 동원한 엔지니어링에 불과하다는 평가도 나왔다. 개발에 단지 550만 달러가 들어갔다는 얘기도 딥시크의 모회사가 갖고 있는 H100 GPU가 많은데 이를 이용한 것은 뺐다는 얘기도 있다. 

그러나 여기에 가장 명쾌한 설명을 한 것은 뉴욕대학교의 얀 르쿤 교수이다 (그는 메타의 AI 연구의 핵심이기도 하다). 르쿤 교수는 이 결과는 중국이 미국을 넘어선 것도 아니라 오픈소스 모델이 폐쇄적 모델을 넘어선 것이라고 봐야 한다고 쓰레드에서 말했다.

딥시크는 오픈 연구와 오픈 소스를 통해서 이루어졌고 다른 사람들의 연구 위에서 새로운 아이디어를 구현한 것이며 이들의 연구도 공개되고 오픈 소스로 제공하기 때문에 이제 다른 사람들도 이를 통해서 이익을 얻을 수 있다. 이것이 오픈 연구과 오픈 소스의 힘이라고 일침을 가했다. 

사실 딥시크는 초기에는 강화 학습을 이용해 초기 추론 모델(DeepSeek-r1-zero)를 만들고, 이 모델로 생성한 추론 데이터셋을 인간이 더 가공해 품질이 높은 데이터셋과 라마와 Qwen2를 이용해서 만든 데이터를 결합해 80만개의 데이터를 만들어 이를 지도 방식의 파인 튜닝과 강화학습을 거쳐서 나온 것이 DeepSeek-R1이다. 이를 바탕으로 ‘마스터 알고리듬’을 쓴 페드로 도밍고스는 엑스에서 이는 해킹이지 AI와 혼동하지 말라고 했지만, 진짜 의미는 오픈 소스를 이용해 작은 기업이나 연구팀이 얼마든지 성능이 뛰어난 모델을 만들어 낼 수 있음을 보인 것이다. 

르쿤 교수 얘기대로 이를 미국과 중국의 대결로만 보면 더 중요한 함의를 놓치는 것이다. 딥시크 이슈는 결국 엄청난 자본을 투입하는 폐쇄 기업에 대해 오픈소스 진영이 얼마든지 경쟁할 수 있으며, 다양성과 집단 지능을 발휘하는 오픈 소스 진영의 리더십이 결코 꺾이지 않을 것이라는 증거를 보여준 사례로 생각한다. 

딥시크 팀의 생각이 궁금하신 분은 작년 11월 CEO인 리양웬펭이 인터뷰한 내용을 참고하시기 바란다. 

3. “인류의 마지막 시험” 평가 세트 공개


‘인류의 마지막 시험(Last Exam)’이라는 거룩한 이름의 평가 문제를 소개하는 기사이다. AI 수준에 대한 평가 벤치마크가 많이 있지만 아직도 프런티어 모델이나 AGI에 근접했다는 모델의 성능에 대한 평가는 모두가 동의하는 것이 없다. 이제는 박사급이 풀 수 있는 문제도 푼다고 하는 모델이 여전히 아주 기초적인 상식을 해결하지 못하거나 실생활과 연관한 일에서는 지극히 평범한 수준을 보이기도 한다. 

과연 AI 시스템이 더 똑똑해지면서 우리가 측정할 수 없는 상황이 되는 것인지? 오픈AI, 앤스로픽, 구글 딥마인드가 모두 동의할 수 있는 성능 측정 방법이 나올 수 있는 것인지에 대한 논의는 GPT-4가 나오면서 AI 분야에서 계속 나오는 중요한 이슈다.

케빈 루스가 작성한 이 기사는 AI 안전 연구소(CAIS)와 스케일 AI의 연구원들이 만든 지금까지 나온 문제 중 가장 어려운 문제로 구성한 AI 평가용 시험 데이터인 ‘인류의 마지막 문제’라는 데이터에 대한 기사이다. CAIS의 소장 댄 헨드릭스의 작품이라고 보는 이 데이터는 처음에는 ‘인류의 최후 보루’라고 하려다가 너무 드라마적이라서 바꿨다고 한다.

헨드릭스는 자신이 고문으로 있는 스케일 AI와 협력하여 약 3,000개의 객관식 및 단답식 문제로 구성된 테스트를 만들었다. 분석 철학에서 로켓 엔지니어링에 이르는 다양한 분야에서 AI 시스템의 능력을 테스트하도록 설계했다고 한다. 50개 나라 500개 이상 기관에 있는 1,000명가량의 대학 교수와 수상 경력이 있는 수학자를 포함한 이 분야의 전문가들이 질문을 제출했고, 자기들은 답을 알고 있는 매우 어려운 질문을 생각해 내라는 요청을 받았다.

예를 들어 벌새에 대한 질문은 다음과 같다.

칼새목에 속하는 벌새는 특이하게도 양쪽에 한 쌍으로 위치한 뼈를 가지고 있다. 이 뼈는 꼬리를 내리는 역할을 하는 근육의 삽입부에 있는 십자형 건막의 꼬리 특명 부분에 박혀있는 종자뼈이다.  이 종자뼈에 의해 한 쌍으로 이루어진 힘줄이 몇개가 지지되는지 숫자로 대답하시오.

질문은 두 단계 필터링 과정을 갖는데 먼저 첨단 AI 모델에게 질문을 한다. 모델이 대답을 못하거나 객관식 문제에서 무작위 추측보다 더 나쁜 성적을 거두면 인간 검토자가 문제 정답을 검증한다. 최고 평점 문제를 작성한 전문가는 질문당 500달러에서 5,000달러와 함께 크레딧을 받는다.

특정 도메인에서 첨단 AI 역량을 측정하는 다른 테스트들도 있는데 에포크 AI가 개발한 프론티어매스나 프랑스와 숄레가 개발한 ARC-AGI가 그런 것이다. 이에 비해 인류 마지막 문제는 AI 시스템이 광범위한 학문 분야에 걸쳐 복잡한 질문에 얼마나 잘 답하는지를 판단하여 일반적인 지능 점수를 제공하는 것을 목표로 한다.

질문 목록을 정리한 후 연구자들은 구글의 제미나이 1.5 프로, 앤스로픽의 클로드 3.5 소넷 등 6개의 모델로 테스트했는데 결과는 비참하다. 오픈AI의 o1이 9.1%로 가장 높은 점수를 받았을 뿐이다.

그러나 연구팀은 지금의 AI 개발 속도를 생각하면 2025년 말에는 50%의 정확도를 달성할 것으로 예상한다. 그 때가 되면 AI 시스템이 인간 전문가보다 모든 주제에 대해 더 정확하게 대답할 수 있는 ‘세계 수준의 오라클’이 될 것으로 본다.

그러나 AI가 질문에 정답을 내놓는다는 것이 인간 전문가가 하는 역할을 모두 수행한다고 볼 수 없는 것이며 시험을 잘 본다는 것이 좋은 물리학자나 수학자, 생물학자가 되는 것은 아니기 때문이다 (법조인의 경우는 우리가 현재 경험하고 있다). 다만 뛰어난 과학자에게는 매우 훌륭한 조수 역할을 할 것이다. 

4. 메타의 루이지애나 데이터센터 개발 재확인


메타의 마크 저커버그가 페이스북 포스팅을 통해 2025년 데이터센터 투자 계획은 재공지 했다. 올해 1GW의 컴퓨팅을 온라인으로 제공하고 연말까지 130만개가 넘는 GPU를 구축한다 (몇 번 얘기한 숫자이다). 이번에 내놓은 숫자는 600~650억 달러의 자본 지출(CAPEX)를 주로 데이터센터와 서버에 투입한다는 것인데 작년에 350억 달러에서 400억 달러 규모였던 것을 보면 상당한 증액이다. 

이미 작년 12월에 발표했던 루이지애나 북동쪽 리치랜드 패리시에 100억 달러 규모의 데이터센터를 다시 언급했는데, 이번에는 그 규모를 맨해튼과 비교하면서 맨해튼의 상당 부분을 커버할 만큼 큰 2GW+ 데이터센터를 건설하고 있다고 자랑했다. 현재 초기 현장 공사가 진행 중이고 2030년까지 계속될 것이다. 

저커버그는 메타 AI가 2025년에는 10억 명에게 서비스를 제공할 것이고, 라마4는 최첨단 모델이 될 것이고 AI 팀을 크게 늘릴 것이라고 강조했다. 이는 딥시크 출현으로 라마의 경쟁력에 의구심을 갖는 분위기를 잠재우겠다는 의지도 보이고, 결국 서비스 단에서 누가 제대로 컴퓨팅 용량을 제공할 것인가 그게 실제 실행 가능한 계획인가를 은근히 내세우는 것이다.

즉, 스타게이트 프로젝트로 몰리는 관심에 대해 메타도 충분한 투자 여력이 있고 이미 실행하고 있다는 것을 강조하면서 미국의 기술 리더십에 메타가 공헌하고 있다고 어필하는 포스팅이라고 보인다. 그만큼 빅 테크들이 트럼프 정부에 대해 매우 조심스러운 태도를 취하고 있는 것이다. 

5. AI 얼라인먼트 문제의 사회과학적 재구성


아주대 이원태 교수의 소개로 알게된 논문이다. 구글 딥마인드, MILA, 토론토 대학, 막스 플랑크 연구소의 연구진이 작성한 논문으로 아카이브에 공개했다. 이하 이원태 교수의 페이스북 글을 일부 수정해서 전달한다.

이원태 교수의 글 (일부 수정)

AI 시스템은 인간 사회와 어떻게 조화롭게 작동해야 할까? 지금까지 가장 대표적인 접근법은 바로 “AI 얼라인먼트”였다. AI 얼라인먼트의 기본적 전제는 “인류의 진정한 가치(true human values)”라는 것이 존재하고, AI 시스템이 그것에 맞춰져야 한다고 가정하는 것이다. 하지만 그러한 접근은 인간 사회가 실제로 작동하는 방식을 잘못 이해하고 있는 것이다. 인간 사회는 ‘정렬(alignment)’을 통해 작동하지 않는다는 것이다.

구글딥마인드의 이 연구 논문은 그 대신에 ‘신제도주의(New Institutionalism)’ 학파의 대표적 학자들인 제임스 G. 마치(James G. March)와 요한 올슨(Johan Olsen) (2011)의 “적절성(appropriateness)”이라는 개념을 가져와 인간의 의사결정과 행동 및 사회적 가치와의 조화 가능성을 설명한다. 여기서 ‘적절성’이란 서로 다른 가치와 목표를 가진 사람들이 갈등을 관리하고 협력할 수 있게 해주는, 문화적으로 진화해온 행동 패턴을 의미한다.

예를 들어 인간 사회에서 갈등이 해결되는 방식을 보면, 사실은 모든 사람이 같거나 비슷한 생각을 갖고 있었다는 점을 발견함으로써 해결되지 않았다는 것이다. 그 대신 우리는 규범, 제도, 법률, 관습과 같은 복잡한 사회적 메커니즘을 발전시켜왔고, 이를 통해 실질적 차이에도 불구하고 협력하며 함께 살아갈 수 있게 되었다는 것이다. 이러한 메커니즘들이 각각의 맥락에서 어떤 행동이 “적절한지”를 결정한다는 것이다.

또한, 이 논문은 현대 민주주의 이론에 중요한 전환점을 제시했던 샹탈 무페(Chantal Mouffe, 1999)의 ‘경합적 다원주의(agonistic pluralism)’ 이론을 통해 AI 거버넌스의 사회적 성격을 부각시킨다. 즉 사회 구성원들 간의 근본적인 가치 충돌이 불가피하며, 이를 해소할 수 있는 단일한 합리적 해결책이란 존재하지 않으며, 그 대신에 중요한 것은 이러한 차이와 갈등을 적대적 관계가 아닌 ‘경합적’ 관계로 전환하여 민주적으로 다룰 수 있는 제도적 장치를 만드는 것이라고 본다는 것이다.

실제 인간 사회가 다양성과 의견 불일치를 다루는 방식과 더 잘 부합하고 서로 다른 가치를 가진 인간들이 사회에서 생산적으로 참여할 수 있는 것처럼, AI 시스템도 인간의 가치와 완벽하게 정렬되지 않아도 사회의 유익한 구성원이 될 수 있다는 것이다. 단지 각각의 맥락에서 적절한 행동을 이해하고 존중하면 되는 것이다.

이 두가지의 사회과학적 관점은 AI개발 및 AI거버넌스 프레임워크 구축의 방향성에 중요한 이론적, 정책적 함의를 제공한다.

먼저 마치와 올슨의 관점에서 본다면, AI 시스템은 보편적 규칙이나 최적화된 효용함수가 아닌, 각각의 상황(맥락)과 역할(정체성)에 맞는 ‘적절한’ 행동을 학습해야 한다는 것이다. 이는 모든 AI 시스템에 동일하게 적용되는 일괄적인 규제체계가 아니라, 각각의 응용 분야와 사용 맥락에 맞는 차별화된 규제체계, 즉 맥락화된 규제 프레임워크가 필요함을 시사한다. 예를 들어, 의료 상담 AI와 창작 지원 AI는 서로 다른 행동 규범을 가져야 한다는 뜻이다.

둘째, 무페의 관점에서 본다면, AI 시스템은 서로 다른 가치관과 세계관을 가진 사용자들 사이의 갈등을 조정할 수 있어야 한다. 이는 단일한 ‘올바른’ 답을 찾으려 하기보다, 근본적 차이를 인정하고 관리하는 것, 즉 서로 다른 관점들이 건설적으로 상호작용할 수 있는 프레임워크를 제공하는 것을 의미한다.

셋째, 결국 이 두가지의 사회이론들은 모두 사회적 안정성이 ‘제도적 장치’에 의존한다고 본다는 것이다. 각 커뮤니티가 자신들의 AI 시스템을 자신들의 가치와 필요에 맞게 조정할 수 있는 거버넌스 구조를 필요로 한다는 것인데, 갈등이 발생했을 때 이를 해결할 수 있는 제도적 메커니즘, 서로 다른 AI 시스템들이 상호작용하는 방식을 규제하는 AI 거버넌스 프레임워크가 필요하다는 뜻이다.

넷째, 이같은 관점은 단일한 ‘올바른’ AI 시스템을 만드는 것이 아니라, 다양한 가치와 필요를 수용할 수 있는 다원적인 AI 생태계를 만드는 것을 지향한다는 것이고, 분산화된 AI거버넌스의 구조를 필요로 한다는 것이다. 중앙집중적인 AI 규제가 아니라, 다양한 수준(지역, 국가, 국제)과 영역(공공, 민간, 시민사회)에서 작동하는 다층적 거버넌스 체계가 필요하다고 보는 것이다. 이는 각 커뮤니티가 자신들의 필요와 가치에 맞게 AI를 조정할 수 있게 한다.

다섯째, AI 시스템의 설계와 운영에 다양한 이해관계자들이 참여할 수 있는 제도적 장치, 즉 참여적 거버넌스의 중요성을 강조한다는 것이다. 이러한 관점은 AI 시스템의 민주적 정당성과 사회적 수용성을 높이는 데 기여할 수 있다.

이같은 접근방식은 기존의 AI거버넌스 담론이 ‘얼라인먼트’이라는 기술적, 공학적 문제에 초점을 두었다면, AI거버넌스를 본질적으로 사회·정치적 과제로 재정의하는 것으로 볼 수 있다. 이는 AI 시스템이 인간 사회의 복잡성과 다원성을 다룰 수 있어야 한다는 것을 의미한다. 기술적으로 완벽한 AI를 만드는 것이 중요한 것이 아니라, 다양한 가치와 관점을 수용하면서도 안정적으로 작동할 수 있는 사회적 인프라를 구축하는 것이 더 중요할 수 있다는 것이다.

서로 다른 가치와 규범이 공존할 수 있는 AI 프레임워크를 만드는 것이 중요하다는 것이다. 이는 현대 민주주의 사회의 다원적 특성을 반영하는 것이기도 하다. 이것이 바로 마치와 올슨이 말하는 ‘적절성에 기반한 제도’(institutional rules: 단순한 공식적 규칙이 아니라 ‘적절성의 논리’가 구체화된 형태)인 것이고, 무페가 주장하는 ‘경합적 다원주의’의 원칙을 AI 거버넌스에 적용하는 것이라 할 수 있겠다. 이상의 논의는 기술결정론적 시각을 넘어 AI 거버넌스를 더욱 포용적이고 민주적인 방향으로 발전시키기 위한 풍부한 논의의 토대를 제공한다는 점에서 의미가 있다.

이런 연구 분야가 바로 인문사회학과 공학이 만날 수 있는 지점이다. 그러나 AI 연구자들이 얼라인먼트를 생각할 때는 ‘인류의 진정한 가치’에 맞추는 것보다는 사용자의 의도를 정확히 이해하고 이를 사회 가치 기준에 맞춰 수행하는 것을 생각하는 경우가 더 많다. 그러나 이 문제 역시 사람이 자신의 의도를 정확히 표현하지 못한다는 문제가 있고 이를 사용하면서 점진적으로 확인하게 하자는 제안도 있다. 

또한 다원적 AI 생태계를 가정한다고 했을 때 각 AI가 서로 다른 규범이나 가치 체계를 어떻게 갖게 만들 것이며 이를 어떤 방식으로 조정하게 할 것인가 하는 것은 아직도 연구를 해야 하는 중요한 주제이다. 

그 밖의 소식


관련 글

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다