기사 공유하기

1. 인공지능 선구자들, ‘재앙적 위험’에 대한 보호 촉구


AI의 주요 정책 리더, 연구자, 기업인들은 AI가 가져올 존재론적 위험에 대해 여러 번 경고한 바 있다. 물론 이에 대해 지나친 과장이나 SF적 망상이라고 비판하는 사람도 있지만. 이런 분위기에서 최근에는 국가 단위에서 AI 안전을 위한 다양한 정책, 법률, 감시 기구 등을 논의한다.

뉴욕타임스는 미국과 중국, 영국, 캐나다, 싱가포르의 AI 선구자들이 나서서 AI가 심각한 위해를 끼칠 수 있음을 다시 한 번 환기했다고 소개했다. 이들은 AI가 몇 년 안에 만든 사람의 능력을 넘어서 통제권을 상실하고, AI의 악의적 사용으로 인류 전체에 재앙을 초래될 수도 있다는 점을 강조했다.

Far.AI라는 미국의 비영리 연구 그룹의 한 프로젝트인 안전한 AI 포럼(SAIF)은 9월 5일부터 8일까지 베니스에서 열린 ‘AI 안전을 위한 국제 대화’ 행사에서 AI가 초래할 수도 있는 재앙을 막기 위한 국제 협력을 촉구했다. 우선 각 나라는 자국 안의 AI 시스템을 AI 안전 기관에 등록하게 하고, 각 기관은 상호 협력을 통해 AI가 자신을 복제하거나 만든 사람을 의도적으로 기만하는 것과 같은 레드 라인이나 경고 사인에 관해 합의하자고 요구했으며, 이는 국제적인 기구를 통해서 이루어질 수 있다는 것이다. 

참여한 리더로는 토론토 대학의 제프리 힌턴, 몬트리올 대학의 요수아 벤지오, 칭화대학의 앤드류 야오 같이 튜링상을 받은 학자뿐만 아니라, 중국 외교관 출신인 푸 잉, 아일랜드 전직 대통령 매리 로빈슨, 버그그루엔 연구소장 돈 나카가와 등이 있다.

이 미팅이 흥미로운 것은 처음으로 서구의 학자들과 중국의 학자∙리더가 함께 했다는 것이다. 지금까지 미국은 AI 분야에서 중국을 고립시키고 견제해 왔다. 학자들은 이런 흐름이 과학 연구 결과의 상호 교류를 위축한다고 지적했는데, 벤지오 교수는 과거 냉전 시대에도 미국의 소련 과학자들은 협력을 통해 핵무기에 의한 파국을 막는 데 공헌했다는 점을 지적했다. 

AI 안전에 대한 각국의 노력이 점점 국가주의 형태를 보이고, 강대국 블럭을 통한 패권 전쟁의 모습을 보이는 가운데 모든 그룹의 협력을 촉구해 전 지구적 노력을 함께 하자는 것이 이 선언의 의미라 할 수 있다.

2. 파운데이션 모델은 인간과 유사한 정서적 인지를 갖고 있는가?


리사 펠드먼 배럿의 [감정은 어떻게 만들어지는가]를 보면 인간의 감정은 매우 복잡하게 표현되고 고도로 개인화된 것이지만 감정 개념은 사회적 실재라고 한다. AI 봇과 감성적 대화가 급격히 증가하고 있는 현재 AI가 과연 인간의 감정을 이해하거나 표현할 수 있는 가는 개인적으로도 매우 흥미로운 주제다.

리사 펠드먼 배럿(Lisa Feldman Barrett, 1963년, 캐나다 토론토 출생)

스탠퍼드대학과 텍사스대학 연구자들은 지난 9월 19일 발표한 논문에서 파운데이션 모델에서 정서적 인지를 테스트 하기 위한 평가 프레임워크를 소개했다. 이들은 심리학 이론에서 출발하여 평가, 감정, 표현, 결과 사이의 관계를 탐구하는 1,280개의 다양한 시나리오를 생성한 후 엄선된 조건에서 파운데이션 모델(GPT-4, 클로드-3, 제미니-1.5-프로)과 567명의 사람의 감정 평가에 대한 결과를 비교했다.

연구 결과에 따르면 파운데이션 모델은 인간의 직관과 일치하는 경향이 있으며, 참여자 간 합의와 일치하거나 이를 뛰어넘는 것으로 나타났다. 일부 조건에서는 모델이 평균적인 인간보다 더 잘 예측하는 ‘초인적’인 경우도 있다는 것이다. 모든 모델은 사고 사슬(CoT) 추론 방식을 활용했으며 연구자들은 파운데이션 모델이 믿음과 행위에 미치는 영향과 감정에 대해 인간과 같은 이해를 얻었음을 시사한다고 말하고 있다.

이들은 먼저 심리학 이론을 바탕으로 결과, 평가, 감정 사이의 인과적 관계를 기술하는 감성 추론을 위한 추상적 인과 그래프를 명시했다. 그런 다음 평가 차원과 자극이 달라져야 하는 기타 변수(결과, 감정, 표정)를 지정할 수 있도록 했다. 

자극 세트 안에 있는 1280개 질문 각각에 대해 567명의 인간 참가자로부터 질문 1당 평균 약 20개의 응답을 수집했는데 자극은 스토리 형식으로 주었고, 질문은 여러 개의 대답을 할 수 있는 옵션을 부여했다. 참가자들의 합의를 이끌어 내기 위해서는 개인의 선택이 다수의 선택과 일치하는가를 체크했고, 합의 점수는 모든 참가자의 다수가 동의한 평균이다. 연구자들은 참가자들의 합의가 매우 높다는 것을 알아냈다.

파운데이션 모델이 정서적 추론에서 인간과 유사한 패턴을 보이는지 테스트하기 위해 클로드-3-오퍼스, GPT-4-터보, 제미니-1.5-프로의 세 가지 모델을 조사했는데, 이러한 모델을 테스트할 때 두 가지 프롬프트 전략, 즉 0-샷과 제로 샷 사고 연쇄(CoT)를 사용했다. 이후 모델 응답을 대다수 참가자가 선택한 선택과 비교했다.

결과와 평가에서 감정을 추론하는 작업의 경우, 모델과 참여자 간 합의가 참여자 간 합의와 비슷하고 우연(25%, 네 가지 감정 중 하나를 선택해야 하므로)보다 훨씬 높은 것으로 나타났다. 놀랍게도 CoT를 사용한 클로드-3-오퍼스는 인간 참가자의 판단이 78.82%로 69.38%인 모델 참가자보다 더 높은 일치도를 달성했다. 다른 실험에서도 모델과 참가자의 일치도는 높게 나왔다고 한다. 다만 결과의 안전성에 대한 추론에서는 참가자 간의 합의보다 모델 합의 점수가 낮게 나왔는데 이는 모델이 결과와 감정을 추론할 때는 표현을 통합할 수 있지만 평가를 추론할 때는 어려움을 겪는다는 것을 시사한다.

이런 연구는 앞으로 정서적 인지가 모델 안에서 어떻게 인지되거나 표현되는지, 정서적 추론을 하기 위해 학습 데이터는 어떤 유형이 필요한지, 사전 학습과 학습 후 얼라인먼트에 어떤 영향을 받을 것인지에 대한 추가 연구가 더 이루어져야 한다. 나아가 이런 모델이 사람의 정서 조작에 사용되는 오용의 문제, 정신 건강 지원이나 개입에 어떻게 활용할 수 있는지, 지난 오픈AI의 분석처럼 사람의 의존이 커질 경우에 대한 대응 방안 등을 앞으로 더 논의하고 연구할 필요가 있다. 

이런 논의 중 하나가 다시 월스트리트저널 기사로 나왔다. 

3. AI 컴패니언(동반자)은 외로움을 치유할 수 있는가?


하버드 경영대학원 줄리언 프레이타스 교수의 칼럼이다. AI 컴패니언이라고 부르는 앱은 챗GPT를 제외하면 소비자용 AI 애플리케이션에서 가장 인기를 얻고 있는 애플리케이션이다. 지금은 주요 인력을 구글이 인수한 캐릭터ai와 메타 AI, 레플리카가 가장 대표적이며 국내에서도 뤼튼이나 스캘터랩이 추구하는 방향 중 하나이다.

8월에 a16z에서 발표한 자료에 따르면 컴패니언 앱은 모바일에서 가장 많은 세션을 유지하고 있으며(캐릭터ai 298 세션), 캐릭터ai의 글로벌 사용자는 2천만 명이 넘고 월 트래픽은 1억 7천만 명이 넘는다. 메타는 메타 AI의 사용자가 4억 명을 넘었다고 발표했다. 

챗GPT와 다르게 AI 컴패니언은 사용자가 자기 생각이나 문제를 공유할 때 공감하고 현실적인 방식으로 응답하도록 설계했다. 예를 들어, 파트너인 척 역할극을 할 수도 있고, 정신과 상담의 역할을 하거나 아인슈타인 같은 유명한 인물인 척하기도 한다.

AI 컴패니언이 사용자에게 의미 있는 관계를 만들어 낼까? 아니면 사용자를 더 고립시키게 될까? 아직 모른다. 중요한 질문은 AI 컴패니언이 정말 사용자가 필요로 하는 정서적 지원을 제공하고 ‘외로움을 덜 느끼게 할 수 있을까?’라는 것이다.

외로움은 전 세계 어른의 3분의 1이 경험하는 것이고 그 숫자는 점점 더 늘어난다. 외로움은 우울증이나 분노와 같은 정신적 문제뿐만 아니라 암 환자의 사망 위험 증가와 같은 신체적 문제가 발생할 수 있다.

프레이타스 교수는 빌켄트 대학의 아멧 우구랄프와 젤리아 우구랄프, 워튼 스쿨의 스테파노 푼토니와 함께 AI 컴패니언이 외로움에 미치는 영향을 분석했다. 우선 인기 있는 AI 컴패니언 5종에 대한 5만 건의 앱 리뷰를 분석하여 리뷰에서 외로움에 대한 언급 빈도와 언급 횟수가 평점에 어떤 영향을 미치는지 살펴봤다. 또한 챗GPT와 같은 일반적인 AI 어시스턴트에 대한 리뷰도 분석했다.

챗GPT 리뷰에서는 단지 리뷰 중 4%만 외로움에 관해 언급했는데, AI 컴패니언은 최대 20%가 언급했고 결과는 외로움에 관한 언급이 많을수록 더 많은 별점을 받았고, 더 긍정적인 평가를 받았다. 특히 외로움을 줄이기 위해 컴패니언 앱을 사용하는 사람이 많을수록 더 많은 것을 얻을 수 있음을 보았다. 

연구진은 약 1,100명의 온라인 참가자를 모집하여 요일별로 외로움을 1점부터 100점까지 평가하도록 요청하고 매일 외로움이 얼마나 변화하는지 측정했다. 컴패니언 앱을 사용한 사람들은 외로움이 크게 감소했다고 답했으며, 일주일 동안 평균 16% 포인트 감소한 것으로 나타났다. 또한, AI 컴패니언과 상호작용을 한 참가자들은 상호작용을 하지 않은 참가자들에 비해 외로움을 매일 평균 14% 포인트 덜 느꼈다.

후속 연구에서는 약 600명의 온라인 참가자를 대상으로 참가자들에게 하루 동안 AI 컴패니언 또는 실제 사람과 상호작용하고, 온라인에서 YouTube 동영상을 탐색하거나 아무것도 하지 않도록 했다. 결과는 AI 컴패니언이나 실제 사람과 상호작용한 사람들만 외로움이 줄어들었다고 했으며 사람의 경우는 19%, AI 컴패니언의 경우는 20%가 줄어 들었음을 보고했다. 

나아가 사람들이 경청한다고 느낄수록 외로움이 더 크게 감소하는 것으로 나타났는데, 흥미로운 점은 AI 컴패니언과 상호작용한 사람들은 챗GPT와 같은 AI 어시스턴트와 상호작용한 사람들(6% 포인트)보다 외로움 수준이 평균 24% 포인트 더 크게 감소한 것으로 나타났다.

AI 컴패니언은 외로운 사람에게 더 나아가 사회에 도움이 될까? 외로움을 감소시켜 사회에 도움이 될 거라는 의견이 있는가 하면, 오히려 ‘진짜 인간’과의 교류를 피하고 마음을 닫아 버리게 할 것이라는 상반된 견해가 있다. 장기적인 효과에 관해서는 앞으로도 더 연구가 필요할 것이다. 

4. 여러 가지 단신


  • 페이페이 리(Fei-Fei Li) 교수가 창업한 월드 랩스는 2억 3천만 달러의 펀딩을 받아서 10억 달러 이상의 가치로 평가받았다. 월드 랩스는 거대 월드 모델이라고 하는 AI 모델로 3차원 세상을 이해하고 상호작용을 할 수 있는 공간 지능을 구축하고자 한다. 이 모델은 게임 개발자나 영화 스튜디오에서 활용할 수 있을 것으로 본다. 나아가 메타버스와 AI를 결합하는 방향을 엿볼 수 있다. (테크크런치 9월 13일)
  • 샘 올트먼은 T-모바일과 인터뷰에서 o1이 자사가 정의한 AGI 레벨 2에 해당한다고 인정했으며, 이를 통해 완전한 AGI로 가는 길을 열었다고 인정했다. X.com의 9월 20일  Rowan Cheung의 트윗을 통해.
  • 구글은 구글.org가 AI 기회 펀드를 통해 학생과 교사가 AI 능력을 향상하도록 지원하기 위해 2,500만 달러를 지원하기로 했다.

관련 글