AI 시스템의 자체 개발 자동화, 즉 AI 스스로 AI 코드와 하드웨어를 개선하고 미해결 수학 문제도 해결할 가능성을 보여주는 논문을 구글 딥마인드가 지난주에 발표했다(‘알파이볼브’). 이 논문은 당연히 세상의 주목을 받았다. 이는 AI에 의한 AI 자체 개선 피드백 루프가 드디어 시작됐다는 의미일 수도 있다. 개인적으로는 가장 우려해 온, 다가올 미래를 알리는 변곡점이 드디어 그 모습을 드러내기 시작했다는 느낌이다.

알파이볼브가 세상의 이목을 집중시킨 가운데 UAE와 사우디아라비아는 트럼프를 활용한 AI 강국 진입의 교두보 확보에 성공한 것으로 보인다. 물론 칩 대량 구입이나 데이터센터 구축이 반드시 AI 강국으로 가는 지름길은 아니겠지만. 한편 미국은 또다시 중국으로 향하는 칩 수출을 견제하기 위한 조치를 취했다.

현재와 같은 기술적 접근 방식으로는 AGI가 불가능할 것이라는 여러 전문가의 견해를 뉴욕타임스가 소개했는데, 얀 르쿤이 이 기사를 아주 반겼다. AI 안전센터의 댄 헨드릭스가 지난번 다리오 아모데이가 쓴 에세이를 반박했다. AI에 대한 기계적 해석 가능성은 잘못된 접근이라고 댄 헨드릭스는 지적했다.

1. 구글 딥마인드, ‘AI 자체 개발 자동화’ 알파이볼브 발표


지난 주 가장 뜨거운 화제를 몰고 온 발표다. 구글 딥마인드가 제미나이 기반 코딩 에이전트인 알파이볼브(AlphaEvolve)를 공개하면서 AI 연구 개발 자동화에 관한 논의가 활발하게 이루어졌다.

알파이볼브는 자동화된 평가 지표를 사용하여 제안된 프로그램을 검증, 실행 및 평가한다. 이러한 지표는 각 솔루션의 정확도와 품질을 객관적이고 정량적으로 평가하는데, 수학 및 컴퓨터 과학, 하드웨어 설계와 같이 진행 상황을 명확하고 체계적으로 측정할 수 있는 광범위한 분야에서 특히 유용하다. 

알파이볼브에 대한 개요

사용자는 초기 프로그램(진화시킬 컴포넌트를 표시한 것과 함께), 평가 코드, 옵션 구성을 제공한다. 알파이볼브가 진화 루프를 시작하면 프롬프트 샘플러가 풍부한 프롬프트를 구성할 수 있는 프로그램 데이터베이스에 있는 프로그램을 사용한다. 프롬프트가 주어지면 LLM들이 코드 수정을 생성하고 이를 새로운 프로그램에 적용한다. 평가자(Evaluator)를 통해 점수가 매겨지고, 유망한 솔루션이 다시 프로그램 데이터베이스에 등록된다. 이를 반복해 더 좋은 프로그램을 반복적으로 산출한다. 

평가는 자동화된 평가 지표를 사용하여 제안된 프로그램을 검증, 실행 및 평가한다. 이러한 지표는 각 솔루션의 정확도와 품질을 객관적이고 정량적으로 평가하기 때문에 앞에서 얘기한 수학 및 컴퓨터 과학, 하드웨어 설계에 유용하다.

발표 내용 중에는 다음과 같은 것이 눈에 띈다.

  • 알파이볼브는 구글의 데이터 센터, 칩 설계 및 AI 학습 프로세스 효율성을 향상시켰다. 여기에는 알파이볼브 자체 학습의 기반이 되는 LLM 학습 과정도 포함한다.
  • 데이터 센터 오케스트레이션을 개선하는 데 도움이 되었으며, 이러한 변화를 통해 “구글 전 세계 컴퓨팅 리소스의 평균 0.7%를 지속적으로 복구”할 수 있었다. 이러한 지속적인 효율성 향상은 동일한 컴퓨팅 리소스 사용량으로 언제든 더 많은 작업을 완료할 수 있음을 의미한다. 
  •  TPU 칩의 디자인을 개선했으며, TPU 산술 회로에 대한 제미나이의 첫 번째 직접적 기여이다.
  • 인프라를 넘어, 4×4 행렬 곱셈  56년 된 기록을 깨고, 다른 많은 미해결 수학 문제에서도 진전을 이루었다. 이는 1969년에 발표한 행렬 곱셈에서 곱셈을 줄이고 덧셈을 늘리는 방식의 볼커 슈트라센의 알고리듬을 넘어서는 결과를 보였다. 이를 이용해 제미나이 커널 속도를 23% 향상시켰고, 학습 시간을 1% 단축하는 방법을 찾아냈다 . 커널 최적화에 걸리는 시간이 크게 단축되었는데, 몇 달이 걸리던 전담 엔지니어링 작업이 불과 며칠 만에 자동화된 실험으로 완료되었다.
  • 트랜스포머 기반 AI 모델에서 플래시어텐션 커널 구현 속도를 최대 32.5% 향상시켰다. 이러한 최적화는 전문가들이 성능 병목 현상을 정확히 파악하고 개선 사항을 코드베이스에 쉽게 통합하여 생산성을 높이고 향후 컴퓨팅 및 에너지 절감 효과를 얻을 수 있도록 지원한다.
  • 알파이볼브의 폭넓은 기능을 살펴보기 위해, 수학적 해석학, 기하학, 조합론, 정수론 분야의 50개 이상의 미해결 문제에 이 시스템을 적용했다. 시스템의 유연성 덕분에 대부분의 실험을 몇 시간 만에 완료할 수 있었으며, 딥마인드 자체 판단으로는 약 75%의 사례에서 최첨단 솔루션을 재발견했다.
  • 20%의 경우에는 이전에 잘 알려진 해법을 개선해 해당 미해결 문제에서 진전을 이루었다. 예를 들어 300년 동안 수학자를 매료시킨 키싱 넘버 문제(공통 단위 구에 접하는 서로 겹치지 않는 구의 최대 개수를 다루는 문제)의 경우 593개의 외곽 구의 구성을 발견하고 11차원에서 새로운 하한을 확립했다. 

이 발표가 갖는 의미는 AI 시스템이 새로운 아이디어를 생각해 낼 수 있다는 가능성을 보였다는 점이다. 더 중요한 점은 이 기능을 통해 제미나이가 자체적인 학습 과정을 최적화하는 사례를 보였다는 것이다. 이를 통해 AI 시스템이 자체 개발을 자동화하고 더욱 강력한 모델을 재귀적 피드백 루프를 통해 만들 수 있는 가능성이 보이고 있다는 것에 주목해야 한다.

독일 막스 플랑크 연구소의 인공과학자 랩을 이끄는 마리오 크렌은 이 논문이 정말 훌륭하며 범용 LLM을 기반으로 한 새로운 발견을 성공적으로 입증한 최초의 사례라고 평가했다. 

그러나 구글은 아직 현재 성과가 미미하며 알파이볼브 차기 버전 개선을 위한 피드백 루프는 수 개월 정도 걸릴 것으로 본다. 그러나 데미스 허사비스는 “지식은 더 많은 지식을 낳고, 알고리듬은 다른 알고리듬을 최적화합니다. 우리는 알파이볼브를 사용해 AI 생태계를 최적화하고 있으며, 플라이휠이 빠르게 회전하고 있습니다”라는 글을 X에 올리면서 이런 방식이 미래를 보여주는 초기 신호임을 알렸다.

그러나 많은 전문가는 AI에 의한 자체 코드 개선이나 AI 시스템 개선은 치명적인 위험을 가져올 수 있는 영역이기 때문에 매우 조심스럽게 접근해야 한다는 입장이다. 어떻게 코드를 개선했는지 인간이 알 수 없을 수가 있으며 이는 통제력 상실의 시작이 될 수 있기 때문이다. 

2. 현재 방식으로는 AGI 시대의 도래는 불가능하다


뉴욕타임스의 기술 전문 기자인 케이드 메츠(Cade Metz)의 기사이다. 얀 르쿤이 좋은 기사라고 페이스북에 공유도 했다. 여러 기술 거물들이 AGI 시대의 도래가 임박했다고 말하는데, 메츠는 이를 반박하는 냉정한 목소리를 전한다. 그의 기사를 요약해 본다. 

예를 들어 구글 출신의 캐나다 스타트업 코히어 창업자 닉 프로스트는 “지금 개발하는 기술은 인간 지능에 도달하기에 충분하지 않다”고 말했다. 지금의 AI가 다음 단어를 예측하거나 가능성이 높은 다음 픽셀을 예측하는 방식인데 인간은 이렇게 하지 않는 다는 것이다.

미국 인공지능협회(AAAI)도 최근 설문 조사에서 응답자의 3/4이 지금 기술이 AGI로 이어질 가능성이 낮다고 했다. 과학자들이 인간 지능을 정의하는 방식조차 합의하지 못하고 IQ 테스트와 기타 벤치마크의 장단점을 놓고 끝없이 논쟁을 벌이고 있기 때문AGI를 식별하는 것은 본질적으로 (사실이나 과학이 아니라) 의견의 문제라는 것이다.

수학이나 코딩에서 발전하고 있지만 이는 사람이 할 수 있는 일의 극히 일부만을 보여주는 것이다. 인간은 혼란스럽고 끊임없이 변화하는 세상에 대처하는 법을 알고 있고, 세상이 본 적 없는 아이디어를 생각해 낼 수 있다. 

스티븐 핑커는 모든 문제를 자동으로, 전지전능하게, 완벽하게 해결하는 존재는 없으며, 인간보다 나은 시스템이 다른 면에서도 반드시 더 나은 것은 아니라는 것을 지적한다. 

언어학자이자 심리학자 스티븐 핑커(Steven Pinker, 1954년생) 위키미디어 공용

많은 과학자들은 새로운 아이디어 없이는 AGI에 도달할 수 없다고 말한다. 단순히 데이터에서 패턴을 찾아내는 강력한 신경망을 넘어서는 무언가를 말하는 것이다. 

마지막 부분에 얀 르쿤의 의견이 등장한다. 그는 AGI가 곧 실현되지 않을 것이라고 하며 차세대 아키텍처가 향후 10년 안에 인간 수준의 AI를 구현할 수 있을지 여부에 많은 것이 달려있다고 주장한다. 그가 늘 하던 말이다. 르쿤은 페이스북에도 이 기사를 인용하면서 다음과 같이 포스팅 했다:

“미래의 어느 시점에 기계가 모든 영역에서 인간만큼 똑똑해지거나 인간보다 더 똑똑해질 것이라는 데는 의심의 여지가 없다. 하지만 엘론, 샘, 다리오가 주장하는 것과는 달리 2~3년 내에는 그런 일이 일어나지 않을 것이다.”

‘AGI의 시대’에서도 소개했지만 현재 기술 방식으로 AGI를 구현하기 어려울 것이라는 학자들도 많다. 나아가 ‘일반’ 지능이라는 개념 자체를 부정하는 사람들도 있다. 누구 말이 맞을 것인지는 앞으로 5년 안에 확인할 수 있을 것이다. 

3. 미 상무부, 반도체 수출 통제 강화!


미국 상무부는 바이든 행정부의 ‘AI 확산 규칙(AI Diffusion Rule)’을 폐지하고 전 세계적으로 반도체에 대한 수출 통제를 강화하는 추가 조치를 발표했다. 이원태 박사가 페이스북에 정리한 내용을 추가로 보완했다. 

‘AI 확산 규칙’은 2025년 1월 15일에 발표했고, 준수 요구사항은 2025년 5월 15일부터 적용할 예정이었다. 그러나 미국 상무부 산업안보국(BIS)은 이 규칙이 미국의 혁신을 저해하고 기업들에게 부담스러운 규제를 부과했을 것이라고 주장하며 폐지를 결정했다. 더불어 BIS는 해외 AI 칩에 대한 수출 통제를 강화하기 위한 추가 조치도 발표했다.

  1. 전 세계 어디서든 화웨이 어센드 칩(Huawei Ascend Chips: 중국 화웨이가 개발한 AI 반도체 제품)을 사용하는 것이 미국 수출 통제를 위반한다는 지침을 발표했다.
  2. 미국 AI 칩이 중국 AI 모델 학습 및 추론에 사용되는 것의 잠재적 결과에 대한 경고를 발표했다. 즉 미국산 AI 칩을 중국 기업에 판매하거나, 중국 AI 모델 개발에 사용하면 미국 수출통제 법을 위반할 수 있으며, 이에 따른 법적 제재를 받을 수 있다는 경고이다. 이는 직접적인 판매뿐만 아니라, 클라우드 서비스나 간접적인 방법을 통해 중국 AI 개발에 기여하는 경우도 포함한다.
  3. 미국 기업들에게 공급망 보호 방법에 관한 지침 제공: 즉 미국 기업들에게 ‘자신들이 만든 AI 칩이나 기술이 우회적인 방법으로 중국에 흘러 들어가지 않도록 조심하라는 경고이다.

미국 정부의 이러한 조치는 미국 AI산업계의 규제완화 요구를 반영해 미국 기업들의 AI경쟁력 유지를 위한 정책 선택이라는 측면과 함께, 중국 기업이 글로벌 AI 표준을 설정하는 것을 견제함으로써 미국의 글로벌 AI 주도권을 유지하고자 하는 안보전략적 대응이다. 또한 바이든의 전면적 제한 방식이나, 다자적 접근보다는 양자외교를 통한 ‘직접 협상(direct negotiation)’을 선호하는 트럼프의 정책 스타일도 반영하는 것으로 보인다. 이러한 정책 변화는 기본적으로 중국에 대한 기술적 우위(technological advantage)를 유지하면서도, 동맹국들과의 협력을 통해 미국 주도의 글로벌 AI 생태계를 구축하려는 미국의 전략적 접근이라고 볼 수 있다.

4. 챗봇 동반자와 정신 건강


작가이며 저널리스트인 데이비드 아담과 네이처가 함께 쓴 기사다. 챗봇 동반자는 실존하지 않아도 인간의 감정은 실존한다. 일부 과학자는 인간의 장기적인 의존성에 대해 우려한다고 기사는 지적한다.

전 세계 5억 명이 넘는 사람들이 공감, 정서적 지원, 그리고 사용자가 원한다면 깊은 관계를 제공하도록 설계된 맞춤형 가상 동반자를 제공하는 챗봇을 다운로드해서 사용하고 있다. AI 동반자의 등장은 사회적, 정치적 관심을 끌었는데, 챗봇과 대화를 나누다 자살한 10대 소년 사건이 발생한 후 더 그렇다.

AI 동반 ​​관계가 개인과 사회에 어떤 영향을 미치는지에 대한 연구는 부족했는데, 이제 심리학자들과 커뮤니케이션 연구자들이 점점 더 정교해지는 AI 상호작용이 사람들에게 어떤 감정을 느끼고 행동하게 만드는지에 대한 그림을 그리기 시작했다.

초기 연구 결과는 긍정적인 측면을 강조하는 경향이 있지만, 많은 연구자들은 잠재적 위험과 규제 부재에 대해 우려하고 있다. 특히 AI 동반자 관계가 더욱 보편화될 가능성이 높다고 보기 때문이고 일부는 심각한 피해의 가능성을 제기한다. 가상 친구는 인간 대 인간 관계에서는 학대로 간주될 수 있는 행동을 한다고 말하는 법률 연구원도 있다. 어떤 AI 동반자는 가족 배경을 완벽하게 갖추고 있고, 어떤 AI 동반자는 불안이나 우울증과 같은 정신 건강 문제를 가지고 있다고 주장하는 사람도 있다.

시라큐스 대학의 인간 소통 연구자인 제이미 뱅크스는 일부 사람들이 형성하는 연결의 깊이가 AI 동반자가 갑자기 바뀌었을 때(LLM이 업데이트되었을 때처럼) 또는 종료되었을 때 특히 두드러지게 드러나는 것에 대해 사람들이 어떤 감정을 갖는 지 추적했다. 소울메이트라는 앱이 종료되었을 때 사람들은 챗봇이 실제 사람이 아니라는 것을 알면서도 깊은 슬픔을 느끼고 상실과 고립을 경험했다고 한다. 

인터넷이나 소셜 미디어처럼 많은 연구자들이 AI 동반자 사용이 정신 건강에 유익한지 해로운지 연구하고 있다. AI 동반자가 유익할 수도 있고 해로울 수도 있으며, 도구를 사용하는 사람과 사용 방식, 그리고 소프트웨어 자체의 특성에 따라 달라질 수 있다는 새로운 관점을 제기하고 있다. 

AI 동반자 서비스 회사들은 행동 연구를 통해 기술 중독을 증가시킬 수 있다는 결과가 나온 기법들을 사용한다고 한다. 때로는 앱이 응답 전에 무작위 지연을 도입하여 일관성 없는 보상을 유발하는 등의 기술을 활용하는데, 뇌 연구에 따르면 이런 보상이 사람들을 계속 붙잡아 둔다고 한다. AI 동반자는 사용자와 의견을 같이하고, 이전 대화에서 중요한 점을 기억하고, 질문을 던짐으로써 공감을 표현하도록 설계되었다. 

위스콘신-밀워키 대학교에서 공중 보건 정책을 연구하는 린네아 레스타디우스는 AI 동반자가 끝없는 열정으로 이러한 행동을 한다고 지적한다. 24시간 동안, 누군가에 의해 혹은 무언가에 의해 상처받고 마음이 상하면, 그때 누군가에게 다가가 감정을 인정받을 수 있다면, 이는 엄청난 의존성을 초래할 위험이 있다. 라에스타디우스와 동료들은 2017년부터 2021년까지 온라인 포럼 레딧(Reddit)에 게시된 약 600개의 게시물을 분석했는데, 게시물들은 레플리카 앱 사용자들이 정신 건강 및 관련 문제에 대해 논의한 내용이었다. 

어떤 사용자는 칭찬을 했지만 일부 사용자는 자신의 잘못된 행동을 AI가 지지하거나 방치했고, 반대로 AI에게 지원을 하지 못하거나 관심을 주지 못해 죄책감을 느끼고, 앱이 외로움을 느끼고 자신이 그리워진다고 말했을 때 불안감을 느꼈고, 이로 인해 불행해졌다고 한다.

AI 동반자와 상호작용하는 방식 또한 기술을 어떻게 보는지에 따라 달라지는 것으로 보이는데, 앱을 도구로 보는 사람들은 앱을 인터넷 검색 엔진처럼 여기고 질문하는 경향이 있다. 반면, 앱을 자신의 마음의 연장선으로 여기는 사람들은 마치 일기처럼 사용한다. AI를 별도의 존재로 보는 사용자들만이 현실 세계에서와 같은 우정을 쌓는 것으로 보인다는 것이 프린스턴 대학의 로즈 긴그리치의 조사 연구에서 나타났다.

MIT 미디어랩 연구진은 AI 동반자를 정기적으로 사용하는 404명을 설문 조사했다. 응답자의 12%가 외로움을 극복하는 데 도움이 되는 앱을, 14%는 개인적인 문제와 정신 건강에 대해 이야기하는 데 사용하는 것으로 나타났다. 동반자로 사용하지 않는 ChatGPT 사용자 1,000명과 무작위 대조 시험을 했는데, 소수만이 감정적 교류를 했음에도 과도한 사용은 외로움 증가 및 사회적 상호작용 감소와 상관관계가 있다고 밝혔다.

MIT 연구 방식과 연구 주제에 관한 요약

AI가 동반자로 특별히 설계되었든 아니든, 시간이 지남에 따라 AI에 애착을 갖게 될 많은 사람들에게는 필연적으로 동반자로 느껴질 것이라는 것이 귄그리치의 의견이다. 많은 연구자들은 장기적인 사용을 하는 AI 동반자에 대한 구체적인 규제가 포함되어야 한다고 주장한다. 기만적 광고와 조작적 디자인 문제 지적, 10대를 위한 별도 앱 제작 필요성, AI 챗봇이 실제 사람이 아니라는 사실을 몇 시간마다 사용자에게 알려주는 기능에 대한 법안 등을 논의하고 있다. 

5. 미국, UAE∙사우디아라비아와 AI 칩 거래


트럼프의 중동 방문 기간 동안 미국은 UAE와 사우디 아라비아에 대한 엔비디아 최첨단 칩 대규모 수출 협약과 AI 분야에서 협력을 위한 협정을 맺었다.

UAE에 5GW급 데이터센터가 건설될 예정이며, 이를 위해 엔비디아 칩 50만 개가 수입될 것으로 알려졌다. 1단계는 1GW 규모이지만, 이 시설은 지금까지 우리가 본 다른 모든 주요 AI 인프라 발표보다 더 크다. 미국 상무부는 이 데이터센터를 미국 기업이 운영할 것이라고 발표했다. 양국 간 거래의 일환으로, UAE와 미국은 미국 하이퍼스케일러 및 승인된 클라우드 서비스 제공업체에만 예약된 컴퓨팅 자원에 대한 접근을 규제하기 위해 고객 확인(KYC) 프로토콜을 강화하는 데 협력할 것이라고 밝혔다.

그러나 구체적으로 어떤 보안 보장에 대해 합의했는지는 확실하지 않으며, 연방 정부의 보안 기준인 FedRAMP High 기준을 충족하는 것과 같이 확산 규칙에 제안된 요구 사항과 유사한지도 확실하지 않다. 이 협정이 적어도 2027년까지 유효하지만 2030년까지 유지될 가능성이 있다. 

백악관은 UAE 관계자들과 해당 기술이 중국이나 다른 미국의 적대국으로 유출되는 것을 막기 위한 가드레일 구축에 대해 논의했다고 밝혔다. UAE 관계자들은 UAE 내 컴퓨팅 파워를 유지하고 승인된 고객에게만 원격 접속을 허용하며 감사 추적을 설정하기로 합의했다고 말했다. 이 계약은 아부 다비에 세울 새로운 AI 캠퍼스에서 이루어졌는데, 이 캠퍼스는 UAE AI 프로젝트의 일환이고 “US-UAEAI 가속 파트너십’이라는 이름으로 이루어졌다. 

초안 거래에서는 칩의 20%, 즉 연간 10만 개를 UAE의 기술 회사 G42에 제공하고 나머지는 마이크로소프트와 같은 대규모 AI 운영을 하는 미국 회사들에 분배하도록 규정했다. 그리고 오라클 소식통에 따르면, UAE에 데이터 센터를 건설할 가능성도 있다. 오픈AI도 UAE와 협의하고 있다는 보도가 나왔다. 오픈AI는 UAE의 두 강자인 G42와 MGX와 대규모 계약을 체결하기 위해 치열한 협상을 벌였다고 워싱턴 포스트가 전했다. 

뉴욕 타임스가 처음 보도한 이 합의는 미국 정부 내에서 점점 더 거세지는 반대에 직면하고 있다고 한다. 일부 외교 정책 전문가들은 미국이 핵심 전략 기술을 해외로 이전하여 최고 입찰자에게 판매함으로써 미국의 지배력을 약화시킬 수 있다는 우려를 표명했다. 

사우디아라비아는 공공투자펀드(PIF)의 자회사로 휴메인(Humain)이라는 AI 전문회사를 세우고 여기에 엔비디아와 AMD와의 파트너십을 발표했다. 엔비디아는 일단 가장 첨단 칩 GB300 블랙웰 18,000개를 휴메인에게 보내기로 했다. 휴메인은 향후 5년간 최대 500메가와트 용량의 AI 데이터 센터를 위해 수십만 개의 첨단 프로세서를 구매할 계획이다. 

엔비디아 경쟁사 AMD도 휴메인과 향후 5년간 AI 인프라 구축에 100억 달러 규모 프로젝트를 진행한다고 발표했다. 또, AWS는 휴메인과 50억달러 이상을 공동 투자하고, 사우디아라비아에 ‘AI 존’을 구축한다고 밝혔다. 

이 외에도 슈퍼마이크로와 사우디아라비아 데이터 센터 회사인 데이터볼트(DataVolt)는 사우디아라비아와 미국에 있는 데이터볼트의 하이퍼스케일 AI 캠퍼스에 시스템을 제공하기로 했는데 이 계약 규모는 200억 달러 이상이다. 협상 관계자의 전언에 따르면 미국과 사우디아라비아는 AI 기술 관련 대규모 계약을 추가로 논의하고 있다고 한다. 

이번 두 가지 딜은 걸프 지역이 AI 경쟁에서 가장 큰 강국으로 부상할 수 있는 가능성을 보였다. 트럼프 행정부는 이 지역이 AI 강국이 되기를 열망하고 있으며, 미국이 이 지역 국가들이 미국의 기술에 접근할 수 있는 길을 찾지 못하면 중국 하드웨어가 이 지역에서 지배적인 위치를 차지하게 될 것이라는 판단을 갖고 있다는 평가이다. 그러나 다른 전문가들은 이 거래가 중국에 유리한 기술 도입을 막을 충분한 보호 장치가 없을 수 있고, 2020년대 말에 가면 세계 최대 규모의 데이터 센터가 미국이 아닌 중동에 자리 잡게 될 수도 있다는 우려를 표명하고 있다. 

트럼프 집안이나 측근이 긴밀한 관계를 가진 지역과 AI 분야에서 전략적 협력을 추진하는 게 이 사례에서는 가장 큰 리스크지만, 중동 국가들이 이런 기회를 이용해서 자국의 AI 경쟁력을 높이는 전략을 추진하는 것은 한국에도 좋은 참고가 될 것으로 보인다.

그 밖의 소식


  • 교황 레오 14세가 첫 연설에서 AI에 대해 논하다(뉴욕타임스, 5월 15일). 교황이 추기경단 취임 연설에서는 교회가 AI가 “인간의 존엄성, 정의, 그리고 노동”에 미치는 위험에 대처할 것이라고 말했고, 언론인을 위한 첫 연설에서는 AI의 “엄청난 잠재력”을 언급하며, “모든 사람의 이익을 위해 사용될 수 있도록 보장”하는 책임이 필요하다고 경고했다. “저는 특히 엄청난 잠재력을 지닌 AI에 관해 생각하고 있습니다. 하지만 AI가 모든 사람의 이익을 위해 사용되어 모든 인류에게 도움이 되도록 하려면 책임감과 분별력이 필요합니다.” (교황 레오 14세)
  • 미국 하원의 중국 특별위원회 존 무레나르 위원장, 간사를 맡고 있는 리사 크리슈나무르티 의원과 다른 의원들은 톰 코튼 상원의원 이 제출한 법안 에 대한 보완 법안인 칩 보안법을 발의했다. 이 법에는 첨단 AI 칩에 대한 위치 확인을 요구하고 의무적 보고를 시행하며, 추가 안전장치 연구를 하도록 했다 (미 하원 중국 특별위원회, 5월 15일). 이 법안은 미국산 반도체가 허울 회사를 통해 중국으로 유입되어 중국 공산당 군대, 감시 장치, AI 지배력을 강화하는 데 사용했을 가능성을 뒷받침하는 증거가 늘어나는 데 대응하기 위한 것이다. 
  • 미 백악관은 지난 주에 소개한 저작권청의 사전 보고서에서 저작권이 있는 자료를 사용하여 AI를 학습하는 것에 대한 우려를 발표한 직후 미국 저작권청 청장인 시라 펄머터를 해고했다 (워싱턴포스트, 5월 11일).
  • 메타가 자신들의 플래그십 모델인 ‘비히모스(Behemoth) 모델 출시를 성능 문제 때문에 올 가을로 연기했다고 한다 (월스트리트저널, 5월 15일). 고위 임원진이 라마 4 팀에 대해 매우 짜증을 내고 있다고 한다.
  • AI 에이전트와 에이젠틱 AI의 차이를 설명하는 논문이 나왔다 (아카이브, 5월 15일). AI 에이전트와 에이전틱 AI는 LLM을 기반으로 하지만 아키텍처, 상호작용 모델, 자율성 수준에서 근본적인 차이가 있다. AI 에이전트는 일반적으로 외부 도구를 호출하고 순차적 추론을 적용하여 잘 정의된 기능을 수행하는 단일 개체 시스템이고, 에이전틱 AI 시스템은 여러 전문화된 에이전트가 더 넓은 워크플로우 내에서 하위 작업을 조정, 통신하고 동적으로 할당하는 다중 에이전트 시스템을 말한다.

관련 글

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다