지난 주는 AI 기술이 인류에게 공헌할 거라는 믿음에 다시 확신을 갖게 하는 한 주였다. 과학 연구에 AI를 도입하면서 인간의 한계를 뛰어넘는 연구 결과가 쏟아지고 있다. 영국과 미국은 국가 AI 인프라 도입을 서두르고 있다. 두 나라 모두 1985년생이 총리와 대통령의 AI 자문역 역할을 하고 있다.

1. 10년 뒤를 내다본 영국의 AI 액션 플랜.


영국의 노동당 정부가 과학혁신기술부와 총리실을 중심으로 새로운 AI 정책을 발표했다. 키어 스타머 총리가 주도하고 있다. 총리의 AI 자문역인 맷 클리퍼드가 제안한 50가지 권고 사항을 대부분 수용하기로 했다.

노동당 정부 답게 성장을 가속화하면서도 노동자들의 생활 수준을 높이는데 도움을 준다는 철학을 깔고 있다. AI 인프라 계획을 가속화하기 위한 전용 AI 성장 지역(AI Growth Zone)과 AI 액션 플랜에 따라 140억 파운드를 투자하고 1만3250개의 일자리를 창출한다는 야심만만한 계획이다. 구체적인 내용은 추가 발표 자료를 참고. 

키어 스타머(영국 총리, 1962년생). 영국 정부.

AI가 완전 수용되면 생산성이 연간 1.5% 포인트 늘어날 거라고 한다. 계획대로 된다면 10년 동안 해마다 470억 파운드의 가치가 된다(원화로 83조 원이다). 데이터 센터에 250억 파운드를 투자한다는 계획과는 별개다.

영국을 AI 기업이 투자할 수 있는 최고의 장소로 만들기 위한 구체적인 로드맵도 나왔다.

  • AI 성장 지대를 만든다. 첫 번째 지역은 옥스퍼드셔 컬햄(Culham)가 될 것이다. 
  • 공공 컴퓨팅 용량을 20배 늘린다. 완전히 새로운 슈퍼 컴퓨터를 도입할 계획이다.
  • 맷 클리포드가 총리의 AI 기회 고문을 맡고 데미스 하사비스도 참여한다.
  • 공공 데이터의 가치를 안전하고 보안된 방식으로 활용하고 AI 개발을 지원하기 위한 새로운 국가 데이터 라이브러리를 구축한다.
  • 전담 AI 에너지 위원회를 만든다. 에너지 기업과 협력해 에너지 수요와 과제를 파악하고 이를 바탕으로 기술 개발을 추진한다. 소형 모듈형 원자로(SMR)와 같은 기술을 활용해 청정 에너지 초강대국이 되려는 정부 목표를 직접 지원한다.

구체적인 전략은 크게 네 가지다.

  1. AI 인프라 구축: 주권적 AI 컴퓨팅 자원 확보, 민간이 운영하는 데이터센터 확충을 통해 AI경제 기반 마련, 주요 동맹국들과의 파트너십을 통한 보완적 컴퓨팅 자원 접근성 확보 등,
  2. 인재 양성: 향후 5년 동안 수만 명의 AI 전문가를 양성하고, AI 관련 학위 프로그램을 늘린다. AI 장학 프로그램을 도입해 해외 인재를 유치한다. AI로 인한 노동 시장 변화에 대비해 재교육 시스템을 구축한다.
  3. 규제 및 안전: AI 안전연구소를 강화하고 분야별 규제 기관의 AI 전문성을 제고한다. 혁신 친화적 규제 환경을 조성한다.
  4. 공공/민간 부문 AI 도입 촉진: AI 스타트업의 참여 기회 확대를 위한 정부 조달 시스템을 혁신한다. API 기반 정부 인프라를 구축하고 공공과 민간의 협력을 강화한다. 주요 산업별 AI 도입 전략을 수립하고 산업 전략과 연계를 강화한다. 전국적 AI를 도입하고 생산성 격차를 해소한다.

5가지 핵심 정책은

  • AI 연구자원(AIRR) 확대
  • AI 성장 구역 지정
  • AI 안전연구소 지원 강화
  • UK 소버린 AI 신설
  • AI 부문별 챔피언 임명 및 산업계 협력 강화 등이다.

기존에 나와 있던 많은 논의 사항 가운데 민간 혁신을 추구하려는 기업들의 의견이 많이 반영됐다. 소버린 AI를 여러 차례 강조한 걸 보면 미국과 AI 분야에서는 거의 동맹 수준의 행보를 보이던 영국이 독립성을 추구하겠다는 의지를 엿볼 수 있다.

흥미로운 대목은 맷 클리포드와 트럼프 행정부의 AI 고문인 스리람 크리쉬난 모두 1985년생이라는 사실이다. 국가 AI는 이제 이 정도 젊은 전문가에게 위임해야 한다. 

맷 클리포드(Matthew Clifford, 1985년생). matthewclifford.com

2. 존재하지 않았던 첨단 배터리 원료, AI로 만들어 쓴다.


마이크로소프트 연구소가 강력한 AI 시스템을 발표했다. 새로운 특성의 재료를 생성해 더 강력하고 효율적인 배터리와 태양 전지 개발을 가속화할 수 있는 매터젠(MatterGen)이라는 시스템이다. 과학자들이 새로운 물질을 발견하기 위한 방식에 근본적인 변화를 가져올 거라는 기대가 나온다. 

구글 딥마인드가 지난 2023년 지놈(GNoME)이라는 딥러닝 시스템으로 220만 개의 새로운 결정을 발견하고 그 가운데 38만 개의 안정적인 물질을 발견한 것처럼 신물질 발견에 AI를 활용할 수 있다는 기대가 무르익고 있다.

딥마인드가 그래프 네트워크를 사용한 연구라면 마이크로소프트 연구소는 이미지나 영상 생성에서 사용하는 확산 모델(Diffusion Model)을 사용했다는 게 차이다. 마치 텍스트 입력에서 원하는 이미지를 생성하듯이 주어진 원하는 특성을 갖는 새로운 물질을 생성하는 방법을 썼다. 

발표 논문은 네이처에 올라왔다. 주 저자인 티안 시(Tian Xie)는 이 연구가 물질 디자인을 위한 범용 생성형 모델을 만드는 데 있어 중요한 진전이라고 강조했다. 연구자들은 사례를 입증하기 위해 중국의 선전 첨단기술연구소 연구원들과 협력해 ‘TaCr206’이라는 새로운 물질을 합성했다. 

이 방식은 유연성이 뛰어난데 특정 결정 구조에서 원하는 전자적 또는 자기적 특성에 이르기까지 특정 속성을 가진 물질을 만들어 내도록 미세 조정을 할 수 있다. 이렇게 만든 새로운 소재는 에너지 저장과 반도체 설계 및 탄소 포집 분야의 기술을 발전시키는 데 매우 유용할 수 있다. 

마이크로소프트는 매터젠을 오픈 소스로 공개하고, ‘과학을 위한 AI’라는 이니셔티브로 지원하고 있다. 국내에서도 과학자와 AI 연구자들의 협력을 위한 국가 전략 이니셔티브가 왜 필요한지 보여주는 사례이다. 

3. 오픈AI가 만드는 인간 수명 10년 연장 프로젝트.


오픈AI가 일반 세포를 줄기 세포로 바꿀 수 있는 단백질을 고안하는 언어 모델을 개발했다고 밝혔다. 이 작업은 생물학적 데이터에 초점을 맞춘 오픈AI의 첫 번째 모델인데 이 모델이 예상치 못한 과학적 결과를 제공할 수 있다는 최초의 공개 주장이다. AI가 진정한 발견을 할 수 있는지 여부를 판단하기 위한 한 걸음을 내디뎠다고 볼 수 있다. 

이 연구는 인간 수명을 10년 연장하는 연구를 하는 레트로(Retro) 바이오사이언스와 협력으로 이루어졌다. 레트로는 샘 알트만이 개인적으로 1억8000만 달러를 투자한 회사다. ‘야마나카’ 인자라는 것을 연구하는데, 인간 피부 세포에 첨가하면 젊게 보이는 줄기 세포로 변형되는 단백질 세트로, 신체의 다른 조직을 생성할 수 있는 유형이다. 그러나 세포 재프로그래밍은 그다지 효율적이지 않아서 실험실에서 처리한 세포의 1% 이하만 회춘 여정을 완료했다고 한다.

오픈AI가 발표한 새로운 모델 GPT-4b 마이크로는 단백질 인자를 재설계해서 기능을 증가시키는 방법을 제안하도록 학습했다. 모델의 제안을 사용하여 ‘야마나카’ 인자 가운데 두 가지를 50배 이상 효과적으로 변경할 수 있었다고 한다. 전반적으로 과학자들이 생산하던 것보다 더 나은 것으로 보인다는 것이 연구자들의 의견이다.

그러나 아직 연구 결과를 공개해서 피어 리뷰를 받기 전에는 공식적인 확인이 어렵다. 범용이 아니라 맞춤형 데모일 뿐이라는 한계도 있다. 

이 모델은 딥마인드의 알파폴드와 같은 방식의 모델이 아니라 LLM에 적합한 다른 방식이고 여러 종의 단백질 서열 사례와 어떤 단백질이 서로 상호 작용하는 경향이 있는지에 대한 정보를 바탕으로 학습되어 GPT의 파운데이션 모델을 기반으로 소규모의 전문 데이터로 학습한 소규모 언어 모델이다. 

또 하나의 이슈는 이 과제 협업에 자금이 추가 투입되지는 않았지만 레트로가 샘 알트만이 가장 큰 투자자라는 면에서 오픈AI가 샘의 개인 프로젝트에 이용된다는 비판에서 자유롭지 않다는 점이다. 물론 알트만이 해당 작업에 직접 관여하지 않았다는 것이 오픈AI의 기본 입장이다. 

그러나 중요한 것은 앞의 마이크로소프트 연구소 결과나 딥마인드 연구와 마찬가지로 AI를 과학에 응용하는 사례가 점점 더 늘어날 것이라는 점이다. 

4. “AI 인프라는 국가 안보”, 바이든의 행정 명령이 한국 정부에 주는 시사점.


2025년 1월 20일 오전 8시50분 경 백악관 홈페이지 모습(한국 시각 기준).

지난 주에 전한 AI 기술에 대한 수출 통제 외에도 추가로 행정 명령이 나왔다. 기업들이 연방 부지에 ‘기가 와트 규모’의 AI 데이터 센터를 구축할 수 있도록 허용하고, 이를 위한 청정 에너지 발전을 구축하고, AI 인프라 허가 제도를 개선하겠다는 내용이다. 

발표문 안에는 이런 문구가 있다.

“미국에서 AI 인프라를 구축하는 것은 국가 안보의 필수 과제입니다. AI의 역량이 커짐에 따라 미국인의 안전과 보안에 미치는 영향도 커집니다. 강력한 AI 모델을 훈련하고 운영하기 위한 국내 데이터 센터는 미국이 AI의 안전하고 보안에 기반한한 개발을 촉진하고, 국가 안보에 AI를 활용하며, 적대 세력이 강력한 시스템에 접근하여 군대와 국가 안보를 해치는 것을 방지하는 데 도움이 될 것입니다. 또한 미국이 강력한 AI 도구에 접근하기 위해 다른 국가에 의존하는 것을 방지하는 데 도움이 될 것입니다.”

다시 말해 AI 인프라는 국가 안보 차원에서 고민할 이슈라는 것이다. 단지 기업이나 연구 집단을 지원하기 위한 것이 아니라는 이야기다. 이 지점이 우리 정책과 출발점이 다른 부분이다. 

세부 내용은 다음과 같다.

  • 국방부(DOD)와 에너지부(DOE)가 소유한 연방 부지를 임대해 기가와트 규모의 AI 데이터 센터를 호스팅한다. DOD와 DOE는 민간 부문이 대용량 전송 인프라에 대한 접근성과 지역 사회, 자연 환경 및 상업적 자원에 대한 부정적 영향을 최소화하여 AI 데이터 센터와 청정 전력 시설을 건설할 수 있는 부지를 선택한다.
  • AI 인프라를 지원하기 위한 새로운 청정 에너지 발전의 배치를 촉진한다. 이러한 노력을 지원하기 위해 내무부는 DOE 및 DOD 사이트의 데이터 센터를 지원할 수 있는 청정 에너지에 적합한 토지를 관리하고 지열 프로젝트에 대한 허가 절차를 개선한다. 청정 에너지에는 소형 모듈형 원자로를 포함한다.
  • 연방 사이트에서 AI 인프라에 대한 완전하고 신속한 허가를 우선하도록 한다. 기관은 이 인프라를 적시에 허가하는 데 직원을 우선 전담시킬 것이며, DOD는 향후 사이트별 검토의 속도와 정확성을 개선할 환경 분석을 즉시 수행할 것이다.
  • 연방 시설 주변에서 송전 개발 가속화. 연방 시설에서 AI 인프라의 적시 운영을 보장하기 위해 DOE는 해당 시설 주변 송전선의 업그레이드 및 개발을 건설, 자금 조달, 촉진 및 계획하는 개발자와 협력하기 위한 적절한 조치를 취한다.
  • AI 인프라와 전기 그리드의 상호 연결을 용이하게 한다. DOE는 연방 사이트에서 AI 인프라를 상호 연결하기 위한 요구 사항과 그리드 강화 기술, 운영 변경 및 기타 조치를 통해 상호 연결을 가속화할 수 있는 기회에 대해 유틸리티 기업과 협력할 것이다. 
  • 소비자에게 낮은 전기 가격을 보장한다. AI로 인해 소비자 전기 값이 오르지는 않을 것이라는 얘기다.
  • 동맹국 및 파트너의 AI 인프라 개발을 촉진한다. 국무부는 전 세계적으로 신뢰할 수 있는 AI 인프라를 구축하기 위한 단계에 동맹국 및 파트너를 참여시킬 것이다.

영국과 마찬가지로 미국은 AI 인프라에 대한 투자를 늘리겠다는 계획이다. 이제 AI 인프라는 국가 전략 기반이며 새로운 경쟁력의 원천이 된다는 게 핵심이다.

5. 광범위하고 얕은 지능, 아직 AGI가 멀었다고 보는 이유.


현재 LLM 기반 AI 접근에 가장 비판적인 입장을 갖고 있는 학자가 뉴욕 대학의 게리 마커스 교수다. 얼마 전에 케라스(Keras)와 ARC-AGI의 창시자인 프랑스와 숄레(François Chollet)가 엑스에 다음과 같은 포스팅을 올렸는데 이에 자극을 받아 그의 블로그에 여러 연구자와 학자의 의견을 모아 글을 올렸다.  

“실용적으로는 일반인이 (사전 훈련 없이) 해결할 수 있고 AI 모델로는 실행 불가능한 문제를 더 이상 생각해내기 쉽지 않을 때 AGI에 도달했다고 말할 수 있습니다. 현재로서는 여전히 이러한 문제를 생각해 내기 쉽기 때문에 AGI는 존재하지 않습니다.”

프랑스와 숄레

숄레의 글에 대해 딥마인드에서 AGi 연구를 리드하는 창업자 하나인 셰인 레그는 다음과 같이 답을 했다. 

“저는 적어도 10년 동안 딥마인드에서 이 말을 해왔고, 일반 사람들이 할 수 있는 인지 문제에 관한 것이라는 추가 설명을 했었습니다. 이 기준에 따르면 아직은 거기에 이르지 못했지만, 앞으로 몇 년 안에 거기에 도달할 수 있을 것 같습니다.”

셰인 레그

게리가 셰인의 메시지를 공유하면서 ‘AGI라는 용어를 만들어 낸 사람 중 아무도 우리가 아직 이에 도달했다고 생각하지 않는다’라는 코멘트를 달았더니 AGI 용어 확산에 큰 기여를 한 벤 괴르첼이 다시 의견을 달았다. (셰인 레그와 벤 괴르첼이 AGi에 어떤 기여를 했는 가는 내 책 ‘AGI의 시대’에 잘 나온다).

“그렇습니다. 우리가 2005년에 ‘Artificial General Intelligence’이라는 책을 출판했을 때나 2006년에 첫 번째 AGI 워크숍을 조직했을 때 그리고  2008년에 첫 번째 AGI 컨퍼런스를 개최했을 때 의미했던 의미의 인간 수준의 AGl에 아직 도달하지 못했습니다. 이는 AI 연구 커뮤니티에서 이 용어가 알려지게 된 계기가 되었습니다.

그때 우리가 의미한 것은 전형적인 인간과 유사한 지식과 능력의 일반성을 갖는 것뿐만 아니라(명확히 말해서 o3는 아직 그 수준에 이르지 못했으며, 어떤 면에서는 초인적이고 다른 면에서는 심하게 인간 이하입니다), 경험으로부터 매우 다른 상황에 대해해 일반화할 수 있는 인간과 같은 능력을 갖는 것입니다… 제가 본 LLM 중심 시스템은 이것에 근접하지도 못했습니다. …

벤 괴르첼

마커스 교수는 지금 우리가 겪는 혼란은 AGI라는 용어 정의의 문제고 그렇다면 지금 우리가 보는 지능은 무엇일까 하는 질문을 던진다. 2022년 그가 내린 AGI 정의는 ‘모든 지능을 간단히 말한 것이며, 유연하고 일반적이며 인간 지능과 동등하거나 그 이상의 수완과 신뢰성을 갖춘 지능’이라고 했다. 이런 개념에서 LLM은 그 신뢰성 문제 때문에 특히 새로운 상황에서 대처하는 신뢰성 문제로 AGI라고 부를 수 없다는 것이다.

우리가 봤듯이 생성형 AI의 대답은 많은 경우 피상적이다. 존재하지 않은 것을 만들어 내거나 자주 어리석은 실수를 한다. LLM은 여전히 사람이 참여해야 하고 뭔가가 빠져 있다. 

광범위하지만 얕은 AI가 안전할 것이라고 보장할 수 없고, 인간 친화적라고 보장할 수 없으며, 우리가 요구하는 것을 할 것이라고 보장할 수 없다. 그런 의미에서 지금 LLM 기반의 지능을 ‘광범위하고 얕은 지능’이라고 부르겠다는 것이 마커스의 제안이다. 그가 이번 글에서 강조하는 것은 ‘광범위하지만 얕은 AI를 넘어, 새롭고 더 안전하고 신뢰할 수 있는 시스템으로 전환하는 것은 인류에게 주요 연구 우선순위가 되어야 한다’는 점이다.

게리 마커스는 X에서 활동이 많지만 그의 핵심 글은 그가 발행하는 블로그를 보는 것이 더 좋다. 가입하면 뉴스레터를 메일로 받아볼 수 있다. 

그 밖의 소식

  • NIST는 이중 사용 파운데이션 모델의 오용 위험 완화를 위한 개정된 지침을 발표했다. “화학 및 생물학적 오용 위험”과 “사이버 보안 오용 위험”에 대한 새로운 부록과 함께 가장 주목할 만한 변경 사항은 아마도 “예시적 보호 조치” 섹션에 대한 조정이다. 개발자에게 “단계적으로 모델을 릴리스”하고 “가중치(웨이트)를 제공하기 전에 API를 통해 모델을 배포하여 영향을 파악하는 것을 고려”할 것을 제안했으며, 이전 지침에서 모델에 상당한 오용 위험이 있는 것으로 밝혀지면 “모델을 전혀 개발하지 않는 것”이 ​​”적절할 수 있다”고 제안한 반면, 새 버전에서는 그 의미가 “모델 개발을 지연하는 것”으로 완화했다.
  • UC 버클리 대학의 SKY 연구실에서 나온 노바스카이라는 팀이 오픈AI o1의 초기 버전 수준의 모델 Sky-T1-32B-프리뷰를 발표했다. 발표 문에 보면 단지 450달러 이하의 비용으로 학습했음에도 MATH500이나 LiveCodeBench에서 o1과 경쟁할 수준을 보였다고 한다. 이 팀은 알리바바의 QwQ-32B-프리뷰를 사용해 Sky-T1의 초기 학습 데이터를 생성한 다음, 데이터 혼합을 ‘큐레이션’하고 오픈AI의 GPT-4o-미니를 활용해 데이터를 보다 작업하기 쉬운 형식으로 리팩터링했다고 하며, 320억 개의 파라미터로 구성된 Sky-T1을 훈련하는 데는 8개의 엔비디아 H100 GPU 랙을 사용하여 약 19시간이 걸렸다고 한다. 중요한 것은 여전히 파라미터 사이즈가 커야 하고, 데이터 혼합이 중요하다는 점이다. 또 한가지 놓치지 말아야 하는 점은 알리바바의 모델을 학습하는데 들어간 비용을 여기에서 언급하지 않았다는 점이다.
  • 영국 총리가 파이낸셜 타임즈에 기고한 글에서 AI 규제에 대한 자신의 비전을 밝혔다. 그는 영국이 미국이나 EU의 길이 아닌 과학에 근거한 영국적 접근 방식을 취할 것이라고 했다. 
  • 팔란티어와 록히드 마틴이 드론 전문 AI 기업인 쉴드 AI에 수억 달러를 투자할 계획이라고 한다. 기업 가치는 50억 달러로 평가하고 있다. 

관련 글

2 댓글

댓글이 닫혔습니다.