[AI in a Week by TechFrontier] 한 주일의 주요 AI 뉴스, 논문, 칼럼을 ‘테크프론티어’ 한상기 박사가 리뷰합니다. (⏰15분)
한 주 내내 딥시크에 대한 많은 기사가 쏟아졌다. 미국과 중국의 새로운 경쟁의 입장에서 파악하거나 실제 성능을 분석하거나 문제점을 제시하는 기사들도 많았다. 여러 기업이나 연구 기관에서 새로운 모델을 발표하면서 모두 딥시크와 성능을 비교하는 일도 눈에 띄었다. 또한 몇몇 중요한 연구 보고서를 발표한 한 주이기도 했는데 우리나라에서 나온 눈에 띄는 결과는 거의 없었다. 정치인들은 대책 회의만 했고 대응 방안을 모색했으나 다들 이해도가 낮아서 공부하는 분위기로 보였다.
1. 딥시크와 수출 통제
딥시크에 관해 많은 글이 쏟아졌지만, 앤스로픽의 다리오 아모데이가 쓴 글이 가장 잘 정리된 것 같아서 소개한다. 가끔 올리는 그의 글은 매우 깊이도 있고 생각을 많이 하게 한다. 이 글은 딥시크가 앤스로픽에 위협이 되는가 같은 얘기보다는 ‘수출 통제’가 왜 더 필요한지에 초점을 맞추었지만, 그런 주장을 위한 근거로 현재 AI 기술과 개발 상황을 잘 정리했다.
AI 개발에는 세 가지 역동성이 있다.
- 스케일링 법칙
- 곡선 이동
- 패러다임 전환
스케일링은 학습을 확장하면 전반적으로 인지 과정에서 더 나은 결과를 보인다는 것이고 2020년 오픈AI 시절 논문에서 보여줬다. (비용) 곡선 이동은 혁신에 의해 모델의 품질을 일정하게 유지하면서 가격이 크게 하락하는 현상으로 2020년에 연간 1.68배에서 지금은 4배 정도로 빨라지는데 GPT-4보다 15개월 늦게 출시한 클로드 3.5 소넷은 API 가격이 10배 낮아졌다.
패러다임 변화는 확장의 기본 요소가 바뀌거나 새로운 유형의 확장이 발견되는 경우인데 2024년에 강화학습(RL)을 사용해 생각의 사슬을 생성하는 모델이 확장 방식의 초점이 되었다. 그러나 그는 우리가 아직도 이런 확장 법칙의 초기에 있다고 생각한다. 즉 앞으로도 얼마든지 새로운 아이디어와 혁신이 가능하다는 것이다.
딥시크에 대해서는 일단 V3는 순수한 사전 학습 모델이고 R1은 두 번째 단계이기 때문에 둘을 구별해야 한다는 점을 얘기하면 좀 더 일찍 주목했어야 한다고 고백했다. 그렇지만 주로 엔지니어링 효율성에 초점을 맞춘 몇 가지 순수하고 인상적인 혁신이며 이전보다 발전시킨 혁신적인 개선이 있었다고 평가했다.

그러나 정확히 알아야 할 점을 몇 가지 얘기했다.
- 미국 회사들이 수십억 달러 들여서 한 것을 6백만 달러에 한 것은 아니다. 클로드 3.5 소넷은 수천만 달러가 든 중형 모델인데 이것도 더 큰 모델이나 더 비싼 모델에 들인 방식으로 학습하지 않았다. 더군다나 클로드 3.5 소넷의 학습은 9개월에서 12개월 전에 진행한 것이고 딥시크는 지난 11월~12월에 진행한 것이라면 딥시크가 훨씬 적은 비용으로 7-10개월 전의 미국 모델의 성능에 근접한 것이고 이는 앞에서 말한 곡선 이동 비율에 근접한 것은 아니다.
- 비용 곡선 감소가 최근 기준으로 4배라고 하면 딥시크 V3 모델의 학습 비용 감소가 추세에 맞는 것으로 딥시크-V3가 독특한 혁신이 아니며 LLM의 경제를 근본적으로 바꾸는 것이 아니라는 것을 의미한다. 의미 있는 점은 예상할 수 있는 비용 절감을 처음으로 입증한 회사라는 것이다.
- 딥시크나 미국 AI 회사 모두 헤드라인 모델을 학습하는 데 사용했던 것보다 훨씬 더 많은 돈과 훨씬 더 많은 칩을 보유하고 있다 (이 점은 여러 전문가들이 다들 지적하고 있다). 딥시크가 실제로는 5만 대의 엔비디아 호퍼 세대 수준의 칩을 보유하고 있다고 들었다. 이는 약 10억 달러에 달하는 것이고 총 지출로 보면 미국 AI 연구실과 크게 다르지 않다.
- R1은 혁신이나 엔지니어링 관점에서 V3보다 훨씬 흥미롭지 않다. 기본적으로 오픈AI가 o1에서 한 방식을 따른 것으로 보이며 강력한 사전 학습 모델로 시작하는 이 방식은 여러 회사가 따라 할 수 있을 것이다. V3를 기반으로 하는 R1을 만드는 비용은 아마 저렴했을 것이다.
이런 이해를 바탕으로 다리오 아모데이는 수출 통제의 중요성에 대해 다시 언급했다. 그는 주어진 수준의 모델 인텔리전스를 학습하는 비용은 점점 줄어들지만 앞으로 만들 최첨단 모델을 위한 비용은 여전히 수십억 달러가 들 것이라고 하면서, 2026~2027년에 실현 가능하다고 보는 인간을 넘어서는 AI 개발에는 수백만 개의 칩과 최소 수십억 달러가 들어갈 것이라고 본다. 딥시크로 이런 요구가 변경되지 않을 것인데 비용 절감 곡선에 거의 근접한 것이기 때문이다.

미국의 여러 회사는 분명히 수백만 개의 칩을 보유하게 될 것이지만 중국이 그럴 수 있을 지는 모른다. 만일 그렇게 된다면 양극화된 세상에 살 것인데, 그렇다면 중국이 집중할 수 있는 자본, 인력, 기술을 군사적으로 이용할 가능성이 높다. 이런 위험을 생각한다면 엄격한 수출 통제를 통해 중국이 수백만 개의 칩을 보유하지 못하게 해야 한다는 것이 그의 주장이다.
딥시크 이슈가 수출 통제가 실패했다는 것을 의미하는 것은 아니라는 주장인데 수출 통제가 단지 몇 만개를 막고자 한 것이 아니라 수백만 개를 제어하고자 하는 것이라고 봐야 한다는 것이다. 또한, 수출 통제가 그들이 “혁신”하게 만든 것이 아니라 “그들은 단순히 매우 재능 있는 엔지니어이며 중국이 왜 미국의 심각한 경쟁자인지를 보여주는 것이다”라고 평가했다.
다리오가 언급한 5만 개의 호퍼급 칩은 세미어낼리시스(SemiAnalysis) 자료에 의한 것인데 H100, H800, H20 세 종류를 포함한 숫자이다. 특히 여기에서 H100은 출시하자마자 통제된 것이기 때문에 딥시크가 H100을 갖고 있다면 이는 밀수에 의한 것으로 볼 수밖에 없다.
다리오는 딥시크 자체를 적대자로 보는 것은 아니지만 중국 정부가 갖고 있는 잠재적 위험성과 영향력을 생각할 때 중국이 AI에서 미국과 같은 수준으로 되는 것은 막아야 한다는 입장이다.
딥시크와 관련한 추가 정보로는 다음과 같은 것이 있다.
- 다리오의 이 메모 외에 좀 더 신랄하게 기반 기술이 완전 새로운 것이 아니라고 한 트윗도 눈에 띄었는데, 독일 출신의 컴퓨터 과학자 유르겐 슈미트후버가 올린 아랫글이다. 한 마디로 이미 학계에서는 다 이미 알고 있는 기술을 잘 활용했다는 것이다.

- Enkrypt는 딥시크 R1에 대한 레드팀 테스팅 보고서를 냈다. 결론은 “DeepSeek의 기술에 심각한 윤리적 및 보안적 결함이 발견되었다. 분석 결과, 이 모델은 매우 편향되어 안전하지 않은 코드를 생성하고 증오 표현, 위협, 자해 및 노골적 또는 범죄적 자료를 포함한 유해하고 독성이 있는 콘텐츠를 생성할 가능성이 높은 것으로 나타났다. 또한 이 모델은 조작에 취약하여 화학, 생물학 및 사이버 보안 무기를 만드는 데 도움이 되어 심각한 글로벌 보안 문제를 야기하는 것으로 나타났다.” 한마디로 매우 위험한 수준의 안전 취약성이 있다는 것이다.
- Claude-3 Opus보다 3배 더 편향적이다 .
- OpenAI의 o1보다 안전하지 않은 코드를 생성할 가능성이 4배 더 높다 .
- GPT-4o보다 4배 더 독성이 강하다.
- OpenAI의 o1에 비해 유해한 출력을 생성할 가능성이 11배 더 높습니다 .
- OpenAI의 o1 및 Claude-3 Opus보다 화학, 생물, 방사선, 핵(CBRN) 콘텐츠를 생성할 가능성이 3.5배 더 높다.
- 이탈리아 데이터 보호청 가란테(Garante)는 딥시크가 이탈리아 개인정보 보호에 대한 우려 사항이 있기 때문에 사용을 차단했다. 가란테는 개인 데이터 사용, 특히 정보 수집에 대해 질문했는데, 어떤 개인 데이터를 어떤 출처에서, 어떤 목적으로, 어떤 법적 근거에 따라 수집하는지, 그리고 중국에 저장되는지 여부에 대한 정보이다. 그러나 회사가 제공한 정보가 완전히 불충분하다고 판단해 즉각적인 차단을 명령했다. 아일랜드와 프랑스 데이터 규제 기관도 조사 중이다.
2. 쏟아져 나온 새로운 모델들
지난주는 각 회사나 연구소가 약속이라도 한 듯 새로운 모델을 쏟아 냈다. 어쩌면 딥시크 발표가 그들을 자극했는지는 모르지만 (우리에게도 그 정도는 있다는) 하여튼 정신없는 발표의 연속이었다. 기사 소스는 각 발표 내용에서 제시하겠다.
- 알리바바는 Qwen 2.5 Max를 발표했는데 이 모델의 성능이 딥시크 V3를 능가한다고 강조했다 (로이터, 1월 30일). 상세 내용은 깃허브에 공개했다. 기본적으로 20조 개 이상의 토큰으로 사전 학습하고 선별된 감독 미세 조정(SFT) 및 인간 피드백을 통한 강화 학습(RLHF) 방법론으로 추가 사후 학습한 대규모 MoE 모델이다. 주요 벤치마크 비교는 아래 그림과 같으며 맥스 모델은 Qwen Chat을 통해서 사용할 수 있다. Qwen의 API는 오픈AI API와 호환된다.

- 오픈AI는 OpenAI o3-mini를 발표했다(OpenAI, 1월 31일). 최신 추론 시리즈이자 비용 효율적인 모델로 2024년 12월에 프리뷰를 선보였다. 소규모 모델이 달성할 수 있는 경계를 확장하여 과학, 수학 및 코딩에 특히 강점이 있는 뛰어난 STEM 기능을 제공하면서도 낮은 비용과 단축된 대기 시간을 유지한다.
ChatGPT와 API에서 사용할 수 있으며, 세 가지 추론 방식(낮음, 중간, 높음)을 옵션으로 제공하기 때문에 복잡한 과제를 해결할 때 “더 열심히 생각”하거나 지연이 문제가 될 때 속도를 우선시할 수 있다. 또한 검색과 함께 작동하여 관련 웹 소스에 대한 링크가 있는 최신 답변을 구할 수 있다. 박사 수준의 문제인 GPQA Diamond 벤치마크에 대한 성능은 아래와 같다. 발표 자료에는 다양한 벤치마크와 잠재적 위험을 제어하기 위한 완화책들에 대한 설명이 있다.

흥미로운 점은 지난주에 소개한 인류의 마지막 문제(Humanity’s Last Exam) 벤치마크 결과인데, o3-미니가 처음으로 10%대를 기록했다.

- 프랑스의 미스트랄 AI는 240억 개의 매개변수를 탑재한 오픈소스 모델, ‘Mistral Small 3’를 발표했다(1월 30일). 이번 모델은 지연 시간을 최적화한 구조로 설계되어 빠른 응답이 필요한 생성형 AI 작업에 최적화되었으며, 특히 유럽의 주요 언어뿐만 아니라 한국어와 일본어까지 지원한다. 성능 면에서도 라마 3.3 70B, Qwen 32B와 같은 대형 모델과 비교해도 경쟁력 있는 결과를 보이며, 동일한 하드웨어 환경에서 최대 3배 이상의 속도로 작동해 효율성을 극대화한 점이 주목할 만하다. 아파치 2.0 라이선스로 공개되어 개발자와 연구자들이 자유롭게 활용하고 커스터마이징할 수 있다.

- 1월 30일에 미국의 알렌 AI 연구소 (Ai2)는 툴루(Tülu) 3 405B를 소개했는데, 틀루 3 405B는 딥시크 V3와 GPT-4o에 비해 경쟁력 있거나 더 우수한 성능을 달성하는 동시에, 많은 표준 벤치마크에서 라마 3.1 405B Instruct와 Nous Hermes 3 405B를 포함한 동일한 크기의 이전 오픈 가중치 사후 학습 모델을 능가한다고 밝혔다. Ai2는 검증 가능한 보상(RLVR) 프레임워크를 통한 강화 학습이 딥시크-R1 보고서의 결과와 유사하게 이전 70B 및 8B에 비해 더 큰 규모인 405B에서 MATH 성능을 더 크게 개선했다는 것을 발견했다.
3. AI를 위한 ‘CERN’ 구상
개인적으로 유럽입자물리연구소(CERN)와 같은 AI 연구 센터를 인류를 위해 만들자고 늘 주장했는데, 브뤼셀에 있는 CFG가 관련 보고서를 발행했다. CFG는 스티브 슈만과 로렌스 드 그룻이 2021년에 아이디어를 내서 2022년에 로테르담에 설립한 독립적인 싱크탱크이며 2023년에 브뤼셀에 본부를 열었다.
이 청사진은 유럽의 AI 주도권 확보를 위한 대담한 제안이지만, 성공을 위해서는 각국(회원국)의 정치적 의지 및 다각적 협력이 필수적이다. EU의 의사 결정 속도로 봐서는 추진이 되더라도 시간이 꽤 걸릴 수 있다.
아래는 이 보고서를 설명한 아주대 이원태 교수의 요약이다.
미국, 중국의 대규모 AI투자에 따른 AI경쟁력 격차를 해소하고 유럽의 AI 글로벌 경쟁력을 획기적으로 끌어올리기 위한 정책의 일환으로 폰데어라이엔(von der Leyen) EU집행위원장이 제안해서 마련된 “CERN for AI”라는 AI전략 보고서이다.
작년에 작성한 이른바 마리오 드라기(전 유럽중앙은행 총재) 보고서인 “EU 기술 경쟁력 보고서”(2024)도 참고해서, EU의 AI경쟁력 강화를 위한 “CERN for AI”의 비전을 구체적으로 실행하려는 제도 청사진을 제시하고 있다. 특히 유럽이 인공지능(AI) 분야에서 주도권을 확보하기 위해 ‘CERN for AI’라는 대규모 협력 기관을 설립, 운영하기 구체적인 방안들을 제시하고 있다. 입자물리학 연구로 유명한 CERN의 모델을 차용해, 신뢰할 수 있는 범용 AI 개발 및 유럽의 경제·안보 강화를 실현하겠다는 것이다.
배경 및 필요성
- 유럽은 AI 규제에서는 선도적이지만, AI기술 개발 및 산업화에서 미국·중국에 뒤처짐. AI산업화의 실패는 경제적 기회 상실과 디지털 주권 위기로 이어질 수 있음.
- 해결 방안: 분산된 투자와 인재 부족을 해결하기 위해 집중된 연구 인프라와 대담한 공공 투자가 필요. 이를 위해 최고의 인재들을 모아 세계적 수준의 자원 및 연구 자율성을 제공(연구에만 집중할 수 있는 협업환경 제공). CERN for AI는 ‘유럽식 ARPA’ 모델로 고위험·고수익 연구를 추진.
핵심 전략
- 미션: 신뢰할 수 있는 범용 AI 개발 + 사회적 문제 해결을 위한 AI 적용. 신뢰할 수 있는 AI 시스템 구축이라는 도전과제에 집중할 수 있도록 과감하게 지원.
- 4대 연구 분야
- 기초 연구: AI 해석 가능성, 안정성, 신뢰성 강화.
- 확장 연구: 대규모 데이터와 컴퓨팅 자원을 활용한 모델 개발.
- 응용 연구: 의료, 기후, 사이버 보안 등 사회적 문제 해결.
- 하드웨어 혁신: 에너지 효율적 AI 칩 및 보안 강화 기술 개발.
조직운영 방식:
- 하이브리드 연구 구조 지향. 즉 ARPA식 분산 연구(외부 협력) + 집중형 인하우스 팀(보안·민감 분야) 결합.
거버넌스 및 회원 정책
- 투명성·책임성 원칙: 회원국 대표 이사회가 전략적 결정, 전문가 자문단이 운영 감독. 공개적 진행 보고와 위험 평가체계 강화.
- 회원국 확장: 계층적 회원제로 운영하되, EU 회원국 외에 영국·스위스·캐나다 등 신뢰할 수 있는 비EU 국가를 창립 회원으로 포함.
- 보안 등급에 따라 기술 접근 권한 차등 부여.
자금 조달 및 법적 기반
- 초기 자금: 3년간 300~350억 유로(한화로 약 52조 9천5백억원) (EU·회원국 정부·민간 파트너 협력).
- 지속적 자원 제공: AI모델 라이선싱, 컴퓨팅 자원 임대, 민간 프로그램 협력 지원.
- 법적 구조: EU 기능 조약(Treaty on the Functioning of the European Union, TFEU) 제187조의 합작기업(JU) 모델 채택. 신속한 설계와 유연한 운영 가능.
결론 및 전망
- 시급성: 글로벌 AI 경쟁에서 유럽의 기회 창출을 위해 신속한 실행 필요.
- 과제: 관료주의 극복, 회원국 간 이해관계 조율, 자금 조달 확보.
- 비전: CERN for AI는 단순 연구 기관을 넘어 유럽 기술 생태계의 ‘온실’ 역할로, 장기적 혁신을 견인할 것.
4. 국제 AI 안전 보고서 최종본 발간
몬트리올 대학의 요수아 벤지오 교수가 의장이 되어 전 세계 30개국과 UN, EU, OECD 등 국제 기구의 전문가 100여명이 참여해서 만든 ‘국제 AI 안전 보고서(International AI Safety Report): 첨단 AI 안전에 대한 국제 과학 보고서’가 나왔다. 2024년 5월에 중간 보고서를 냈으며 이번에 최종 보고서가 나온 것이다.

ETRI의 전종홍 책임이 이 보고서의 주요 내용을 요약해 페이스북에 포스팅을 했기 때문에 그 내용을 요약했다.
- 전 세계 사람들이 AI의 많은 잠재적 이점을 안전하게 누리기 위해서는 AI의 위험을 적절하게 관리해야 한다. 이 보고서는 이러한 위험을 식별하고 위험을 완화하는 방법을 평가하는 데 중점을 두는데, AI의 많은 잠재적 이점을 포함하여 AI가 사회에 미칠 수 있는 모든 영향을 종합적으로 평가하는 것을 목표로 하지는 않는다.
- 이 보고서의 초점은 범용 인공지능(GPAI)으로, 다양한 작업을 수행할 수 있는 인공지능에 초점을 맞추고 있다. 이 보고서의 분석은 작성 당시 가장 발전된 범용 인공지능 시스템과 더 발전할 가능성이 있는 미래의 시스템에 초점을 맞추고 있다.
- 세 가지 핵심 질문에 대한 과학적 증거를 요약한다: 범용 AI는 무엇을 할 수 있는가? 범용 AI와 관련된 위험은 무엇인가? 그리고 이러한 위험을 완화하기 위한 기술은 무엇인가?
- 범용 AI의 여러 가지 피해는 이미 잘 알려져 있다. 여기에는 사기, 비동의적 친밀한 이미지(NCII), 아동 성학대 자료(CSAM), 특정 집단이나 특정 의견에 대해 편향된 모델 결과, 신뢰성 문제, 개인 정보 침해 등이 포함된다. 연구자들은 이러한 문제에 대한 완화 기술을 개발해 왔지만, 지금까지는 어떤 기술 조합으로도 이를 완전히 해결할 수 없었다. 중간 보고서가 발표된 이후, 범용 AI 시스템과 관련된 차별에 대한 새로운 증거가 더 미묘한 형태의 편견이 드러났다.
- 범용 AI의 능력이 향상됨에 따라 추가적인 위험에 대한 증거가 점차 나타나고 있다. 여기에는 대규모 노동 시장 영향, AI를 이용한 해킹 또는 생물학적 공격, 범용 AI에 대한 통제력 상실과 같은 위험을 포함한다. 전문가들은 이러한 위험에 대한 기존 증거를 다르게 해석하는데, 어떤 사람들은 이러한 위험이 수십 년 후에 발생할 것이라고 생각하는 반면, 다른 사람들은 범용 AI가 향후 몇 년 내에 사회 규모에 피해를 줄 수 있다고 생각한다. 최근 범용 AI 기능의 발전(특히 과학적 추론과 프로그래밍 테스트)은 AI를 이용한 해킹과 생물학적 공격과 같은 잠재적 위험에 대한 새로운 증거를 만들어 냈고, 이로 인해 한 주요 AI 회사는 생물학적 위험에 대한 평가를 최고 모델의 ‘낮음’에서 ‘중간’으로 상향 조정했다.
용어 설명과 참고문헌을 제외하면 215페이지에 달하는 이 보고서는 AI 안전을 위한 연구를 하는 사람에게는 중요한 가이드라인이 될 것이다. 우리나라에 새로 설립한 AI 안전연구소에서 번역본을 제대로 만들어 배포했으면 좋겠다.
5. 미국 국가 AI 자문위원회, 트럼프 행정부에 AI 10대 추천 보고서 초안 제안
미국 국가 AI 자문위원회(NAIAC, National AI Advisory Committee)가 트럼프 행정부에 제안한 AI 10대 추천 보고서 초안을 공개했다. 이 위원회는 트럼프 1기 때 만들어진 것인데, 2기 시작과 동시에 AI 집중 분야를 정리해 놓은 것이다.
NAIAC는 2019년 12월 20일 트럼프 대통령이 승인한 2020년 국가 AI 이니셔티브 법안의 제5104조에 의해 설립한 것으로 대통령과 백악관에 자문을 하는 기구이다. NAIAC 위원들은 (1) 미국의 경쟁력과 리더십을 강화하는 공동의 AI 정책 목표를 진전시키기 위해 행정부가 취할 수 있는 단기 실행 가능한 조치를 개괄하고, (2) 위원회의 사명과 목적에 따라 행정부의 AI 리더십과 지속적인 대화를 시작한다는 두 가지 목적으로 차기 트럼프 행정부를 위해 이 초기 보고서를 준비했다고 설명하고 있다.
10대 AI 중점 분야는 아래와 같다.
- AI와 노동력
- AI 리터러시
- 교육을 위한 AI
- 과학을 위한 AI
- 건강을 위한 AI
- 정부를 위한 AI
- SME (중소기업, 상공인) 및 비영기리관을 위한 AI
- AI 거버넌스
- 미국 시민들을 위한 AI
- 법 집행을 위한 AI
각 집중 분야별 1-2개의 현재 이슈와 이를 위한 1-2가지의 솔루션들이 명기되어 있다. 예를 들어 1번에 대해서는 “인력 문제에 대한 연방, 주, 지방의 협력을 조정하고 첫 해 안에 AI와 미국의 번영에 관한 정부 간 서밋을 개최한다.” “AI 기술로 인해 일자리를 잃었거나 잃을 위험에 처한 사람들을 위한 인력 개발 및 근로자 지원 노력을 간소화하기 위한 기관 간 전략을 추진한다.” 와 같은 솔루션을 제시한다.

보고서에서는 미국의 경쟁력과 혁신 촉진, 정부 역량과 AI 이해력 향상, 국가적 우선순위 추진, 공공-민간 파트너십 활용, AI 거버넌스 분야에서 미국의 리더십 강화라는 다섯 가지 범분야적 우선순위도 설명한다.
이 보고서는 여러 가지 구체적인 권장 사항을 제공하는데, 그 중 하나는 미국 전역에서 AI에 대한 기본적인 이해를 증진하기 위한 국가적 캠페인을 시작하자는 것이다. 이 AI 리터러시 캠페인은 모든 미국인을 위한 학습 자료와 프로그램을 제공할 것이다. 또 다른 주목할 만한 권장 사항은 조달청(GSA) 연방 위험 및 승인 관리 프로그램(FedRAMP)의 “성공을 기반으로 하는” AI 모델 평가, 테스트 및 평가 프레임워크를 구축하는 것이다.
기타 권장 사항으로는 AI 활용 사례와 모범 사례 저장소를 만들고, 정부 간 AI 정상회담을 개최하고, 국가 AI 이니셔티브 사무소에 충분한 인력과 자원을 제공하고, AI 자금 조달 전략을 개발하는 것이 있다.
아직은 초안 상태이기 때문에 앞으로 최종안이 나오겠지만 일단 트럼프 행정부도 AI가 갖는 사회 전반의 이슈에 대해 빠르게 대처 방안을 만들겠다는 의지를 보인다.
그 밖의 소식들
- 바티칸이 “Antigua et Nova(옛것과 새 것)”이라는 문서를 발행해 AI의 위험을 경고했다. 흔히 말하는 위험을 넘어서 이 기술이 갖고 있는 ‘악의 그림자’를 지적하고 인간의 지능과 기계의 지능이 같을 수 없음을 신앙적으로 주장했다. 이 보고서는 바티칸의 AI 전문가가 6개월 동안 작업한 결과라고 한다. 바티칸은 2020년에도 AI가 갖고 있는 윤리 문제를 지적한 문서를 발표한 적이 있는데 바티칸이 기술 영역에 대해 언급을 한 것은 핵무기와 기후 변화에 대한 것만 있을 정도로 AI가 인류에 갖는 의미를 심각하게 생각한다는 것이다. 매우 깊이 있는 사유를 담은 글이기 때문에 신자가 아니더라도 읽어 보기를 권한다. 최승준 님이 번역해서 구글 문서에 올려놓는 버전이 있다.

- 오픈AI의 ChatGPT 유료 가입자가 2023년 580만에서 2024년 1,550만 명으로 세 배 증가했다. 이는 연간 기반으로 40억 달러의 매출, 월 3억3천3백만 달러의 매출 규모이다.
- 딥시크의 대답은 중국 정부의 프로파간다가 포함되어 있다는 뉴스가드 연구원의 발표(NYT, 1월 31일).
- 소프트뱅크는 오픈AI에 250억 달러 정도 투자하고자 협의 중이다(NYT, 1월 30일).
- 미국 저작권청은 사람이 기여하거나 편집한 AI 콘텐츠가 저작권 보호 대상이 된다고 밝혔다(벤처비트, 1월 29일). 발표한 문서에 따르면 다음과 같은 경우이다.
- 인간이 작성한 콘텐츠가 AI의 출력에 통합되는 경우
- 인간이 AI가 생성한 자료를 크게 수정하거나 배열하는 경우
- 인간의 기여가 충분히 표현적이고 창의적일 때
중국과 디커풀링하자는 주장인데 중국은 손바닥 만한 한국시장에 큰관심이 없어! 모든 국제관계는 서로하는 거야! 서로 잘지낼수도 서로 악감을 가지고 관계악화로 갈수도 있지! 한국이 어떻게 하냐에 따라 한중관계가 어느 방향으로 갈건지 결정되지! 당신들이 BYD를 오물투적을 하는 거는 한국차를 보호하려는 걸로 이해되지만 딥스크는 왜 공격하지? 중국이 이런 행동에 분개않할수 있겠나? 나중에 한국은
엄청난 대가를 치르게 돼있지! 중국은 한국에 필요한 시장이야! 소상공인들이 큰고객을 왜 깍듯이 대하나 계속 자기물건을 팔기위해 돈을 더많이 벌기위함이 아닌가? 앞으로 미국이 제일시장이 되겠지만 그래도 두번째 시장자리는 누구도 대체 못할건데 제1시장만 믿고 제2시장은 고의적으로 버리겠다는 건가? 유치하지 않는가?
깜짝 놀랐습니다. 최근에 읽은 AI 관련 아티클 중 가장 양질의 정보였습니다. 최고입니다. 정말 감사합니다.