[AI in a Week by TechFrontier] 한 주일의 주요 AI 뉴스, 논문, 칼럼을 ‘테크프론티어’ 한상기 박사가 리뷰합니다. (⏰15분)
스탠퍼드 인간 중심 AI 연구소가 딥시크 인력 데이터를 분석했다. 중국 AI 인재 구성의 특성을 미국과 비교하면서 미국 AI 인재 정책을 재고해야 한다는 내용이다. 많은 이들이 이 보고서를 공유했다. 한편, 영국의 AI 보안연구소는 지금까지 해온 주요 연구와 앞으로 연구소의 방향성을 담은 보고서를 공개했다. 우리나라 AI 안전연구소는 그냥 이 보고서를 ‘모범 답안’으로 삼아 우리 입장에서 세부 사항들을 채워나가면 될 듯하다.
싱가포르에서 열린 AI 학회에 모인 11개국 100명 이상의 연구자가 지난 1월에 나온 국제 AI 안전 보고서를 기반으로 향후 연구 우선순위를 발표했다. 마지막 주요 소식은 미국 저작권청이 내놓은 AI와 저작권에 관한 보고서다. 아직 최종판은 아니지만, 상용 생성형 AI가 과연 ‘공정이용’으로 인정받을 수 있을 것인가라는 아주 민감한 주제에 대해 어느 정도 대답했다. 대량 생성, 원저작물과 경쟁, 불법적 접근의 경우는 공정 이용이라고 볼 수 없다는 것이다.
그 밖의 소식에서는 마지막 두 개의 기사를 권한다. 하나는 물리적 튜링 테스트를 제안한 엔비디아고, 나머지 하나는 인간이 더는 의미가 없다면 어떻게 할 것이냐는 토론토 대학 교수의 칼럼이다.
1. 딥시크 AI 인재 기반의 정책적 함의
스탠포드 대학 인간 중심 AI 연구소가 ‘기술 정책 액셀러레이터’, ‘후버 연구소’와 협업으로 만든 짧은 보고서다. 딥시크에서 발표한 5개의 기술 연구 논문에 나타난 223명의 저자에 대한 데이터를 분석해서 그 패턴을 통해 중국 AI 인재에 대한 특성을 파악하고 이에 따른 미국 AI 인재 확보를 위한 정책 조언을 담고 있다.
보고서는 연구 결과, 인용 횟수, 기관 소속에 대한 정보가 포함되어 있어 주목할 만한 인재 패턴을 파악했다. 연구팀은 OpenAlex 연구 카탈로그 데이터를 활용하여 저자들의 출판 기록, 인용 지표, 소속 기관 정보 (1989년부터) 및 해당 기관의 지리적 위치, 조직 유형, 연구 결과 지표 등을 수집/분석하고 각 연구원의 전체 소속 기관 이력을 매핑하여 국경 간 이동 패턴을 파악했다고 한다.

이를 통해 알아낸 것은 딥시크 연구원 거의 대부분이 중국에서 교육이나 훈련을 받았으며, 절반 이상은 학업이나 취업을 위해 중국을 떠난 적이 없다는 것을 파악했다. 불과 4분의 1 정도가 미국에서 경험을 쌓은 인재인데 그들 대부분은 중국에서 AI 개발을 위해 귀국했다고 한다.
논문 저자들 중 89%는 최소 1번 이상 중국의 연구 기관에 속했고, 그 중심에는 중국과학원이 있는데, 논문 저자 211명 중 53명은 중국과학원 또는 그 산하 명문 대학에 소속된 기관들과 관련이 있으며, 이 기관들은 인공지능 혁신의 비옥한 환경이 되고 있다.
이러한 인재 패턴은 수출 통제와 컴퓨팅 투자만으로는 해결할 수 없는, 미국 기술 리더십에 대한 심각한 도전으로 인식해야 한다는 것을 의미한다. 딥시크의 성공은 하드웨어나 알고리듬뿐 아니라 인적 자원이 지정학에서 중요한 역할을 하며 미국의 인재 우위가 약화되고 있음을 보여주는 조기 경고 신호로 작용해야 한다고 주장한다.
이들이 발견한 것은 미국 교육기관이나 연구소가 중국 인재 양성을 위한 인큐베이터 역할을 한다는 것이고, 연구원 중 49명은 한 때 미국 기관에 소속되어 있었으며, 9명은 2-4년동안, 또 다른 9명은 5년 이상 미국에 있었다고 한다. 아래 그림은 이들이 소속되었던 기관의 위치이다.

연구 결과에서 파악한 주요 특징은 먼저 5개 논문 모두에 기여자로 등재된 31명의 핵심 연구팀이 존재한다는 것이다. 두 번째는 경험 많은 연구팀의 존재로 딥시크의 성공이 젊고 경험이 적은 연구자들에 의해 이루어졌다는 일반적인 통념과는 달리, 인용 지표는 딥시크의 핵심 팀이 탄탄한 학문적 실적을 가진 연구원들로 구성되어 있음을 나타낸다. 이는 오픈AI 팀과 비교했을 때 상위 연구자들의 성과가 뛰어나면서도 기여자들 간의 편차가 적어 전반적으로 균형 잡힌 역량을 보유하고 있음을 시사한다. 세 번째는 중국이 서구의 전문 지식에 크게 의존하지 않고도 세계적 수준의 AI 인재를 국내에서 양성하는 능력이 커지고 있다는 증거이다.
더 넓은 맥락에서 보면, 중국의 AI 인재들은 여러 국가에서 전략적으로 시간을 보내며 높은 이동성을 보이는 경향이 있다. 수시로 옮겨 다니면서 여러 국가에서 글로벌 네트워크를 구축하고 양측 생태계에 발을 들여 놓는 방식을 취하고 있다.
딥시크 AI의 성공은 중국이 서구 전문 지식에 크게 의존하지 않고 자체적으로 세계적 수준의 AI 인재를 양성할 수 있는 역량이 커지고 있음을 보여주고 있다. 미국은 여전히 국제 연구 훈련의 주요 허브이지만 인적 자원 파이프라인에는 비대칭성이 존재한다. 중국은 자국 인재 육성 능력을 강화하는 반면, 미국은 외국 인재에 대한 의존도가 여전히 높다.
연구 보고서에서는 정책 결정자들은 세계 정상급 AI 연구자들이 미국에서 수학하고 거주하기를 희망한다는 기존의 가정을 재검토해야 할 필요가 있다고 말한다. 과거 미국 기술 우위의 핵심 요소였던 세계 최고 인재의 유치 및 영구적 정착 전략은 21세기 교육 환경의 현실과 점차적으로 부합하지 않는 것으로 보인다는 것이다.
중국은 국제 연구 경험을 ‘두뇌 유출’로 보지 않고, 연구자들이 최첨단 지식과 방법론을 습득한 뒤 귀국하는 유망한 경로로 인식하는 반면, 미국은 자신이 인재 우위를 영구적으로 확보하고 있다는 잘못된 가정을 하고 있을지도 모른다는 것이 보고서에서 지적하는 사항이다.
따라서 미국은 세계 각지의 최고 인재들을 유치하고 환영하며 유지하기 위해 훨씬 더 공격적으로 경쟁해야 하며, 정책 입안자들은 또한, 국내의 과학·기술·공학·수학(STEM) 교육을 K-12 단계부터 개선함으로써 자국의 역량을 시급히 강화해야 한다는 것이 보고서의 주장이다.
2. 영국 AI 보안 연구소의 연구 아젠다
영국 AISI가 앞으로 진행할 연구 우선순위, 가장 시급한 AI 문제에 대한 기술적 솔루션을 개발하는 접근 방식, 그리고 AI 역량이 발전함에 따라 해결해야 할 주요 위험에 대해 설명하는 보고서를 발행했다.
2023년 11월 설립 이후, UKAISI는 세 가지 핵심 분야에 노력을 집중해 왔다. AI 보안 및 안전 분야의 최전선에서 기술 전문가가 되는 것, 광범위한 연구 생태계를 활성화하는 것, 영국 정부 전체에 걸쳐, 그리고 AI 최전선에 있는 기업들, 나아가 국제적으로 협력하여 AI 보안 과학을 발전시키는 것이다.

연구 프로그램을 원활하게 진행하기 위해, AI 관련 분야(예: 머신러닝, 엔지니어링, AI 안전 및 거버넌스)와 특정 위험 분야(예: 사이버 보안, 생물학, 사회과학) 모두에서 폭넓은 전문 지식을 갖춘 업계 최고의 학계 및 산업계 연구실 소속 기술 전문가들을 채용해 왔다고 한다. 또한 AI 보안 연구소(LASR), 국가 사이버 보안 센터(NCSC), 국방 과학기술연구소, 그리고 국가 안보 커뮤니티를 포함하여 AI 및 사이버 위험에 대한 전문 지식을 갖춘 주요 AI 연구실, 연구 기관, 학계, 그리고 영국 정부 기관들과 파트너십을 구축했다.
이 문서는 현재 연구의 우선순위를 보여주는 스냅샷과 같다. 핵심 중점 분야, 채용 우선순위, 그리고 앞으로 협력하고자 하는 미래 연구 방향을 간략하게 설명하고 있다. 연구의 민감성으로 인해 연구 방법론과 연구 목표의 전체 범위를 공개할 수는 없다고 한다.
연구 분야의 우선순위를 결정할 때, 심각하고 광범위한 피해를 유발하거나 국가 안보에 위협이 될 수 있는 위험, 최첨단 AI 역량으로 인해 특히 악화되는 위험, 그리고 정부 지원 연구 기관에서 가장 효과적으로 제공할 수 있는 이러한 위험을 완화하는 솔루션 등 여러 요소를 고려한다.
위험 연구는 두 가지 핵심 영역으로 구분할 수 있다.
- 도메인별 연구: 최첨단 AI가 특정 고위험 도메인(예: 사이버 오용, 이중 용도 과학)에서 어떻게 위험을 유발하는지 이해하고 측정하는 것을 목표로 하는 연구이다.
- 일반화된 연구: AI 위험을 이해하고 측정하는 데 최첨단 접근 방식을 적용하는 것을 목표로 하는 도메인에 구애받지 않는 연구이다

도메인 별 연구의 주요 관심 분야는 다음과 같다.
- 사이버 오용
- 이중 용도 과학
- 범죄적 오용
- 자율 시스템
- 사회적 회복력
- 인간의 영향령
탐구하고 있는 새로운 분야 중 하나는 독점적 모델과 오픈 소스 모델 모두에서 발생하는 아동 성적 학대 자료(CSAM) 위험을 퇴치하는 데 도움이 되는 경로이다.
일반화된 효과적 측정 위험 연구는 다양한 분야에 적용되는 최첨단 AI 시스템의 위험을 이해하는 데 필요한 기초적인 접근법을 확립하고 개선하는 것을 목표로 하는 연구이다. 현재 연구의 주요 초점은 다음과 같다.
- 평가 과학: 최첨단 AI 시스템 역량을 측정하기 위한 엄격한 과학적 기법을 개발하고 적용하여 정확하고 견고하며 의사 결정에 유용하게 활용한다.
- 훈련 후 역량: AISI가 평가하는 AI 시스템이 AISI의 주요 관심 분야에서 진정한 최첨단 성능(현재 기술로 가능한 한계)을 보여주는지 확인한다.
문서에는 각 연구 분야에 대해 문제에 대한 설명, 연구 초점, 연구 방식, 사례, 미래 연구 목표 등을 서술한다. 위험 완화 부문에서는 개념 연구, 실증적 연구, 외부 연구 촉진을 통해 솔루션 연구를 추진하고 있다. 여기에는 세이프가드 분석, 제어, 얼라인먼트가 있다. 이 각각에도 기본 설명, 방법, 사례, 미래 연구 방향이 기술되어 있다.
이 문서는 우리가 AI 안전 문제에 대해 어떤 연구를 추진해야 하고, 어떤 방법들이 사용되고 있는지, 사례는 무엇인지 이해하기 좋은 기반 문서 역할을 할 것이다. 국내 AISI도 그냥 이 문서를 기반으로 앞으로 연구 방향을 설정하면 좋을 듯 하다.
3. 글로벌 AI 안전 연구 우선순위에 관한 싱가포르 합의
지난 1월에 요수아 벤지오 교수가 의장을 하면서 100여 명의 연구자가 공동으로 작성한 ‘국제 AI 안전 보고서(IAISR)’가 나왔었다. 5월 8일에는 이 보고서에 입각해 11개국 100명 이상의 연구자들이 참여해 AI 안전 연구 우선 순위를 종합적으로 파악하는 결과를 도출했다. 싱가포르에서 열린 AI 안전 국제 학술 교류회의를 통한 결과다.
이 문서는 AI 안전 연구 분야를 세 가지 유형으로 분류하는데, 신뢰할 수 있는 AI 시스템 구축 과제(개발), 위험 평가 과제(평가), 그리고 배포 후 모니터링 및 개입 과제(통제)이다. 서로 다른 당사자가 경쟁할 수 있는 분야를 다루지만, 개발자가 널리 공유하고 싶어 할 연구 제품 및 정보와 같은 상호 관심 분야의 더 넓은 범위에서의 사례도 강조했다. 특정 안전 기술 발전은 공통 관심사에 부합하는 반면 최소한의 경쟁 우위를 제공하는데, 이는 경쟁하는 항공기 제조업체(예: 보잉 및 에어버스)가 항공 안전 정보 및 표준에 대해 협력하는 방식과 유사하다는 것이다.
이 문서는 IAISR에서 도출한 연구 제안과 최근의 보완적 연구 우선 순위 프레임워크를 포괄적으로 종합했다. 처음에는 전문가 계획 위원의 초안으로 설계했으며 피드백을 얻기 위해 컨퍼런스 참석자 모두에게 배포했다.
문서에서 논의는 기술적인 AI 안전 연구에 국한했으며, AI를 단순히 더 강력하게 만드는 것이 아니라 더 신뢰할 수 있게 만드는 데 중점을 두고 AI 정책 연구는 제외했다. 연구의 초점은 범용 에이전트를 포함한 범용 AI(GPAI)에 맞췄으며 범용 AI 시스템 과 관련된 기술적 솔루션이 AI의 전반적인 안전을 위해 필요 하지만 충분하지는 않다는 점을 강조했다.
이 문서는 심층 방어 모델을 채택하고, 기술적인 AI 안전 연구 주제를 세 가지 주요 영역으로 분류했다. 이는 후속 개발 및 배포 결정에 영향을 미치는 위험 평가부터 시스템 개발 단계의 기술적 방법론, 그리고 시스템 배포 후 제어 도구 까지 포함한다. 그림에서 보듯이 세 영역은 중복을 가정하고 있다.

세 영역은 다음과 같다.
- 위험 평가: 위험 평가의 주요 목표는 잠재적 피해의 심각성과 발생 가능성을 파악하는 것이다. 연구 분야는 현재 및 미래의 AI에 대한 AI 시스템의 영향을 측정하는 방법 개발, 이러한 측정의 정확성과 반복성을 보장하기 위한 계측 개선, 그리고 이러한 위험 평가의 독립적인 검증을 지원하기 위한 제3자 감사를 위한 지원 시스템 구축을 포함한다.
- 개발: 설계부터 신뢰성, 안정성, 보안성을 갖춘 AI 시스템을 위한 연구 분야는 원하는 동작을 명시하고, 사양을 충족하는 AI 시스템을 설계하며 , 시스템이 사양을 충족하는지 검증하는 과정을 포함한다.
- 제어: ‘제어’는 일반적으로 장애나 불확실성에 직면하더라도, 그리고 종종 피드백 루프를 통해 원하는 결과를 달성하기 위해 시스템의 동작을 관리하는 과정을 의미한다. 연구 분야에는 AI 시스템 모니터링 및 개입 메커니즘 개발, AI 시스템이 속한 더 넓은 AI 생태계 로 모니터링 메커니즘 확장, 그리고 AI 관련 사회 변화에 적응하기 위한 사회 기반 시설 (예: 경제, 안보) 강화를 위한 사회적 회복력 연구를 포함한다.
연구 우선순위는 각 영역별로 다음과 같이 도출했다.
⑴ 위험 평가
- 감사 기법 및 벤치마크
- 다운스트림 영향 평가 및 예측
- 보안 평가 인프라
- 시스템 안전성 평가
- AI 위험 평가를 위한 계측학
- 위험 능력 및 성향 평가
- 통제 상실 위험 평가
⑵ 신뢰할 수 있고 안전하며 안정적인 시스템 개발
- 사양 및 검증: 시스템 목적 정의
- 설계 및 구현: 시스템 구축
- 검증: 시스템이 지정된 대로 작동하는지 평가
⑶ 제어: 모니터링 및 개입
- AI 시스템 모니터링
- AI 생태계 모니터링
- 사회적 회복력 연구
각 연구 과제 별로 세부 설명과 하위 과제를 제시하고 있는데 상세한 내용은 보고서를 참고하기 바란다. 계속 나오는 이야기는 우리가 AI 안전에 대한 연구가 아직 너무 부족하며, 문제 자체를 어떻게 정의하고 평가할 것인가에 대해서도 아직 합의가 제대로 이루어지고 있지 못하다는 점이다.
그러나 여기에서 제시한 과제들은 앞으로 AI 안전 연구소나 업계와 학계를 통해 지속적으로 연구하고 서로 공유해야 하는 것임에 틀림없다. 특히 이 과제들은 정책이 아닌 실제 기술적 난제에 대한 것이기 때문에 국내에서도 AI 안전이라는 커다란 범주에서 이런 과제들이 국가 과제로 선정하고 전략적으로 지원할 필요가 있다.
4. 오픈AI의 새로운 이니셔티브: 국가를 위한 AI 인프라 지원
오픈AI가 민주적인 AI 기반을 구축하고자 하는 전 세계 국가를 지원하기 위한 새로운 이니셔티브를 소개했다. 오픈AI의 이야기는 스타게이트 프로젝트를 발표한 이후 여러 국가에서 유사한 AI 인프라 구축을 지원해달라는 요청을 받았다는 것이다. 그래서 이러한 국가들을 돕고, 그 과정에서 민주적 AI를 확산하고자 한다는 것이다. 이 이니셔티브는 스타게이트 프로젝트 안에서 이루어지는 것이다.

민주적 AI란 오랜 민주주의 원칙을 보호하고 반영하는 AI의 개발, 사용, 배포를 의미한다. 다만 미국 정부와 긴밀히 협력하는 것이 민주적 AI를 발전시키는 최선의 방법이라는 주장이다. 여기에 관심 있는 정부들의 요구에 부응하여, 오픈AI는 인텔리전스 시대를 위한 새로운 유형의 파트너십을 제안한다.
- 자국내 데이터 센터 역량 구축하기 위한 나라와의 파트너십을 만든다.
- 시민에게 맞춤형 ChatGPT 제공한다.
- AI 모델에 대한 보안 및 안전 관리 체계를 지속적으로 발전시키겠다.
- 함께 국가 스타트업 펀드를 조성하고 활용하자.
- 파트너 국가들은 또한 글로벌 스타게이트 프로젝트 확장에 투자할 수 있다.
일단 국가나 지역을 대상으로 10개의 프로젝트를 추진하겠다고 했다.
스타게이트가 단지 미국 만을 위한 프로젝트가 아닌 전 세계 국가를 상대로 확장하겠다는 것이고, 자체 소버린 AI를 구축할 능력이 없는 나라는 오픈AI 주도의 스타게이트 산하로 들어오라는 소리다. 스타게이트가 기본적으로 펀딩 프로젝트이기 때문에 돈을 모으기 위한 노력으로 이해하고 있다. 다만 미국 기준을 따르라는 요구가 통상 압력으로 작용할 수 있음을 간과해서는 안 될 것 같다. 그러나 스타게이트 프로젝트가 트럼프 개인에게 어떤 도움을 줄 수 있을 지 명확하지 않기 때문에 트럼프가 관심을 가질 지는 분명하지 않다.
5. 미 저작권청, 상용 AI 학습엔 ‘공정이용’ 적용되지 않을 수 있다
미국 저작권청이 ‘저작권과 AI 보고서 3부’에서 생성형 AI 학습을 다루면서 다음과 같은 결론은 냈다. 지금까지 새로운 기술이 등장하면 ‘공정이용’(fair use)이라는 틀에서 수용해 왔다. 다만 아직 보고서는 출간 전 버전이지만 결론은 다음과 같다. 최종 버전이 크게 달라질 것 같지 않다는 것이 전문가들 의견이다.
“현행 법률을 적용한 결과, 생성형 AI의 개발 과정 여러 단계에서 저작권자의 배타적 권리와 충돌하는 방식으로 저작물이 사용되고 있음을 확인했다. 많은 의견 제출자들과 마찬가지로 핵심 질문은, 이러한 일견 침해로 보이는 행위들이 공정이용으로 정당화될 수 있는가이다.
공정이용 판단은 다양한 법정 요인을, 모든 관련 상황을 고려하여 균형 있게 평가하는 방식으로 이루어져야 한다. 특정 사례의 결과를 미리 단정할 수는 없지만, 기존 판례는 다음과 같은 일반적인 견해를 뒷받침한다:
- AI 훈련 과정에서의 저작물 사용은 다양한 측면에서 변형적(transformative)일 가능성이 높다.
- 그러나 이것이 공정한 이용인지 여부는 사용된 저작물이 어떤 것이었는지, 어떤 출처에서 가져왔는지, 어떤 목적을 위해 사용되었는지, 결과물에 어떤 통제가 있었는지 등 시장에 미치는 영향을 포함한 여러 요소에 따라 달라질 수 있다.
모델이 분석이나 연구 등과 같은 국제 경쟁력에 핵심적인 목적으로 활용되는 경우, 그 결과물이 학습에 사용된 창작 저작물의 대체물로 기능할 가능성은 낮다. 그러나 광범위한 저작물을 이용해 상업적 콘텐츠를 대량 생성하고, 그 콘텐츠가 기존 시장에서 원 저작물과 경쟁하게 되는 경우, 특히 그 과정이 불법적 접근을 통해 이루어진 경우, 이는 기존 공정이용의 범위를 벗어나는 행위이다.”
보고서 중에서
가장 중요한 부분은 마지막 문장이다. 대량 생성, 원 저작물과 경쟁, 불법적 접근은 공정이용의 범위를 벗어난다는 해석이다.
이어서 ‘개별·집단 라이선스 계약이 일부 분야에서 빠르게 등장하고 있지만, 현재 그 가용성은 일관되지 못하다. 자발적 라이선스의 견조한 성장과 이해관계자들이 법 개정을 지지하지 않는 점을 고려할 때, 정부 개입은 현시점에서 시기상조라고 사무국은 판단한다. 대신 라이선스 시장이 계속 발전하여 초기 성공 사례를 가능한 한 빨리 더 많은 맥락으로 확장해야 한다. 남아 있는 격차를 메우기 어려운 영역에서는 확장 집단 라이선스(extended collective licensing)와 같은 대안적 접근법을 통해 시장 실패에 대응할 필요가 있다.’고 제안했다.
이는 지브리 이미지 경우처럼 스타일을 보호할 수는 없지만 이를 실질적으로 가능케 하는 AI의 학습 과정에서의 콘텐츠 무단 사용은 현행 저작권법의 공정이용으로 방어할 수 없다는 잠정적 결론이라는 것이 김성우 작가의 의견이다.

“이러한 획기적인 기술은 혁신가, 창작자, 그리고 일반 대중 모두에게 이익이 되어야 한다.”고 미국 저작권청이 이야기 했지만 그 방안을 도출하는 것이 쉬운 일은 아니다. 이 보고서 안이 최종안이 된다면 현재 및 향후 미국 내 AI 저작권 소송에 영향을 미칠 가능성이 높기 때문에 저작권자에게는 희소식이고 AI 개발 회사는 막대한 저작권료를 지불할 방안을 찾아야 할 것이다.
그 밖의 소식들
- 미국 양당 상원의원들이 연방 정부가 AI 시스템 테스트 및 평가 능력을 향상시켜야 한다는 것을 목표로 하는 법안에 다시 도전하고 있다 (FEDSCOOP, 5월 7일). 작년에 상무위원회를 통과한 ‘신뢰할 수 있는 AI를 위한 테스트와 평가 시스템’ 법안(테스트 AI 법이라고 부른다)으로 NIST와 미국 에너지부가 협력해 AI 시스템을 평가하는 데 사용되는 측정 표준을 개발하고 개선하기 위한 테스트베드 파일럿 프로그램을 만들 것을 요구하고 있다.
AI 모델 평가에 관한 NIST-DOE 파트너십을 명문화할 뿐만 아니라, AI 테스트 실무 그룹을 통해 공공-민간 파트너십을 강화하는 것을 목표로 한다. 해당 기관은 신뢰성, 성능, 역량, 해석 가능성, 보안, 개인정보 보호 및 데이터 편향을 고려하여 AI 테스트 표준 개발을 지원할 것이다. 이후 측정 표준 전략은 상무부 웹사이트에 게시될 예정이다.
- 오픈AI가 결국 윈드서프를 30억 달러에 인수했다 (벤처비트, 5월 9일). 이는 오픈AI가 구글과 앤스로픽의 위협에 맞서고 새롭게 부상하는 에이전트 기반 AI 세계에서 주도적인 위치를 확보해야 할 절실한 필요성을 보여준다는 것이 벤처비트 진단이다. 엔터프라이즈 시장에서 두 가지 필수 사항이 있는데, 첫째, 뛰어난 코딩 역량으로 중요한 개발자 생태계를 갖춰야 할 필요성, 둘째, 자율 AI 에이전트가 형성하는 미래를 위한 기본 인터페이스가 되기 위한 더 광범위하고 명확한 전투에서 승리해야 할 필요성이라는 것이다.
- 블룸버그에 따르면 2022년 이후에 짓고 있는 신규 데이터 센터의 약 2/3가 이미 심각한 물 부족 현상이 나타나는 지역에 있다고 한다 (블룸버그, 5월 8일)

- 그 동안 AI 규율을 정부가 나서서 먼저 만들어 달라고 요청 해 왔던 샘 알트만이 지난 목요일 미국 상원 청문회에서는 완전히 바뀐 입장을 보였다 (워싱톤 포스트, 5월 8일). 강력한 AI 소프트웨어를 출시하기 위해 정부 승인을 요구하는 것은 해당 기술 분야를 선도하고 있는 미국에 “재앙”이 될 것이라고 경고했다고 한다. 테드 크루즈 상원의원은 청문회 시작 전에 “미국이 AI 분야를 선도하려면, 아무리 온건하다고 여겨지는 규제라 할지라도 혁신과 도입을 억제하는 규제를 허용해서는 안 됩니다.”라고 말했다고 한다. MIT 교수이자 FLI 소장인 맥스 테그마크는 ‘샌드위치를 하나라도 팔려면 주방 안전 기준을 충족해야 한다.’ 면서 우려를 표했다.
- 엔비디아의 AI 디렉터인 짐 팬(Jim Fan)이 AI Ascent 2025에서 발표한 내용이 흥미로운데 그는 ‘물리적 튜링 테스트’를 제안했다. 어떤 과업이 이루어졌는데 이것이 사람이 한 것인지 기계가 한 것인지 구별할 수 없다면 이 테스트를 통과한 것으로 보자는 것이다. 예를 들어 엉망인 집안 정리를 하고 촛불이 켜있는 저녁을 준비해 놓은 것 같은 과업이다. 그러나 이런 물리적 환경에 대한 데이터 부족은 LLM에 비해서 훨씬 심각하니 로봇 학습은 시뮬레이션으로 해야 한다. 실 세계보다 1만 배 빠르게 시뮬레이션 하면 현실에서 10년 간 학습해야 할 것을 단지 두 시간 시뮬레이션으로 해결할 수 있을 것이란다. 이때는 비디오 생성이 중요하며 결국 엔비디아의 고급 GPU를 많이 사야 개발에 들어가는 돈을 아낄 수 있다는 이야기이다.
- 토론토 대학의 컴퓨터 공학과 부교수인 데이비드 듀브노가 더 가디언지에 기고한 글이다. ‘AI가 인간을 더 무의미하게 만드는 방법’이라는 글로 AI가 우리가 하는 모든 일을 더 잘 해낼 수 있다면, 인간은 어떤 자리를 차지하게 될까라는 질문을 던진다(더 가디언, 5월 4일). ‘우리의 점진적인 무력화를 막기 위해 우리는 무엇을 할 수 있을까요?’라는 질문의 첫 단계는 이 문제에 관해 이야기를 해야 한다는 것인데 언론인, 학자, 사상가들이 이상하게 이 거대한 주제에 침묵하고 있다고 비판한다.