기사 공유하기

AI in a week is BACK!

개인 사정으로 한 달을 쉬고 다시 돌아왔습니다. 그 사이에 하정우 AI 수석이 임명되고 잘 알고 지내던 박인규 교수가 과학기술 혁신본부장이 되었네요. 저와 하정우 수석이 쓴 ‘AI 전쟁 2.0’도 6월 30일에 출간되었고요. (많은 관심 바랍니다).

AI 분야는 지난 한 달 동안에도 많은 일이 벌어졌지만, 전처럼 지난 일주일을 중심으로 뉴스를 정리해 봅니다.

  • 여러 논란이 많았던 EU의 범용AI(GPAI) 실천 강령 최종안
  • xAI의 그록 4 버전 출시와 그록 챗봇의 난동 문제
  • 기업 코딩 환경의 선두자 윈드서프가 오픈AI에서 구글로 종착지를 변경한 이야기
  • 브릭스 정상 회의에 처음으로 AI 거버넌스가 거론된 점
  • 프론티어 AI의 투명성에 대한 앤스로픽의 최소 표준 제안 등을 소개합니다.

그 밖의 소식 중에서도 메인에서 설명할 수준의 소식이 있지만 넘쳐서 그 밖으로 정리했습니다. 흥미로운 논문도 몇 편 있었으나 다음 기회에 소개하겠습니다. 

1. EU, 범용 AI 실천 강령 최종안 발표: 투명성∙저작권∙안전성과 보안


발표가 연기될 것이라고 예상했던 범용 AI를 위한 실천 강령(Code of Practice) 최종 버전이 나왔다. 이는 EU AI사무국이 주도하고 13명의 독립 전문가와 약 1,000명의 이해관계자가 참여한 6개월간의 포괄적 협상 과정을 통해 완성된 결과물이다. 이해관계자에는 모델 제공자, 중소기업, 학계, AI 안전 전문가, 권리자, 시민 사회 단체를 포함한다.

이 규정은 2025년 8월 2일부터 시행될 AI법의 범용 AI 관련 규정을 업계가 준수하도록 지원하기 위해 마련되었다. 신규 모델의 경우 1년 후, 기존 모델의 경우 2년 후 EC AI 사무국을 통해서 시행된다. 이는 유럽 시장에 출시되는 범용 AI 모델(가장 강력한 모델 포함)의 안전성과 투명성을 확보하기 위한 것이다.

이를 국민대 이원태 교수는 다음과 같이 정리했다:

실천 강령 작성 과정은 지난해 7월 30일 EU AI 사무국이 참여 공모를 시작한 이후 본격화됐다. 9월 30일 킥오프 전체회의에는 거의 1,000여명이 참석했으며, 이후 4개 작업그룹별로 3차례 가상 회의를 통해 반복적 초안 작성 과정을 거쳤다. 참여자들은 GPAI 모델 제공업체, 다운스트림 제공업체, 업계 단체, 시민사회, 권리보유자, 학계 및 독립 전문가 등 다양한 층을 망라했다. 특히 실천 강령의 주요 대상인 GPAI 모델 제공업체들을 위한 별도 워크숍도 개최됐다. EU 회원국 대표들은 AI 위원회를 통해 전 과정에 긴밀히 참여했으며, 전 세계 공공기관과 GPAI 모델 위험 평가 담당 기관들도 참관자로 초청됐다.

실천 강령은 투명성, 저작권, 안전성 및 보안 등 세 개 장으로 구성된 종합적 가이드라인이라고 할 수 있다.

  1. 투명성(Transparency): 모든 GPAI 모델 제공업체를 대상으로 AI법 제53조의 투명성 및 기술 문서화 의무 준수 방안을 제시한다. 특히 맞춤형 표준화 템플릿인 ‘모델 문서 양식'(Model Documentation Form)이 포함돼 있어, 학습 시간 및 계산량, 에너지 소비, 데이터 수집 및 큐레이션 방법 등의 메타데이터를 체계적으로 문서화할 수 있도록 했다.
  2. 저작권(Copyright): GPAI 모델에 대한 저작권 정책 개발 및 구현을 위한 실용적 지침을 담았다. 개발자들이 EU 저작권 및 지적재산권 법률을 준수하는 구체적 방법을 제시하고 있다.
  3. 안전성 및 보안(Safety and Security): 시스템적 위험을 가진 최첨단 AI 모델 제공업체만을 대상으로 하며, AI법 제55조에 따른 첨단 GPAI 모델의 위험 평가, 관리 및 완화를 위한 실행방안을 설명한다. 위험 모델링, 레드 팀, 적대적 테스트 및 안전 완화에 대한 구체적 지침도 포함되어 있다.

EU AI사무국은 실천 강령과 병행해 AI법 제53조 1항 d호에 따라 GPAI 모델 제공업체가 공개해야 하는 ‘훈련 데이터의 충분히 상세한 요약’ 템플릿도 개발하고 있다. 430개 이상의 응답을 받은 광범위한 이해관계자 협의를 통해 의견을 수렴했으며, 2025년 2분기 중 위원회가 최종 채택할 예정이다.

이번 실천 강령은 향후 EU AI사무국과 AI 위원회의 적정성 평가를 거쳐 8월 2일까지 승인 여부가 결정된다. GPAI 모델 제공업체에 대한 AI법 조항이 바로 이날부터 적용되기 때문이다.

EU 집행위원회는 또한 7월 중 범용 AI 모델 관련 핵심 개념에 대한 추가 가이드라인을 발표할 예정이라고 밝혔다. 업계에서는 이번 실천 강령이 AI법의 복잡한 요구사항을 보다 명확하게 이해하고 준수하는 데 도움이 될 것으로 기대하고 있다. 특히 지난 6개월간의 포괄적 협상 과정을 통해 다양한 이해관계자의 의견이 반영됐다는 점에서 실무적 유용성이 높을 것으로 평가된다.

이 실천 강령의 가장 중요한 특징은 AI 투명성 요구를 명확히 했다는 점이다. 즉 그동안 ‘블랙박스’로 여겨졌던 AI 모델의 내부 작동 방식을 공개하도록 강제하고 있기 때문이다. 훈련 데이터의 출처, 에너지 소비량, 계산 과정 등을 상세히 문서화해야 하므로, AI 기업들의 영업비밀 공개 압박이 가중될 전망이다. 어쩌면 이는 요즘 부각되는 AI시대의 S-BOM인 ‘AI-BOM(Bills of Materials)’이라고 볼 수도 있는데 향후 AI 산업의 경쟁 구도를 근본적으로 바꿀 수 있는 요소로 보인다.

또한 이번 실천강령은 생성형 AI의 가장 큰 쟁점 중 하나인 저작권 침해 문제에 대한 구체적 대응 방안을 제시했다는 점에 주목해야 한다. 특히 EU 저작권법 준수를 위한 실무 지침은 현재 진행 중인 수많은 AI 저작권 소송의 판례 형성에 영향을 미칠 것으로 보인다. 그런 점에서 이 부분은 창작자와 AI 기업 간의 갈등 해결을 위한 새로운 프레임워크를 제공할 것으로 기대된다.

그리고 이 실천 강령의 중요한 의미는 시스템적 위험을 가진 AI 모델에 대한 특별한 규제 체계를 구축했다는 점이다. 이는 단순히 성능이 뛰어난 AI가 아니라, 사회 전체에 미칠 수 있는 광범위한 영향을 고려한 새로운 분류 체계이다. 그런 점에서 향후 AGI(Artificial General Intelligence) 수준의 AI가 등장할 때를 대비한 선제적 규제 프레임워크로 평가할 수 있다.

끝으로 이번 실천강령은 그동안 윤리적 권고 수준에 머물렀던 AI 거버넌스가 법적 의무사항으로 전환되는 중요한 전환점을 의미하는 것으로 평가할 수 있다. 이는 AI 개발과 배포에 대한 패러다임 변화를 예고하며, 향후 AI 산업의 발전 방향을 근본적으로 바꿀 수 있는 분수령이 될 것으로 전망된다. (⇦ 이상 이원태 교수의 정리)

뉴욕타임스는 일부 비평가들이 규제 당국이 업계의 지지를 얻기 위해 규칙을 완화했다고 비난했다고 전했다. 또한, 자발적 실천 강령에 동의한 기업들은 “행정적 부담이 줄어들고 법적 확실성이 향상”되는 혜택을 누릴 수 있을 것이라고 전망했다. AI 정책에 주력하는 시민사회단체인 퓨처 소사이어티(Future Society)의 닉 모에스(Nick Moës) 전무이사는 기술 기업들이 상당한 양보를 얻어냈다고 말했다고 한다. 

아직 어떤 기업이 행동 강령에 참여할지는 아직 명확하지 않으며, 구글과 오픈AI는 최종안을 검토 중이라고 밝혔다. 마이크로소프트는 논평을 거부했으며, 동의하지 않겠다는 입장을 밝힌 메타는 즉각적인 논평을 내놓지 않았다. 아마존과 프랑스의 대표적인 AI 기업 미스트랄은 논평 요청에 응답하지 않았다.

그동안 유럽 기업을 대표하는 많은 단체들은 정책 입안자들에게 AI법 시행을 연기할 것을 촉구했으며, 이 규제는 혁신을 둔화시키고 자국 기업이 외국 경쟁에 비해 불리한 입장에 처하게 할 위험이 있다고 주장했다고 전하면서 전반적으로 기업들이 여전히 우려를 표명하고 있음을 알렸다.

2. 그록 4, 가장 똑똑한 AI + 가장 극우스러운 챗봇


그록 3가 나온지 3개월만에 다음 버전인 그록 4가 나왔다. 머스크는 이 모델이 세상에서 가장 똑똑한 AI라고 주장했다고 한다. 엑스에서는 발표 과정을 라이브스트림으로 중계했다. 벤치마크를 통한 성능을 보면 가장 어렵다는 인류의 마지막 시험(HLE: Human’s Last Exam)와 ARC-AGI-2에서 o3와 제미나이를 모두 제쳤고, 거의 모든 벤치마크에서 1위로 올라섰다.

그록 3에 비해 가장 큰 차이는 GPU 수를 20만 장으로 늘려서 학습했다는 점인데, GPU의 차이가 이런 성능의 차이를 만들어 냈다는 점이 시사하는 바가 크다. 우리나라가 국가적으로 GPU의 대량 확보가 왜 필요한지 다시 한번 일깨워줬다. 100만 장을 넘어서면 어떤 결과가 나올 것인지 기대가 된다.

이번에 발표한 제품에는 실제로 두 개의 모델을 포함하고 있다. 단일 에이전트 추론 모델인 그록 4 와 내부 협업 및 합성을 통해 복잡한 문제를 해결하도록 설계된 다중 에이전트 시스템인 그록 4 헤비이다. 두 모델 모두 추론 작업에 최적화되어 있으며, 기본 도구 통합 기능을 갖추고 있어 웹 검색, 코드 실행, 다중 모드 분석과 같은 기능을 제공한다. 그러나 아직 모델 카드나 공식 릴리스 노트를 제공하지 않아서 언급한 내용을 독립적으로 평가 분석하기는 어렵다. xAI는 8월에는 코딩 특화 모델, 9월에는 에이전트, 10월에는 음성 생성 기능을 선보일 예정이라고 한다.

그록 4는 xAI API를 통해서 사용할 수 있는데, 100만 개 입력 토큰에 3달러, 100만 개 출력 토큰에 15달러, 단일 컨텍스트 창에 토큰이 128,000개 추가되면 가격이 두배가 되고 256,000개 토큰 컨텍스트 창을 제공한다. 개별 사용자는 엑스의 그록 챗봇, 그록 앱 등을 통해 그록 4를 사용할 수 있으며 가격은 프리미엄 플러스가 월 16달러, 슈퍼그록이 월 300달러, 또 다른 300달러 짜리 ‘슈퍼그록 헤비’ 티어는 그록 4와 멀티 에이전트 버전인 그록 4 헤비를 모두 사용할 수 있다.

이와 함께 지난 주에는 그록 챗봇이 히틀러를 찬양하고 반유대주의적 발언을 했다는 점에서 많은 논란을 빚어 왔다. 가디언지는 12일 토요일 기사를 통해 xAI가 장문의 사과문을 발표했다고 한다. 엑스의 @grok 봇의 상위 코드 경로가 업데이트 과정에서 문제가 된 것이고 이는 @grok이 의존하는 기본 모델과는 상관이 없다는 것이다.

9일 기사에서는 그록 봇이 히틀러를 찬양하고, 유대인 성을 가진 사람을 모욕하고, 자신을 ‘메카히틀러’라고 했으며, “백인은 혁신과 끈기를 대표하며 정치적으로 올바른 주장에 굴복하지 않는다”라고 하거나, 폴란드 총리 도날드 투스크를 “빌어먹을 반역자”, “빨간머리 창녀”라고 지칭하기도 했다. 일부 사람들은 이 그록 챗봇이 머스크의 생각을 반영한다고 조롱하기도 했다. 

‘머스크 나치식 경례’ 구글 이미지 검색 화면.

뉴욕타임스 역시 12일 기사를 통해 그록 챗봇이 엑스 사용자의 극단주의적 견해를 반영했다고 xAI가 말했다고 보도했다. xAI는 월요일에 발생한 문제들이 회사가 그록을 안내하는 데 사용했던 이전 명령어 세트를 복원한 코드 업데이트에서 시작되었다고 밝혔다. 이 지침은 챗봇에게 ‘최대한 기반을 갖춰라’라고 했는데 이는 자신에게 충실함을 뜻하는 속어로, 최근 몇 년 동안 극우 세력이 “깨어 있는” 또는 주류 담론에 반하는 댓글을 달 때 사용하는 용어라고 한다. 지침은 또한 그록에게 “정치적으로 올바른 사람들을 불쾌하게 하는 것”을 두려워하지 말고, X 사용자 게시물의 “어조, 맥락, 언어”를 이해하고 이를 모방하라고 지시했는데 이 지침이 엑스 사용자를 너무 밀접하게 미러링 했다는 것이다. 

뉴욕타임스 기사 말미에는 엑스와 xAI가 지난 3월에 합병한 후 2천억 달러 가치 평가로 신규 자금을 조달하려고 한다는 파이낸셜 타임스를 인용했다. 새로운 모델 발표는 늘 새로운 자금 투자 유치를 위한 마케팅으로 사용되는 경향이 있다.

3. 윈드서프, 오픈AI 버리고 구글 택하다


이 소식은 여러 매체가 경쟁적으로 보도했다. 오픈AI가 지난 5월 30억 달러에 인수하겠다고 했던 기업용 AI 기반 통합 개발 환경(IDE) 기업인 윈드서프를 오히려 구글이 24억 달러 수준의 딜로 CEO 바룬 모한과 공동 창업자인 더글러스 첸, 연구 개발 인력 몇 명과 함께 구글의 AI 사업부인 구글 딥마인드에 합류시킨다는 것이다.

이는 과거 마이크로소프트가 인플렉션을, 구글이 캐릭터에이아이의 주요 창업 멤버와 핵심 인력을 데려오고 기술 사용 조건으로 거액을 지불해 투자자와 창업자들에게 보상하는 방식과 같은 방법으로 보인다. 이런 방식을 때로는 역인수합병(reverse-acquihire)라고 부른다. 구글은 윈드서프 기술에 대해 비독점적인 라이센스를 가지며 지분 인수나 어떤 지배권도 갖지 않는다. 이 말은 윈드서프가 다른 회사에도 기술 라이센스를 제공할 수 있다는 것이다. 

오픈AI와 딜이 난항에 빠진 이유는 ‘윈드서프 경영진이 오픈AI의 최대 투자자 중 하나인 마이크로소프트와 자사 제품에 대한 정보를 공유해야 할 수도 있다는 우려를 제기하면서 최근 몇 주 동안 협상이 결렬되었다고 해당 거래에 정통한 두 관계자가 전했다.’고 뉴욕타임스가 보도했다. 두 회사간의 거래 독점 계약이 만료함에 따라 윈드서프는 여러 회사와 협상을 했고 구글의 순다 피차이와 딥마인드의 데미스 하사비스는 잠재적 문제가 거의 없는 단순한 딜을 제시했다. 

윈드서프는 사업 책임자인 제프 왕이 임시 최고경영자를 맡을 것이라고 밝혔다. 250명 직원 대부분도 구글 딥마인드로 이직하지 않는다. 4월 기준 윈드서프의 연평균 수익(ARR)은 1억 달러에 달해 몇 달 전 4천만 달러라고 했던 것에 비해 크게 증가했다. 

이런 방식이 윈드서프에게 더 많은 사업 기회를 제공할까? 실제로 스케일AI가 메타의 적극 투자와 핵심 경영진 이적으로 고객을 잃었고, 인플렉션은 소비자 AI 사업에서 손을 떼었다. 결국은 제미나이 에이전트 코딩 기술을 개선하고 성장하는데 모든 기술이 활용되는 것으로 만족할 수 있을 것이다. 

4. 브릭스 정상회의에서 발표된 AI 거버넌스, 미∙중 헤게모니를 경계하다


브라질에서 열린 17번째 브릭스 정상회의에서 처음으로 AI 거버넌스에 관한 발표가 있었다. 발표문에 포함된 내용은 다음과 같다.

“AI 거버넌스가 브릭스(BRICS) 의제에서 처음으로 중요한 역할을 수행하며, 이 혁신적인 기술에 대한 남반구 국가들의 공통된 관점을 제시하고 경제적, 개발적 측면을 논의의 최우선 과제로 삼고 있다. 공동 선언문에서 각국은 AI가 더욱 번영하는 미래를 향한 진전을 촉진할 수 있는 특별한 기회를 제공함을 인정한다. 그러나 이를 달성하기 위해서는 글로벌 AI 거버넌스가 잠재적 위험을 완화하고 남반구 국가들을 포함한 모든 국가의 요구를 충족해야 한다. 우리의 공동 가치를 옹호하고, 위험을 해결하며, 신뢰를 구축하고, 광범위하고 포용적인 국제 협력과 접근성을 보장하는 AI 거버넌스를 구축하기 위해서는 전 세계적인 공동의 노력이 필요하다.”

내가 이 소식을 알리는 이유는 미국과 중국간의 AI 패권 경쟁에 대해 글로벌 사우스를 포함한 여러 국가가 우려하고 있으며 새로운 연합 체계를 만들고자 하는 노력이 여러 방안으로 모색되고 있기 때문이다. 트럼프의 관세 정책에 대항하기 위해 각 나라의 새로운 협력이 나타나는 것처럼 AI 분야에서도 두 강대국이 주도하는 것을 막기 위한 중견 국가와 글로벌 사우스 국가들의 새로운 협력 방안을 모색해야 할 때이다. 

미국과 중국의 AI 헤게모니 쟁탈전에 많은 나라, 특히 남반구 국가들이 우려하고 있다.

5. 앤스로픽, 프론티어 AI 투명성 필요에 관한 프레임워크 발표


최첨단 AI 개발은 이 강력한 기술을 개발하는 기업들의 공공 안전과 책임성을 보장하기 위해 더 큰 투명성이 필요하다. 업계, 정부, 학계 등이 합의된 안전 기준과 포괄적인 평가 방법을 개발하기 위해 노력하고 있지만, 이 과정에는 수개월에서 수년이 걸릴 수 있다. 따라서 연방, 주, 국제 수준에서 적용할 수 있는 타겟팅된 투명성 프레임워크를 앤스로픽이 제안했다. 

지나치게 규범적인 형태를 의도적으로 피했으며, 투명성을 위한 최소 표준을 제안한다.

  • 최대 규모 모델 개발업체에 대한 적용 제한: AI 투명성은 가장 우수한 모델을 구축하는 최대 규모의 프런티어 모델 개발업체에만 적용되어야 한다. 임계값으로 연간 매출 기준액 1억 달러, 또는 연간 R&D 또는 자본 지출 10억 달러를 제안함으로써 스타트업 생태계나 소규모 기업에 적절한 면제 조항을 넣는다.
  • 보안 개발 프레임워크 구축: 해당하는 프런티어 모델 개발자에게 모델의 불합리한 위험을 평가하고 완화하는 방법을 제시하는 보안 개발 프레임워크를 구축하도록 요구한다.
  • 보안 개발 프레임워크 공개: 보안 개발 프레임워크는 민감한 정보에 대한 합리적인 편집 보호 조치를 조건으로 AI 회사가 등록하고 관리하는 공개 웹사이트를 통해 대중에게 공개해야 한다.
  • 시스템 카드 공개: 시스템 카드 또는 기타 문서에는 테스트 및 평가 절차, 결과 및 필요한 완화 조치가 요약되어 있어야 한다.
  • 허위 진술 금지를 통한 내부 고발자 보호: 연구실이 자체 프레임워크 준수 여부에 대해 거짓말을 하는 것을 명백히 위법 행위로 규정한다. 
  • 투명성 기준: 실행 가능한 AI 투명성 프레임워크는 보안과 공공 안전을 강화하는 동시에 AI 개발의 진화하는 특성을 수용할 수 있도록 최소한의 기준을 갖춰야 한다. 모든 프레임워크는 진화를 염두에 두고 설계해야 한다.

보안 개발 프레임워크(SDF)와 시스템 카드에 대한 투명성 요건은 정책 입안자들에게 추가 규제 필요성을 판단하는 데 필요한 증거를 제공하고, 대중에게 이 강력한 신기술에 대한 중요한 정보를 제공하는 데 도움이 될 수 있다. 앤스로픽이 우려하는 것은 모델이 발전함에 따라 과학 발견, 의료, 경제 성장을 지속할 수 있는 기회를 얻고 있음에도 안전하고 책임감 있는 개발 없이는 단 한 번의 치명적인 실패만으로도 수십 년 동안 발전이 중단될 수 있기 때문이다. 

그 밖의 소식


  • 미터(METR)의 새로운 연구에 의하면 숙련된 오픈소스 개발자의 생산성에 미치는 영향을 파악하기 위해 무작위 대조 시험(RCT)를 수행한 결과 놀랍게도 개발자가 AI 도구를 사용할 때 사용하지 않을 때보다 19% 더 오래 걸리는 것으로 나타났다. AI는 개발자의 속도를 저하시키기 때문이라는 것이다.

    AI 도구가 소프트웨어 개발에 미치는 실제 영향을 직접 측정하기 위해, 대규모 오픈소스 저장소(평균 2만 2천 개 이상의 별과 100만 줄 이상의 코드)에서 수년간 기여해 온 숙련된 개발자 16명을 모집했다. 개발자들은 저장소에 가치 있는 실제 이슈 목록(총 246개) –  버그 수정, 기능 추가, 리팩토링 등이 포함되며, 일반적으로 개발자들의 정규 업무를 포함한다. AI 사용이 허용되는 경우, 개발자는 원하는 도구(주로 연구 당시 프론티어 모델이었던 클로드 3.5/3.7 소넷t이 포함된 커서 프로)를 사용할 수 있으며, AI 사용이 허용되지 않는 경우, 생성 AI의 도움 없이 작업했다.

    개발자들이 AI 도구를 사용할 수 있게 되면 이슈를 완료하는 데 19% 더 오랜 시간이 걸렸는데, 이는 개발자들의 믿음과 전문가 예측에 반하는 상당한 속도 저하이다. 이는 벤치마크나 일회성 보고가 매우 부정확할 수 있다는 증거가 될 수 있으며 사람들이 AI 시스템에 기대하는 작업은 다양하고 복잡하며, 엄밀하게 연구하기 어려움을 다시 한 번 드러낸다. 
  • 마이크로소프트 리서치가 7월 10일 연구 보고서 ‘Working with AI: Measuring the Occupational Implications of Generative AI’를 발표했다. 디플정 이현승 국장의 포스팅에 따르면 실제 빙 코파일럿 사용자 20만 명과 AI 사이에 오간 대화를 분석해 실제 업무 활동(work activity)에서 생성형 AI가 어떤 방식으로 사용되고 있는지를 정밀하게 측정했다고 한다. 수십만 건의 실제 대화를 분석한 이 연구는 “AI가 직업을 대체하는가?“라는 단순한 질문을 넘어, 어떤 직업이 어떤 방식으로 AI와 접점을 형성하고 있는지를 정량적으로 밝혀냈다는 점에서 의미가 있다.

    두 가지 핵심 요소를 분리했는데, 사용자가 AI에게 요청한 이용자 목표(User Goal)과 AI가 실제로 수행한 작업 AI Action이다. 이 두 요소를 미국 노동통계청의 O*NET 분류 체계 중 ‘중간 수준 직무 활동(IWA)’ 332개 항목을 기준으로 분류해, AI가 얼마나 자주, 얼마나 성공적으로 이 작업들을 보조하거나 직접 수행했는지를 분석하여, 직업별 AI 적용 가능성 점수(Applicability Score)를 산출했다. 생성형 AI의 적용 가능성이 가장 높은 상위 30개 직업군의 공통점은 정보 제공, 문서 작성, 커뮤니케이션 등 정형화되고 언어 중심적인 업무를 수행한다는 점이다.
  • 영국의 과학기술부 장관인 피터 카일이 지미 매크러플린과 인터뷰에서 ‘이번 의회가 끝나는 2029년에는 AGI를 노크하게 될 것이다. 특정 분야에서는 이미 달성되었을 것이라고 생각한다. 모든 사람이 보편적으로 받아들이고 느낄 수 있을지는 모르겠지만, 우리는 거기에 도달할 것이다’라고 얘기했다. 
  • 구글 딥마인드와 리서치 팀은 MedGemma라는 이름의 새로운 인공지능 모델을 공개했다 (김태형님의 포스팅). 의료에 특화된 이 거대 언어 모델은 단순한 기술의 진보를 넘어, 의료 AI의 실용화 단계 진입을 촉진하는 핵심 모델로, 정확성, 멀티모달 추론력, 실전 활용성, 접근성을 동시에 갖춘 차세대 의료 인공지능의 대표 사례로 보인다. 놀라운 점은 그 작은 크기다. MedGemma 4B는 단 40억 파라미터, 최신 대형 언어 모델들에 비하면 ‘소형차’ 수준이다. 하지만 이 모델은 미국 의사 국가시험을 시뮬레이션한 MedQA 시험에서 64.4%의 정확도를 기록했다. 동급 모델을 압도하고, 어떤 경우에는 GPT-4o와 어깨를 나란히 하는 성능도 보였다.
  • 옥스포드 마틴 AI 거버넌스 이니셔티브는 AI에 대한 국제 협정을 검증하기 위한 방법을 제안하는 논문을 발표했다. 검증은 관련 국가들이 다른 국가의 준수 여부를 판단할 수 있는 정도에 달려 있다.

    이 보고서는 세 가지 주요 결과를 제시한다. 첫째, 검증 기술의 예측 가능한 발전 없이도 많은 국제 AI 협정의 검증이 가능해 보인다. 일부 협정은 기존 하드웨어를 사용하여 검증할 수 있지만, 다른 협정은 검증 인프라 개발 및 설치에 막대한 투자가 필요하다.

    둘째, 무기와 같은 일부 AI 관련 활동에 대한 검증은 기술적 및 정치적 장벽이 복합적으로 작용하여 합의 가능성을 제한할 가능성이 높다. 셋째, 연구 개발 및 국가 정책을 포함한 여러 분야에서의 단기적인 조치는 비용과 보안 문제를 줄여 향후 검증 협정 체결 가능성을 높일 수 있다. 요약하자면, 이 보고서는 국제 AI 협정을 검증하는 데 실행 가능한 접근 방식을 설명하고 오늘날 검증에 대한 투자가 어떻게 미래의 정치적 가능성을 형성할 수 있는지 보여준다. 
  • 블룸버그에 따르면 중국 기업들이 신장에 115,000대 이상의 엔비디아 H100과 H200을 수용하는 데이터센터를 건설하고 있다고 한다. 흥미로운 것은 그 회사들이 어떻게 많은 칩을 확보할 것인지 불투명 하다는 점이다. 
  • 아마존 AWS가 앤스로픽과 파트너링을 통해 에이전트 마켓플레이스를 론칭한다고 한다. 당연한 수순이다. 에이전트 마켓플레이스는 7월 15일 뉴욕에서 열리는 AWS 서밋에서 출시될 예정이다. 이미 4월에 구글이 에이전트 마켓플레이스를 출시했고, 5월에 마이크로소프트도 에이전트스토어를 선 보였다. 세일즈포스와 서비스나우도 자체적인 에이전트 마켓플레이스를 운영하고 있다. 
  • 내년에 아마존에서 개봉할 ‘인공(Artificial)’이라는 영화가 준비 중이라고 퍽(Puck)이 보도했다 (사실 헐리우드 리포터 등에서 이미 언질이 나왔다). 샘 올트먼의 ‘소셜 네트워크’ 버전일 수 있는데 중심 인물은 일리야 수츠케버라고 한다. 러시아 출신 배우 유라 보리소프가 일리야 역을 맡는다고 하며 ‘콜 미 바이 유어 네임’의 감독 루가 구아다니노가 연출을 맡을 것이라고 한다. 
일리야 수츠케버 역할을 맡은 유라 보리소프(Yura Borisov in Anora, 2024)

관련 글

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다