기사 공유하기

하드웨어와 소프트웨어의 관계는 늘 상호적이다. 마이크로소프트가 새로운 운영체제를 내놓을 때마다 더 빠른 컴퓨터가 보급됐고, 게임에 적용될 새로운 화면 연출은 엔비디아의 차세대 그래픽카드의 처리 기술을 바탕으로 했다. 그리고 그 구조는 비교적 단순하게 ‘성능’ 그 자체로 연결되는 경우가 많았다.

컴퓨터, 그리고 컴퓨팅의 진화 방향을 한 마디로 설명하자면 ‘성능’이다. 같은 시간 동안 더 많은 연산을 하는 컴퓨터가 좋은 컴퓨터였다. 지금도 그 가치는 변하지 않았지만, 그 길로 가는 방향성은 달라지고 있다. 이번에 인텔이 내놓은 데이터센터용 프로세서 ‘제온 스케일러블 프로세서’는 그 변화를 그대로 품고 있는 반도체다. 서비스에 맞추는 반도체 시대가 열리는 것이다.

반도체, 미세공정과 작동 속도의 시대

더 빠른 컴퓨터의 기준은 뭘까? 초기 PC가 보급될 때 컴퓨터의 기준은 ‘몇 헤르츠(Hz)’였다. “그 컴퓨터 몇 메가헤르츠(MHz)에 몇 메가바이트(MB)에요?”라고 묻는 게 곧 컴퓨터의 가치를 매기는 최선의 방식이었다. 그러니까 더 빠른 프로세서와 더 큰 하드디스크 저장공간이 중요했다.

1990년대 후반은 PC 시장의 급격한 성장이 있기도 했지만 반도체 업계로서는 영원히 마르지 않을 것 같던 반도체 공정의 마법에 빠져들었던 시기다. 컴퓨터의 성능을 가르는 기준은 작동속도에 절대적으로 영향을 받았는데, 그 작동속도를 올리는 방법은 비교적 단순했다. 미세공정을 개선하는 것이다.

그러니까 반도체를 이루는 회로의 두께를 얇게 만드는 것인데, 회로가 얇아지고 작아지기 때문에 데이터를 옮기는 전자가 이동하는 속도가 빨라지고, 마찰열도 줄어든다. 회로의 전체적인 크기가 줄어들면서 똑같은 반도체 다이(Die) 위에 더 많은 트랜지스터를 압축해 넣을 수도 있다. 초기 몇 MHz대에서 움직이던 x86 프로세서는 80486과 펜티엄 프로세서를 통해 100MHz의 벽을 뚫었고, 2000년 봄 AMD는 처음으로 1GHz라는 기록적인 수치를 기록했다.

클럭은 그 자체로 성능의 기준이자 최고의 마케팅 수단이었고, 이를 끄집어내주는 수단은 반도체 미세공정이라는 도깨비 방망이였던 셈이다. 2000년을 즈음해서는 인텔과 AMD의 경쟁이 극에 치달으면서 자고 나면 몇 십 MHz씩 더 높은 프로세서가 쏟아졌다.

인텔의 펜티엄4는 막대한 작동속도가 만들어내는 열과 전력 소비와 함께 실패로 마무리됐다. 그리고 컴퓨터 작동속도가 전부는 아니라는 값비싼 교훈을 남겼다.
인텔의 펜티엄4는 막대한 작동속도가 만들어내는 열과 전력 소비와 함께 실패로 마무리됐다. 그리고 컴퓨터 작동속도가 전부는 아니라는 값비싼 교훈을 남겼다.

아예 인텔은 펜티엄4를 내놓으면서 직접 성능을 높이는 게 아니라 작동 속도 자체를 올릴 수 있는 설계 구조를 내놓으면서 순식간에 2GHz를 넘어 3GHz 시대를 열었다. 이것이 그 동안 우리의 컴퓨터 환경을 지배해 온 가장 큰 프레임이다.

하지만 이 구조는 당연하게도 한계가 있었다. 미세 공정은 모든 문제를 해결해주는 마술이 아니었고, 펜티엄4는 결국 그 막대한 작동속도가 만들어내는 열과 전력 소비와 함께 실패로 마무리됐다. 대신 컴퓨터에게 작동속도가 전부가 아니라는 값비싼 교훈을 남겼다.

속도만큼 중요한 ‘처리량’, 병렬 컴퓨팅의 시대

결국 컴퓨터에게 필요한 건 얼마나 많은 연산을 빨리 처리하느냐인데, 그건 꼭 CPU 하나로 해야 할 일은 아니었다. 변화는 꽤 많은 곳에서 이미 시작되고 있었다.

1990년대 중반, 게임 시장은 2D 그래픽에서 3D로 넘어갈 채비를 했다. 컴퓨터는 3D처럼 보이는 것이 아니라 실제로 3D 좌표를 계산해야 했다. 3D 그래픽을 이루는 기본 요소는 폴리곤인데, 컴퓨터가 감당할 수 있는 폴리곤의 숫자가 많아질수록 그래픽이 더 정교해진다. 당연히 이는 CPU만으로 처리하기 쉽지 않다. 수많은 그래픽 요소들을 그려내는 데에는 전용 가속기, 그러니까 그래픽 프로세서인 GPU가 필요했다.

GPU는 자그마한 병렬 컴퓨터다. 삼각형 폴리곤을 그리는 단순한 연산 처리를 수십, 수천 개의 작은 처리장치로 나누는 것에서 출발한 GPU는 점차 더 많은 효과들을 처리할 수 있게 됐고, 이제는 빛과 물리연산 등 그 역할이 늘어났을 뿐 아니라 머신러닝의 도구로 주목받고 있다.

PC도 변화한다. 마냥 끌어올릴 수 있던 것 같던 CPU의 성능이 작동속도의 한계에 가로막히자 CPU 업계는 속도보다 효율성을 높이고, 처리량을 늘리는 방법을 고민한다. 그러면서 작동 속도를 낮추는 것이 새로운 트렌드로 자리잡기 시작한다.

듀얼코어, 혹은 쿼드코어 프로세서가 바로 그 다음 단계다. 이제는 당연한 환경이 됐지만 초기에는 병렬 컴퓨팅에 대한 이해도, 환경도 갖춰지지 않았다. 3GHz로 작동하는 듀얼코어 프로세서를 ‘6GHz 프로세서’라고 설명하는 광고가 있었을 정도다.

컴퓨터 인터넷

이 병렬 컴퓨팅은 클라우드 컴퓨팅의 발전으로 급격히 성장하게 됐다. 여러 개의 코어를 넘어 CPU, 혹은 컴퓨터를 하나의 환경으로 묶어주는 클라우드 컴퓨팅은 인터넷의 대중화와 밀접한 관계가 있다. 인터넷 사용량이 늘어나고, 스마트폰과 고품질 스트리밍 콘텐츠 시장의 확대는 막대한 인터넷 트래픽을 끌어냈다. ‘트래픽 폭발’이라는 말이 일반화됐을 정도다.

급격히 늘어나는 수요에 대응할 수 있는 방법으로 클라우드 컴퓨팅이 주목받기 시작했고, 낭비되는 시스템 자원을 알뜰하게 끌어 쓰는 용도로도 클라우드가 주목받았다. 그리고 특정 기능을 전용 하드웨어처럼 가상으로 처리하는 기술도 주목받았다. 이제 컴퓨터는 혼자 무엇인가를 전부 처리하지 않는 시대가 됐다. 세계가 하나로 연결되는 네트워크가 본격적으로 시작된 것이다.

서비스 끌어안는 반도체 기술

인텔은 스마트폰 시대가 열리면서 가장 많이 덕을 본 회사다. 늘어나는 모바일 트래픽은 데이터센터의 수요를 급격히 늘렸고, 스마트폰이 10대 팔리면 인텔 서버가 1대씩 팔린다는 이야기까지 나왔다. 하지만 시장은 더 많은 것들을 요구하기 시작했고, 급기야 늘어나는 인터넷 트래픽에 유연하게 대처할 수 있는 네트워크 가상화 기술까지 고민했다.

2017년에 등장한 인텔의 제온 프로세서는 많은 컴퓨터를 연결하기 쉽고, 네트워크 가상화나 머신러닝 시스템에 최적화된 프로세서다.
2017년에 등장한 인텔의 제온 프로세서는 많은 컴퓨터를 연결하기 쉽고, 네트워크 가상화나 머신러닝 시스템에 최적화된 프로세서다.

2017년에 등장한 인텔의 제온 프로세서는 많은 컴퓨터를 연결하기 쉽고, 네트워크 가상화나 머신러닝 시스템에 최적화된 프로세서다.

인텔 역시 기존처럼 프로세서의 성능을 높이는 것으로 더 나은 데이터센터 환경을 만들어 왔지만, 2017년 등장한 제온 프로세서는 정 반대의 접근을 한다. 빠른 프로세서를 만들면 소프트웨어와 서비스가 이를 활용해 결과물을 만들어내는 게 이제까지의 일반적인 컴퓨팅 환경이었다면 다음 세대의 환경은 용도를 미리 정하고, 그에 맞는 반도체 기술이 더해진다.

새 제온 프로세서는 공정이나 반도체 구조 면에서도 개선이 있었지만, 네트워크 패킷과 병렬 처리에 최적화되어 있다. 코어와 코어, 혹은 서버와 서버 연결이 수월하도록 데이터 버스의 속도를 높였고, 데이터들이 여러 개 코어를 오가는 동안 지연되지 않도록 구조적인 설계를 바꿨다.

최근 데이터 처리의 핵심 기술로 꼽히는 벡터 연산을 위해 512비트로 AVX를 처리하고, 데이터 암호와 압축 속도를 비약적으로 높여주는 QAT(QuickAssist Technology)나 데이터 패킷을 하드웨어 라우터 수준으로 빠르게 처리하는 DPDK(Data Plane Development Kit) 등이 더해진다.

DPDK
많은 컴퓨터를 연결하기 쉽고, 네트워크 가상화나 머신러닝 시스템에 최적화된 프로세서인 셈이다. 이는 단지 시장이 원하는 기술을 얹는 상품화에 대한 문제를 떠나 기존과 전혀 다른 접근이다. 여전히 제온 프로세서는 x86 기반의 범용 프로세서다. 하지만 이 CPU를 묶고 사용하는 방법이 변화하면서 몇 가지 기능에 특화되는 요소들을 품고 있다. 그 뒤에는 5G 네트워크, 머신러닝, 자율주행차량 등 뜨거운 이슈가 있지만, 결국 그 지향점들이 모이는 건 가상화, 보안, 패킷 처리 등으로 쏠린다.

이전에는 프로세서는 그저 정해진 연산만 처리했고, 특정 요소가 필요하면 별도의 하드웨어를 이용하는 게 일반적이었다. 어떻게 보면 소프트웨어와 서비스가 하드웨어의 한계 안에서 기술을 짜냈다면 이제는 반대로 반도체가 그 기술들을 하드웨어로 직접 받아들이는 것이다. 최근 등장하는 LTE 기술이나 5G 통신기술은 전용 하드웨어만큼이나 가상의 네트워크 기기들에 대한 의존도가 높아지고 있다. 그게 별도의 칩뿐 아니라 해당 기술을 흡수하는 범용 프로세서들의 변화와 이어지고 있다. 노키아와 에릭슨이 인텔의 x86 기반 서버 기술을 고민하는 것도 이런 이유에서다.

오는 15일 마지막 5국을 앞두고 있다. 이세돌 9단의 제안에 따라 이번엔 이세돌 9단이 흑번을 잡을 예정이다.
2016년 3월, 전 세계의 이목을 집중시킨 이세돌 9단 대 구글 알파고와의 대국.

기술을 끌어안는 반도체 기술은 꼭 제온 프로세서만의 일은 아니다. 특정 기능을 최적화하는 FPGA 기술은 구글의 알파고가 ‘TPU(Tensor Processor Unit)’로 익숙한 기술이 됐다. 구글은 고성능 프로세서 외에 이 가벼운 고성능 반도체로 세계 바둑계를 평정했다. 새로운 기술에 반도체의 높은 처리 성능이 요구된다는 기본은 이전과 같지만, 그 과정이나 업계가 반응하는 방법은 부쩍 달라지고 있다. 모바일 인터넷과 클라우드 컴퓨팅이 낳은 컴퓨터 환경의 변화는 반도체 기술까지 흔들어놓고 있다.

[divide style=”2″]

키사 KISA 리포트

관련 글