첫째, 학습 데이터를 긁어들여 보관할 때, 둘째, 그 데이터를 기계가 학습할 때, 셋째, 그 학습한 결과를 서비스로 내놓을 때, 저작권 침해 이슈가 발생한다.
박경신(고려대 교수)는 첫째와 둘째는 공정 이용에 해당한다고 본다. 웹 크롤링에 돈을 내지 않는 것과 마찬가지다. 셋째의 경우도 복제가 아니고 현출의 우연성이 입증된다면 공정 이용에 해당할 수 있다고 본다.
“합리적인 저작권 운용으로 정보력에 평등한 공유가 지속돼야 한다”는 다소 과격한 주장이다.
2023년 04월10일.
인공 지능 번역, 관건은 문맥.
조선일보가 번역가들에게 물어봤다.
책 한 권 번역하는데 5개월~1년이 걸리는데 AI 번역은 정확도는 떨어지지만 그 시간을 줄일 수 있다. 독자들이 크게 신경 쓰지 않을 거란 이야기다.
대체하지 못할 거란 의견 가운데 “문학은 기존 지식을 위반하고 세상을 보는 새 시야를 여는 창조 활동이라 AI 번역에는 한계가 있을 수밖에 없다”(김화영)는 지적도 있고 “누구에게나 맡겨도 똑같이 나오는 게 아닌 번역이 좋은 번역”이라면서 “결국 장인 정신을 가진 번역가만 살아남을 것”(노승영)이란 전망도 있다. “번역가의 도구로서 쓸모 있다”(강동혁)는 실용론도 있다.
2023년 04월17일.
AI 면접, 조커처럼 표정 박제하고 웃어라?
한국일보 기자가 모의 면접을 봤더니 “합격 가능성은 16%, 하위 1%”라는 답변이 나왔다. 머리 움직임이 산만하고 무표정이 많다는 이유에서다. AI 면접에 대비한 면접 컨설팅은 4시간에 65만 원을 받는다.
문제는 왜 그런 판단을 내렸는지 설명할 수 없다는 데 있다. 머신러닝의 결과일 뿐 왜 내가 떨어졌는지에 대해 회사는 아무런 근거를 제시할 수 없다. AI 면접을 거부할 권리가 필요하다는 지적도 있지만 현실적으로 의미가 없다.
AI 면접 시스템을 만드는 업체의 설명에 따르면 이 회사는 사람 면접관의 점수표를 학습하는데 사람 면접관이 했을 때보다 공정성과 객관성이 높다고 주장한다. 주장은 주장일 뿐 학습 데이터가 충분한지 의문이다. 면접관 성비를 배려하는 것만으로는 설명이 부족하다.
장여경(정보인권연구소 이사)은 “현재의 채용 AI는 AI가 공정한 결정을 내리고 있는지 혹시 편향적 결정을 내리지는 않는지 이런 객관적인 검증을 거치지 않았다”면서 “AI라는 도구가 있으면 결정권자는 책임을 미루게 되고 의사결정이 종속될 수 있다”고 지적했다.
2023년 04월18일.
AI 카메라로 남자 감별?
방혜원(군인권센터 활동가)은 170cm의 키에 짧은 머리로 화장실에 갈 때마다 남성으로 오해 받는다. 일부러 여성스러운 목소리로 전화를 받으면서 들어가는 스킬을 시전한다. 할머니가 쫓아와서 화장실 문을 열어 젖힌 적도 있었다고.
지하철역 화장실에 AI 성별 분석 프로그램을 시범 운영한다는 기사를 보고 허망함에 사로 잡힌 것도 이런 이유에서다. “인공지능이 나를 여성으로 감지할 수 있을까. 급하게 뛰어들어간 화장실에서 ‘남성의 출입을 금지합니다’라고 하면 나는 그 자리에서 지려야 하나.”
2023년 04월25일.
딥러닝 대부의 구글 탈출.
제프리 힌튼이 사표를 냈다. 하고 싶은 말을 하기 위해서라고 했다.
“AI가 살인 로봇으로 변할 날이 두렵다”는 말을 했다.
2023년 05월02일.
제프리 힌턴의 후회, “무서운 상황이다.”
딥러닝의 아버지로 불렸던 사람, 구글을 그만두고 나와 뉴욕타임스와 인터뷰를 했다.
“핵보다 무서운 게 AI”라며 “내 삶을 후회한다”고도 했다.
글로벌 규제가 필요한데 불가능할 것이고, “최선의 희망은 과학자들이 기술을 통제하는 방법을 찾기 위해 협력하는 것”이라고 주장했다.
국제원자력기구(IAEA)처럼 AI 개발을 감시하는 글로벌 비영리 기구를 만들어야 한다는 주장도 나온다.
최신 정보와 정확성은 구글이 압도적인 우위, 게다가 무료다. 창작 영역에서는 챗GPT가 낫다는 평가도 나온다.
2023년 05월12일.
뉴진스 노래를 브루노 마스가 부른다면?
그런데 그 노래가 AI가 만든 거라면? 페이크 송(fake song)의 쟁점은 두 가지다. 권리 침해를 어떻게 보상할 것인가. 그리고 저작권을 어디까지 인정할 것인가.
유튜브 조회수가 2주 만에 87만을 넘겼다.
한겨레 기사도 딱히 답은 없다. 뉴진스가 이 유튜버에게 소송을 제기할 수는 있다. 저작권은 인정되지 않는다. 다만 저작권을 인정 받지 못해도 유튜브에 올려서 돈 벌 수는 있다. 뉴진스나 브루노 마스가 손해 배상을 청구할까. 안 할 가능성이 크다.
2023년 05월15일.
구글 바드가 한국어를 가장 먼저 지원한 이유?
순다르 피차이(구글 CEO)가 말했다. 영어는 기본이고, 한국어와 일본어를 동시에 지원한다.
“1999년 서울에서 택시를 탄 적 있는데 운전자가 휴대전화 3대를 이용하고 있었던 기억이 강렬하게 남아있다.” “일본에서는 식당 반대 편에서 두 손님이 내가 도저히 따라 갈 수 없는 속도로 문자를 주고 받았다.” 그래서 기술에 역동적인 나라라고 생각하게 됐다는 이야기다.
서울대에서는 반드시 챗GPT를 활용하고 답변 가운데 틀린 내용을 찾으라는 시험 문제가 나오기도 했다.
2023년 05월17일.
챗GPT가 만든 하이볼.
GS25가 내놓은 ‘아숙업 레몬 스파클 하이볼’은 챗GPT에 최적의 하이볼 레시피와 디자인을 물어봐서 만든 제품이다.
아숙업은 챗GPT 기반의 카카오톡 채널 ‘AskUP’의 애칭이다. AI가 추천한대로 알코올 도수는 5.5도에 민트와 노란색을 섞은 디자인으로 만들었다.
2023년 05월17일.
AI 여친, 이용료는 1분에 1달러.
스냅챗 팔로워 180만 명을 보유한 여성 인플루언서가 자신의 목소리와 성격, 말투 등을 2000시간 이상 학습시켜서 대화형 서비스를 내놓았다.
10주 만에 1억3000만 원을 벌었는데 월 67억 원까지 매출을 늘릴 수 있을 거란 전망도 나온다.
2023년 05월17일.
챗GPT CEO도 “정부 규제 필요하다.”
미국 의회 청문회에서 흥미로운 장면, 위원장이 개회사를 하는데 입을 닫고 있다. 알고 보니 챗GPT가 위원장의 과거 발언을 학습하고 음성 복제 소프트웨어가 대신 낭독을 했다.
새뮤얼 울트먼 오픈AI CEO는 “AI가 잘못되면 모든 것이 잘못될 수 있다”면서 정부가 AI 서비스를 허가제로 바꾸고 검증과 감독 조직을 만들어야 한다고 주장했다. 오픈AI가 시장을 선점하려는 의도라는 불편한 시각도 있다.
인공지능이 스스로 추론하고 성장하기 시작했다는 분석도 나왔다. 과학자들이 AI에게 계란 9개와 노트북 컴퓨터, 책, 유리병, 못을 주고 안정적으로 쌓아 올리라고 지시했더니 “책 위에 계란 9개를 가로세로 3줄씩 늘어세운 뒤 노트북을 올려놓으면 된다”고 답변했다. “논문 형식을 취한 대기업의 자사 광고”라는 비판도 있었다.
미국에서도 내년 대선 때 AI가 여론 조작에 활용될 가능성을 우려하는 목소리가 늘어나고 있다. 동아일보는 네이버와 카카오가 ‘트렌드 토픽’과 ‘투데이 버블’ 등 검색 키워드 서비스를 베타 테스트하고 있는 것과 관련 “조작된 정보의 어뷰징에 악용될 수 있다”고 지적했다.
AI 삼국지 게임이 인기다. 한국의 국무총리가 누군지 물었더니 바드와 빙은 맞췄고 챗GPT는 틀렸다.
구구단을 만드는 파이썬 코드를 만들어 달라고 했더니 셋 다 만들었다.
조크는 셋 다 낙제점.
2023년 05월23일.
“펜타곤에 폭발”, 가짜 뉴스로 주가 출렁.
인공지능 엔진으로 만든 가짜 사진이었다.
불룸버그 기사로 잘못 알고 퍼나른 사람들이 많았다.
“made by AI”를 표시하게 해야 한다는 주장도 나온다. 미국과 EU도 규제안을 검토하고 있다.
AI로 AI를 잡는 기술도 등장했지만 아직 완벽하지는 않다는 평가가 많다. GPT제로는 85%로 텍스트를 판별한다. 350만 달러 투자를 유치했다. 옵틱은 90% 확률로 미드저니 그림을 판별한다.
2023년 05월24일.
대통령과 중소기업인 만찬 메뉴는 ‘롸버트 치킨’.
로봇이 튀긴 치킨과 AI가 자동 조리한 피자가 나왔다.
2023년 05월24일.
AI 번역 수준은 40% 미만.
한국문학번역원 주최 토론회에서 나온 이야기다. “어휘와 문법, 화용론, 문체론, 문화적 층위 등에서 복합적으로 번역 오류가 나타났다”는 게 전혜진(중앙대 교수)의 분석이다.
주어를 혼동하는 경우가 많았고 “김칫국을 마신다” 같은 관용구를 직역하는 오류도 많았다. 문학 작품의 경우 어차피 인간이 다시 번역을 해야 하기 때문에 시간 낭비에 가깝다는 평가가 지배적이다.
2023년 05월26일.
“내 목소리 복제해도 됩니다.”
그라임스라는 가수가 목소리를 오픈 소스로 풀었다. 저작권을 주장하지 않을 테니 AI로 가공하고 상업적으로 성공하면 로열티의 50%를 달라는 조건이었다.
일론 머스크의 여자친구였고 자녀를 둘 두고 있다.
뉴욕타임스에 따르면 이렇게 만든 음악이 1주일도 안 되는 동안 300곡 이상 쏟아졌다.
2023년 05월30일.
요즘 마약보다 구하기 힘들다는 그것.
일론 머스크의 말이다. 엔비디아 시가총액이 1조 달러를 넘어섰다(개장 전 거래 기준). 세계 GPU 시장의 90%를 차지하는데 주문이 6개월 이상 밀려 있다.
2010년대 초부터 스탠퍼드대에서 그래픽 카드를 그래픽이 아닌 다른 용도로 쓴다는 소문이 들렸다. 하나의 계산이 끝난 뒤에야 다른 계산을 하는 CPU와 달리 GPU는 동시 다발적인 연산이 가능했기 때문. 엔비디아는 일찌감치 AI에 회사의 미래를 걸었다. 이영태(한국일보 논설위원) 칼럼. “독보적인 초격차 기술이 없으면 조연으로 떨어지는 건 순식간일 수도 있다”는 이야기다.
한 의원이 이런 말을 했다고 한다. “옛날엔 현장 기자들이 수첩에 중요한 말만 적었기 때문에 각 매체 기자들이 사실상 ‘1차 데스크’였는데 요즘은 그냥 처음부터 끝까지 워딩을 다 치더라. 어차피 인터넷 속보 경쟁 기사들은 다 똑같던데 불필요하게 그걸 왜 하는지 모르겠다.”
다른 한 의원이 이런 말도 했다. “중국 국영매체 본사에 가보니 스트레이트 기사는 다 인공지능이 쓴다고 한다. 중국 공산당대회를 하면 인공지능이 참석자들의 얼굴과 목소리를 인식해서 거의 완벽한 기사를 쓰기 때문에 기자들은 그 시간에 다른 현장을 찾아 독창적인 기사를 쓴다더라. 한국 기자들은 맨날 국회 땅바닥에 앉아서 뭘 치고 있으니까 시야가 좁아지는 것 같다.”
“여의도 워딩 기계”로 살고 있다는 선담은(한겨레 기자)은 이런 질문을 남겼다. “팩트체크 없이 현안에 대한 정치인의 워딩을 중심으로 쓰는 ‘막말·공방 기사’의 경우 언젠가 인공지능이 사람을 대신해 기사를 작성하는 날이 오지 않을까.”
2023년 06월23일.
로봇 지휘자, 리액션이 아쉬웠다.
사람 지휘자의 모션 캡처를 따라할 뿐이었다. 청음 기능이 없어 즉석에서 음의 강약과 빠르기에 반응하지 못했다.
한국일보 기사는 구체적으로 짚지 않았지만 해외에서는 AI 판단에 차별이나 편견이 개입돼 논란을 빚기도 했다.학력이 낮거나 소득이 적을 경우 재범 확률이 좀 더 높게 나타나는 경우도 있고 통계적으로 부당하게 불이익을 보는 경우도 있을 수 있다. 경찰은 아직은 초기 구상 단계라고 설명했다.
2023년 08월28일.
빅테크 CEO들의 제안, “우리를 규제해 달라.”
“AI에 대해 우리는 반응적(reactive)이 아닌 적극적(proactive)인 행동을 취해야 한다.” 일론 머스크(테슬라 CEO)의 말이다. “자율주행차에 대해 걱정할 것이 아니라, ‘더 깊은 AI’에 대해 우려를 집중해야 한다”고도 했다.
한국은 응급실을 찾아 떠돌다가 환자가 죽는 일도 많지만 호주에서는 원격 진료 시스템으로 지역의 의료 공백을 메우고 있다. 인공지능이 환자의 상태를 분석하고 이상 상황을 감지한다.
한국에서도 원격 중환자실이 시범 사업에 들어갔다.
2023년 10월27일.
호주 원격 중환자실 ‘HIVE'(Health in a Virtual Environment) 시스템. 사진은 코-하이브 노인 케어 서비스 운용 모습. Royal Perth Hospital 제공.
저작권 방어용 ‘독물’ 뿌린다.
인공지능이 창작물을 무더기로 긁어가면서 비용을 지불하지 않는다는 지적이 있었다. MIT테크놀로지리뷰에 따르면 ‘나이트쉐이드(Nightshade)’라는 이름으로 AI의 보안 취약점을 공격하는 새로운 저작권 보호 도구가 등장했다. 의도적으로 오염된 샘플을 집어넣어 AI의 학습 결과를 망가뜨리는 전략이다.
스테이블디퓨전에 50개의 오염된 이미지를 집어넣은 다음 개를 그려달라고 했더니 팔 다리가 뒤엉키기 시작했고 300개를 집어넣었더니 고양이처럼 보이는 개를 그리기도 했다.
비탈리 슈마토코프(코넬데 교수)는 “머신러닝 모델에 대한 공격은 시간 문제”라고 지적했다. MIT테크놀로지리뷰는 “정당한 로열티를 지급하는 등 아티스트의 권리에 신경을 써야 할 것”이라고 지적했다. 이 신문이 인터뷰한 한 아티스트는 “우리의 동의 없이 우리의 작업을 가져가면 전체 모델이 무너질 수 있기 때문에 다시 한 번 생각하게 될 것”이라고 말했다.
2023년 10월30일.
43년 만에 살아난 비틀즈의 신곡.
존 레넌의 데모 테이프를 인공지능이 살려냈다. 음질이 좋지 않았는데 피아노 소리와 존 레논의 목소리를 떼어냈고 여기에 1995년 조지 해리슨의 기타 연주를 덧붙이고 폴 메카트니와 링고스타가 백그라운드로 함께했다.
“Now and Then.” 비틀즈 ‘완전체’의 마지막 노래다. 비틀스의 신곡 발표는 1996년 이후 27년 만이다. 30대의 존 레논과 80대의 폴 메카트니가 함께 부르는 노래다.
“내가 이겨낸다면 그건 모두 너의 덕이지. 가끔 네가 그리울 거야. 가끔은 네가 내 곁에 있어 주었으면 해. 항상 내게 돌아와 줬으면 해.”
2023년 11월07일.
“우리는 초능력을 갖게 될 것이다.”
‘넘사벽’ GPT가 아이폰 모멘트(iPhone moment; 특정 기술이 대중에게 수용되고 시장 패러다임이 바뀌는 순간. 아이폰 등장으로 휴대전화 패러다임이 바뀐 것에 비유한 표현.)를 지났다는 평가가 나온다. 아이폰의 혁신 이상의 변화가 올 거라는 이야기다. 오픈AI가 개발자 대회에서 밝힌 GPT의 차기 버전을 공개했다. 워싱턴포스트는 “애플의 초기 아이폰 출시 행사를 떠올리게 한 장면”이라고 했다.
누구나 자신만의 챗봇을 만들 수 있고 GPT 스토어에 올려놓고 판매하는 것도 가능하다. GPT-4터보는 300페이지까지 입력이 가능해서 책 한 권을 통째로 올려놓고 이 텍스트를 기초로 대화를 이어 나갈 수 있다.
사티아 나델라(마이크로소프트 CEO)는 “지난 30년의 인프라 스트럭쳐 비즈니스를 완전히 바꿨다”고 평가했다.
쿠데타를 주도했던 일리야 수츠케버가 뒤늦게 “이사회의 결정에 참여한 것을 깊이 후회한다”면서 “회사를 재결합하기 위해 최선을 다할 것”이라는 글을 남긴 것도 눈길을 끈다. 올트먼이 이 트윗을 리트윗했다.
2023년 11월21일.
“내가 이걸(방문증) 착용하는 건 이번이 처음이자 마지막이다.”(샘 올트먼) 오픈AI에서 축출된 후 19일 방문객 전용 오픈AI 건물 출입증을 들고 셀타를 찍어 자신의 X(트위터) 계정에 올렸다. 2023년 11월 19일(현지 시각). 샘 올트먼 X 계정.올해 6월 텔아비브 대학교에 방문한 샘 올트먼(왼쪽)과 일리야 수츠케버(오픈AI 수석 사이언티스트, 오픈AI 공동설립자). 수츠케버는 이 자리에서 “통제할 수 없는 AI를 구축하는 건 큰 실수”라고 말했다. 2023년 6월 23일. ynetnews.
일요일 아침 샘 올트먼이 방문자 출입증을 들고 셀카를 찍을 때만 해도 화려하게 복귀하는 것 아니냐는 관측이 지배적이었다. 그런데 이사회는 “올트먼을 해임하는 게 조직의 사명을 발전시키는 데 필요하다”고 판단했다.
오픈AI는 명백한 패자다. 금요일 이전까지만 해도 가장 핫한 회사였고 기업 가치도 뛰어올랐다. 그런데 지금은? 개발 속도를 낮춰야 한다는 사람들이 경영을 장악했고 자금 조달이 무산될 수도 있다. 이사회는 되돌릴 수 있는 기회가 있었지만 고집을 꺾지 않았다. 올트먼을 해고해야만 했던 이유조차 밝히지 않았다.
마이크로소프트 입장에서는 최고의 결과다. 130억 달러를 투자한 회사에 쿠데타가 일어났는데 이틀 만에 진압해 새로운 팀을 꾸릴 수 있게 됐다. 오픈AI 자회사 지분 49%를 소유하고 있었는데 이제 100% 소유할 수 있게 된 거나 마찬가지다.
인공지능 파멸론자(Doomer)들과 ‘효과적인 이타주의자들(Effective Altruists)’도 승자다. 오픈AI를 망가뜨렸다는 비난을 받을 수도 있지만 인공지능의 위험을 경고했고 폭주를 막았다. 대의를 위한 승리라고 할 수 있다.
마이크로소프트를 제외한 투자자들은 닭 쫓는 개 신세가 됐다. 세계 최고의 인공지능 기술 기업에 투자했는데 쿠데타 이후 미래가 불확실하게 됐다.
오픈AI의 경쟁자들은 계산이 복잡하게 됐다. 오픈AI의 직원들을 빼 올 생각에 잠깐 설렜는데 이제 더욱 강력한 마이크로소프트와 경쟁하게 된 상황이다.
2023년 11월21일.
올트먼의 귀환.
멀리 간 것도 아니었다. 금요일에 잘렸다가 일요일에 마이크로소프트에 취업하기로 했다가 모두 없던 일로 하기로 했다.
물론 금요일 이전과 같을 수는 없다. 샘 올트먼의 존재감이 더욱 강력해졌고 자회사 지분 49%를 확보한 마이크로소프트의 영향력도 더 커졌다. 직원 700명 가운데 500명 이상이 올트먼이 돌아오지 않으면 마이크로소프트로 옮겨가겠다는 결의문에 서명했다. 쿠데타를 주도했던 일리야 수츠케버는 후회한다고 밝혔다. 완벽한 올트먼의 승리였다.
챗GPT 사용 여부를 걸러내기 어렵게 되면 아예 자기소개서가 사라질 수도 있다는 전망도 나온다. 고용노동부 설문조사에서는 기업채용 담당자의 65%가 챗GPT 사용이 확인될 경우 감점이나 불합격 등 불이익을 주겠다고 답변했다. 실제로 챗GPT 사용 여부를 판별하고 있다는 답변은 27%에 그쳤다.
2024년 03월26일.
AI로 독거노인 고독사 막는다.
AI(인공지능)가 전기와 수도, 통신 이용량을 체크하고 통화도 한다.
경기도가 지난해부터 시범 서비스를 하고 있다. 한국전력과 통신사 등에서 데이터를 구입해 날마다 위험 단계를 예측하고 상황별로 알림을 받는다. 스마트폰 활동 정보도 취합하기로 했다. 데이터 사용량을 확인하면 예측도를 높일 수 있다는 설명이다
2024년 03월28일.
챗GPT 로그인 없이 무료로 쓴다.
가입 절차를 생략하고 무료로 쓸 수 있게 바꿨다.
지난해 5월 월간 활성 이용자 수가 18억 명을 찍고 주춤한 상태다.
2024년 04월03일.
챗GPT에 질문하면 구글 검색 10배 전력 사용.
구글 검색은 0.3Wh를 쓰는데 챗GPT는 2.9Wh를 쓴다.
미드저니 등 생성형 AI로 이미지 하나를 만들면 거의 스마트폰 한 대를 충전할 분량의 에너지를 쓴다.
2024년 04월24일.
불문과‧독문과 사라진다.
AI 번역이 늘면서 수요가 줄었다고 보기 때문이다. 서울 지역 대학 가운데 처음으로 덕성여대가 불문과와 독문과에 신입생을 받지 않기로 했다. 부산대도 독어교육과와 불어교육과를 없앴다.
4년제 대학 어문학과는 2019년 920곳에서 2023년 750곳으로 줄었고 입학 정원도 1만8451명에서 1만5000명으로 줄었다.
2024년 04월25일.
구글이 언론사에 돈 낸다.
디인포메이션에 따르면 구글은 최근 AI 학습을 위한 데이터 이용 대가로 뉴스코퍼레이션에 연간 500만~600만 달러를 지급하기로 했다. 월스트리트저널과 더타임스, 다우존스 등을 소유한 미디어 그룹이다.
오픈AI는 미국 AP통신과 독일 악셀스프링어, 프랑스 르몽드, 스페인 프리사 등에 이어 영국 파이낸셜타임스와도 파트너십을 체결했다. 오픈AI는 시카고트리뷴 등 언론사들과 저작권 침해 소송을 벌이고 있다.
2024년 05월02일.
루퍼트 머독과 뉴욕에 있는 뉴스코퍼레이션 본사 모습. 각각 위키미디어 공용.
AI 훈련용 데이터 절반이 뉴스.
스트레이츠리서치는 2030년까지 훈련용 데이터 시장이 72억 달러 규모로 성장할 거라고 보고 있다.
워싱턴포스트가 구글의 데이터 세트를 분석했는데 상위 10개 사이트 가운데 뉴욕타임스가 4위, LA타임스가 6위, 영국의 가디언이 7위였다.
디파인드AI에 따르면 사진은 1장에 1~2달러, 영상은 2~4달러, 문서는 1000자에 1달러에 거래되고 있다. 데이터 골드러시라는 말도 나온다.
“AI가 ‘역대급 성장산업(growth industry of all time)’이 될 수 있다”면서 투자 가치를 높이 평가했다. 지난해 주주총회에서는 “AI 기술의 잠재적 위험은 원자폭탄 개발과 매우 유사하다”며 “원자폭탄 개발은 기술적 관점에서 엄청난 진보였지만 피해 역시 엄청났다”고 지적했다.
GPT-4o는 이미지를 읽고 토론하고 시각적 표현에서 감정을 식별할 수 있다. 칭찬을 들으면 “그만 하세요, 얼굴이 빨개지네요”라고 답변하기도 했다. 2013년에 개봉한 영화 ‘그녀(Her)’의 사만사를 보는 것 같다는 평가가 쏟아졌다. 종이에 수학 문제를 써서 보여주면 풀이 방법을 알려주기도 했다.
구글이 검색 결과를 링크로 내보내지 않으면 어떻게 될까. 워싱턴포스트는 “인터넷이 작동하는 방식을 영원히 바꿀 것”이라고 평가했다. 구글은 “개방형 웹을 손상시키고 싶지 않다”면서 “여전히 웹사이트로 트래픽을 보내는 것이 우선”이라고 강조했다. 워싱턴포스트는 “이용자들은 AI의 답변을 끌 수 있는 옵션이 없다”고 지적했다.
검색 시장의 패권을 놓치지 않으려는(검색의 개념을 바꾸려는) 구글과 검색의 대안을 제안하고 있는 오픈AI의 경쟁이 더욱 치열해질 거라는 관측이 나온다.
2024년 05월16일.
수도 검침도 AI로.
서울시가 2040년까지 2700억 원을 들여 모든 계량기를 사물인터넷(IoT) 기반의 디지털 계량기로 교체한다는 계획이다. 뉴욕과 파리 등을 벤치마킹했다.
서울시의 수도 계량기는 모두 227만 대. 검침원 352명이 집집마다 찾아 직접 이용량을 확인한다. 검침원 1명이 한 달 평균 3000대, 하루 100대 이상을 검침해야 한다.
동파 사고를 막을 수 있고 누수도 조기에 확인할 수 있다. 수돗물 빅데이터를 활용해 독거노인과 중증 장애인 등의 복지에도 활용할 수 있다. 독거 노인 가구에 수돗물 사용량이 갑자기 줄어들 경우 119를 출동시키는 등의 발빠른 대응이 가능하게 된다.
2024년 05월17일.
AI가 내 목소리를 훔쳐 갔다.
스칼렛 조핸슨(요한슨)은 챗GPT의 최신 버전 GPT-4o를 테스트해 보다가 깜짝 놀랐다고 한다. 자기 목소리와 너무 비슷했기 때문이다. 조핸슨은 영화 ‘그녀(Her)’에서 인공지능 ‘사만다’ 역할을 맡았던 배우다.
조핸슨이 공개한 입장문을 보면 챗GPT 개발사 오픈AI가 지난해 조핸슨을 고용하고 싶다고 제안했고 많은 고민 끝에 거절했다. GPT-4o의 여러 목소리 옵션 가운데 ‘스카이’는 누가 들어도 조핸슨과 비교하기 어려울 정도로 비슷했다. 조핸슨은 “충격을 받고 분노했다”고 했다.
오픈AI는 처음에는 부인했지만 결국 스카이를 옵션에서 제외했다. 샘 올트먼(오픈AI CEO)은 “조핸슨에게 연락하기 전에 스카이 목소리의 성우를 캐스팅한 상태였다”면서 “조핸슨을 존중하는 차원에서 스카이를 중단했다”고 말했다.
2024년 05월22일.
AI 기반 생체 정보 인식 금지된다.
유럽연합의 AI 규제법이 승인됐다. 인공지능 기술을 네 단계로 나누고 위험도가 높은 2개 등급은 전면 금지하거나 엄격히 규제하기로 했다.
생성형 인공지능으로 만든 콘텐츠는 별도로 표시하고 저작권 위반을 방지하는 장치도 마련해야 한다.
한국은? AI 관련 법안이 여럿 있지만 모두 폐기되고 22대 국회로 넘어갈 상황이다.
2024년 05월23일.
진범이 경찰에게 제시한 가짜 면허증 속 사진(왼쪽). 미국 경찰 안면인식 인공지능(AI) 오류 때문에 절도범으로 몰린 시민 니지어 파크스 씨(오른쪽). 각각 메일온라인 캡처·파크스 변호사 제공.
오픈AI, 뉴스코프에 5년 동안 3400억 원 준다.
AI 학습용으로 뉴스콘텐츠를 구입하기로 했다. 뉴스코퍼레이션은 월스트리트저널과 마켓워치, 배런스, 뉴욕포스트 등을 소유한 미디어 그룹이다.
오픈AI는 AP통신과 폴리티코, 비즈니스인사이더, 프랑스의 르몽드, 스페인의 프리시 등과도 제휴를 맺었다.
2024년 05월24일.
루퍼트 머독과 뉴욕에 있는 뉴스코퍼레이션 본사 모습. 각각 위키미디어 공용.
생성형 AI는 ‘돈 먹는 하마’.
아마존과 메타(페이스북), 마이크로소프트, 알파벳(구글) 등 빅테크 기업들이 올해 AI 데이터 센터 구축 등에 쓴 돈이 2000억 달러(약 273조 원)에 이를 거라는 전망이 나왔다. 지난해보다 35% 늘어난 규모다.
마이크로소프트는 올해 GPU(그래픽처리장치)를 180만 대 구입할 계획인데 지난해보다 세 배 늘어난 규모다. CNBC는 “비즈니스의 성공으로 치자면, AI 모델을 구축하려는 기업들이 GPU를 너도나도 낚아채려고 하는 엔비디아가 가장 큰 승자”라고 지적했다.
경향신문에 따르면 네이버와 카카오는 상대적으로 보수적인 접근을 하고 있다. 네이버 GPU 구입 비용을 지난해 1500억 원에서 올해 2500억 원으로 늘린다는 계획이다. 카카오는 500억 원 규모다.
정신아(카카오 대표)는 “시장의 관심은 AI 모델 자체보다는 이를 활용해서 성공적으로 수익화할 수 있는지에 있다”면서 “AI 투자가 재무건전성을 해치거나 수익성을 해치지 않도록 균형점을 찾아야 한다”고 말했다.
2024년 05월29일.
AI 법률 상담은 변호사법 위반?
대륙아주가 ‘AI 대륙아주’라는 법률 상담 서비스를 내놨다가 변호사법 위반 혐의로 조사받고 있다. 1만여 개의 질문과 모범 답안을 학습시켰다고 한다.
대한변협은 세 가지 문제가 있다고 본다. 첫째, 변호사가 아닌데 변호사 업무를 하면 안 된다. 둘째, 광고를 노출하면 광고 규정 위반이다. 셋째, 개인 정보 활용도 문제다. 결국 밥그릇 싸움이라는 관측도 있고 제2의 로톡 사태로 가는 것 아니냐는 우려도 있다.