[캡:콜드케이스] AI는 다양한 영역에서 인간을 돕는다. 인간은 점점 더 AI에 기댈 것이다. 하지만 AI에 기댈 수 없는 것들도 있다. 마지막까지 남은, 남아야 할 인간의 영역에 관하여. (⏰13분)
여는 말: 시대의 공기
한 소설가는 “그 시대의 공기”를 자신의 책에 담아내고 싶다고 말했다(‘노르웨이의 숲’, 1987). 어떤 책은 정말 그 시간과 공간, 그때 거기 살던 인간의 숨결을 그 속에 담아낸다. 최근 ‘부활'(1899)을 읽었다. 기대가 너무 컸던 탓인지, 생각만큼 큰 감흥이 일지는 않았다.
하지만 캡콜드(김낙호 드렉셀대학 교수)와 AI에 관해 이야기하면서 우연히 나는 ‘부활’을 언급했고, 캡콜드 이야기를 들으니 ‘부활’이 새삼스럽게 다가오는 느낌이었다. 특히 그 시대의 공기, 특히 주인공 마슬로바의 기쁨과 절망과 체념과 다시 희망의 그 떨리는 숨결이 그 눈물이 봄바람처럼 내 볼에 와 닿는 것 같았다. 캡콜드는 이렇게 말했다:
“‘부활’이 기대만큼 재미가 없었더라도 민노씨는 ‘부활’이라는 작품을 체험한 거죠”
캡콜드
AI는 정보를 요약해서 전달하지만, 그렇게 전달된 지식과 정보의 맥락을 체험할 순 없다고 캡콜드는 말한다. AI를 쓰는 인간 역시 AI를 통해 압축된 정보를 학습할 수는 있지만, 그 지식의 ‘뼈와 살’ 그러니까 무슨 노래 가사처럼, ‘피, 땀, 눈물’을 체험할 수는 없다. 그 시대의 공기를 숨 쉬고, 맛볼 수 없다. 물론 AI 시대의 공기는 ‘진공’일 수도 있겠지만(오, 이 유머 마음에 든다!라는 뻘생각을 하지 않는다…AI는).
아무튼, 어쨌거나 캡콜드에게 AI 시대의 소통을 자기 자신, 자신의 업무, 사회 공동체의 영역으로 점차 확대해 묻고 이야기했다.

김낙호의 ‘캡:콜드케이스’ [ep. 31]
AI에 기댈 수 없는 것들:
체험 혹은 창조적 마찰
질문 정리: 민노
답변 퇴고: 캡콜드
📢 안내 및 알림: 인터뷰는 2026년 3월 27일 밤 11시에서 다음날 새벽까지 진행했습니다. 질문은 맥락화하고, 캡콜드의 ‘독백 문투’로 정리합니다. 퇴고 과정에는 캡콜드가 참여했습니다.
양극단의 과잉
AI에 관해서는 두 가지 현상이 두드러진다. 하나는 AI가 모든 것을 대체할 수 있을 것이라는 과잉 낙관론이다. 다른 하나는 AI 버블이 붕괴하고 AI 디스토피아가 도래할 거라는 과잉 비관론이다. 둘 다 너무 성급하다. 원래 AI가 무엇인지, AI로 인간은 무엇을 하려고 했던 것인지에 관한 성찰적 자세가 필요하다.
성찰은 단순히 깊게 생각한다는 의미가 아니다. 나 자신의 관여 방식까지 포함한 여러 근본 가정을 되묻는다는 의미다. 모든 걸 다 바꾸자, 모든 게 다 무너진다는 양극단의 과잉 폭주를 경계하면서, 지금 우리에게 ‘어떤 기능’이 필요한지 찬찬히 물어야 한다.

창조적 마찰 혹은 관계적 마찰
현재 흔히 인공지능의 대표격으로 꼽히는 생성형 대규모 언어 모델(LLM)이 가지는 한계가 바로 ‘창조적 마찰’을 생략한다는 점이다. 인간은 실수를 통해 배우고, 관계를 통해, 그것이 때론 갈등이나 마찰을 일으킨다고 하더라도, 거기에 대처하면서 더 성숙한 인간으로 성장한다. 창조적 마칠이 창의적일 수 있는 조건은 미래의 ‘합의점’이다. 공동 목표가 있고, 그런 전제 위에서 갈등과 마칠은 의미 있다. 쉽게 말해, 한 배를 탔고 그 배가 가라앉으면 어쨌든 함께 죽는 같은 공동체 성원이라는 거다.
사적인 관계뿐 아니라 직장에서도 대인 관계 문제에서 실제로 같이 작업을 이뤄내는 데에서는 관계 형성이 중요하고, ‘창조적 갈등’이 중요하다. 함께 만들어 가야 한다는 무엇이 필요하다. 그런데 AI는 그런 ‘연결성’을 굳이 전제로 하지 않는다.
수십만 년 동안 인간과 인간의 관계에서는 ‘같은 인간’이라는 대전제 그리고 ‘같은 공동체’라는 대전제가 있었다. 네가 기쁜 상황이 나에게 적용되면 나도 기쁘고, 네가 아프면 그런 상황이 나에게 닥칠 때 나도 아플 거라는 그런 믿음 말이다. 거꾸로 인간 vs. 동물이라면, 동물을 자원 취급할 수 있는 건 그런 인간 대 인간의 전제가 없기 때문이다(물론 요새는 반려동물 문화가 발전했지만).
그런데 AI에는 그런 인간 대 인간이라는 이입의 ‘대전제’가 없다. 인간이 서로 갈등하더라도 결국 하나의 공동체로 손해나 이익을 보는 존재가 아니라 그저 ‘인간의 언어’를 구사한다는 점에서만 공통점을 가진다. 그래서 지금까지 없었던, 인간과 비인간이 함께 무언가를 걸고 움직이는 ‘전제’를 새롭게 만들어야 하는데, 지금으로서는 불가능하다. 그걸 가능하다고 말한다면, 현재로는 그런 말을 하는 사람은 사기꾼이다.

인간과 인간의 ‘창조적 마찰’을 AI가 언어 묘사를 통해 기술적으로 흉내 낼 수 있겠지만, 그 마찰 끝에 있을 것으로 기대하는 상대방과 함께 하는 더 나은 미래를 그려내지는 않는다. 아니 못 한다. AI는 그저 도구인데, ‘창조적 마찰’의 상대방으로 인정할 수 있을까. 불가능한 일이다.
그런 사고 실험의 하나로, 드라마 ‘웨스트월드’ 시즌 1(2016)은 미국 서부시대를 다루는 테마파크에서 인간처럼 생활하는 로봇을 보여준다. 그리고 그 테마 파크에 놀러 온 사람들(호스트)가 로봇에게 보여주는 가학적 태도를 섬세하게 보여준다. 멀쩡한 인간도 그 테마 파크에서는 가학적인 성향을 쉽게 드러낸다.
로봇에게는 인간에 대한 책임을 지지 않아도 되니까 그렇게 유도된다. 웨스트월드에 놀러온 인간은 로봇과 ‘유사 인간관계’를 맺을 때 로봇과 관계적으로 이어지지 않고, 도구적 대상으로 로봇을 설정한다. 그런 구조와 환경 속에서 인간의 가학성과 폭력성은 좀 더 쉽게 드러난다.

AI 투명성
인간과 인간의 관계가 아니라 업무를 도와주는 정도의 ‘제한적 관계’라면 AI는 아주 훌륭한 ‘도구’다. 그런 업무적 관계에서는 ‘AI 투명성’ 이슈가 더 중요해진다. 즉, 내가 인간인 당신과 하는 업무 혹은 대화에 AI를 사용하고 있다는 걸 알리는 것, 그리고 어느 정도로 사용했다는 걸 알리는 행위는 아주 중요하다. 내 생각을, 내 감정을, 그러니까 나를, 또 다른 도구가 아니라 인간으로 대접받을 만한 존재로 여기고 있다는 신뢰를 보여줘야 하니까.
가령 민노씨가 우리가 진행하는 ‘캡:콜드케이스’ 인터뷰 소재를 ‘클로드’에 제안하고, 그걸 그대로 나에게 제안한다면? ‘아, 민노씨는 더는 나와 이슈를 교감하며 진지하게 이야기할 생각이 없구나.’라고 나는 생각할 수밖에 없다. 하지만 클로드에 ‘캡:콜드케이스’ 소재 후보들을 최근 여러 보도 등을 참고해 1차로 제안받고, 그 중에서 민노씨가 후보들을 선별해서 나에게 제안한다면, 나는 이렇게 생각할 거다: ‘민노씨가 클로드를 제대로 쓸 줄 아는구나.’
결국 인간의 ‘가치판단’ 단계가 얼마나 심도 있게 반영돼 있는가. 그게 핵심 질문이다. 지금 당대를 사는 인간이 어떤 문제로 근심하는지에 관해 나는 민노씨라는 인간과 이야기하는 것이다. 즉, ‘제안자’의 가치판단을 ‘신뢰’하는 전제에서 이야기한다. 물론 단순히 클로드에서 이런 소재를 제안했으니 이야기하자고 하면, 나도 아마 클로드로 답할 것 같다(웃음). 그건 마치 영화 ‘월-E’ 속 ‘슬러시 인간’이 되는 것과 마찬가지의 가짜 관계다.

역설: 로봇만 못한 인간, 더 인간적인 로봇
인간과 피지컬 AI를 소재로 한 ‘인간과 로봇의 역설’은 대중문화의 단골 소재다. 인간은 더 도구적이고 잔인하며, 오히려 로봇이 목적적으로 판단하다가 더 ‘인간적’으로 행동한다. 로봇을 대상적이고 도구적으로 다루는 인간은 결국 그런 관계 속에서 스스로 도구적이고 몰인간적인 ‘어떤 것’으로 수렴한다는 걸 다양한 작품들은 보여준다.
인간이라는 속성은 사실 그렇게 고유하고 특별한 것이 아니라는 걸 우리는 잘 안다. 인간이 인간을 인간으로 대하지 않을 때, 인간의 장점은 쉽게 사라진다. 인간성은 추월된다. 인간이 인간을 도구로 대한다면, 다른 도구(AI)보다 인간이 더 낫다는 전제가 사라지는 것이다. 도구와의 관계라면 AI는 얼마든지 인간보다 더 중요하고 뛰어나며 더 나은 존재가 될 수 있다.

인간이 다른 것보다 우월한 것, 인간답게 만드는 것은 ‘인간에 대한 인간의 편애‘다. 인간이라는 이유로 인간을 위해서 뭘 하자, 더 존중하는 그런 ‘편애’다. 그건 박애와는 다르다. 인간이라서 그 자체로 자격을 가지는 인간에 대한 편애는 일종의 ‘이입’ 능력이라고 할 수 있다.
영어에서도 대중적으로는 흔히 혼용하곤 하지만, 공감과 이입은 개념이 다르다. 그 상황 조건에서 ‘나라면 어떨까’라는 게 이입이다. 그래서 다른 사람과 어떤 작업을 하면서 ‘함께’ 뭔가 할 수 있는 것, 사회성의 근간이다. 인간은 개미나 벌처럼, 사회적 역할이 유전적으로 박혀 있는 것이 아니라, 후천적으로 학습을 통해 이뤄진다. 그런데 고정된 기능에 노예처럼 종속되는 것이 아니라 더 나은 무언가를 만들고자 하게 되는 것은, ‘이입’을 통해서 사회적 상황들을 더 넓게 창조적으로 상상하기 때문이다.
돌봄과 AI
이상헌 박사는 AI를 통한 돌봄 혁신의 가능성(2025.02), 특히 최근에는 피지컬 AI의 물리적 기능성을 강조했다(2026.02). ‘에이징 인 플레이스’ 혹은 한국에서 흔히 ‘탈시설’이라고도 하는 내용의 일부인데, 가령, 스마트 워치가 노인이 낙상했을 때 바로 119로 응급 연결하는 것이 있다. 요즘은 이런 ‘단순한 것’까지 AI라고 부르지는 않지만, 애플 워치가 도입한 이런 기능 역시 사실은 아주 중요한 AI 기능이다. 센서가 감지하는 위치 변화를, 낙상으로 의심해야 할지 어떨지 지능적으로 판단해야 하니까.
특히 노인의 낙상은 생명과 직결하는 문제라서 이런 방식이 오히려 AI와 돌봄이 실질적으로 연결되는 방식이라고 본다. 장차 이런 의학적 수요가 크게 증가할 거고, AI 영역에서 이런 수요를 공급할 것으로 본다. 또 다른 면은 일상 차원에서의 편의다. AI가 실내 온도를 조절한다든지, 음성으로 조명을 끈다든지 하는 건 지금은 ‘보편화’된 기능이긴 하다. 이런 일상의 차원에서는 AI는 큰 도움을 줄 수 있을 것으로 본다.

그런데 돌봄 노동에서는 다른 중요한 차원이 추가되는데, 바로 심리적인 문제다. 나이가 들면서 생기는 심리적 문제는 크게 두 가지다. 하나는 ‘사회적인 무력감’(내가 번듯한 사회 성원으로 기능하지 못한다는 것)이고, 나머지 하나는 ‘사회적인 고립감’(사회적으로 연결이 끊겼다는 것)이다. 이런 ‘교감’ 수요를 AI로 대체하는 게 가능할까.
내가 사람으로서 무엇인가를 하고 싶은데 그걸 하지 못할 때, 그런 노화를 자연스럽게 받아들이게 해야 한다. 내가 다른 이들과 만족스럽게 교류하고 싶은데 못 할 때, 그래도 연결의 방법을 제공해야 한다. 사람으로서 교감하고 뭔가 할 수 있는 게 필요한데, 적어도 현재로선 인간 흉내를 내는 언어모델로서는 그런 ‘결핍’을 대체하기는 어려울 것 같다. 인간 돌봄 노동자는 그게 본래 주어진 업무이든 말든, 그런 역할을 어느 정도 당연하게 수행한다.

언어모델은 인간의 말과 그 근간이 되는 사고 처리를 흉내 내는 것이지, 그 모습을 통해서 원래 이루고자 하는 목적, 그러니까 다른 사람에게 사람으로 인정받고 사람들과 연결되어 있다는 안도감을 대신할 수는 없다. 원래 전통적인 심리치료의 경우에도, 가장 중요한 전제로 ‘당신의 고민은 인간이라면 누구나 그런 상황에서 생길 수 있는 고민’이라고 인정하는 과정을 필요로 한다. 그래야 비로소 인지 방식을 바꾸든 약물을 활용하든, 치료든 관리든 뭐든 시작할 수 있다. 내담자와 상담자 사이, 인간으로서의 신뢰가 출발점이다.
물론 지금도 기초적 설문 테스트나 상담사 훈련 과정과 같은 ‘낮은 수준의 작업’에서는 AI가 유용할 수 있다. 하지만 본격적인 심리치료나 상담을 위해선 내담자를 같은 사람으로서 대등하게 대해야 하고, 라포(Rapport; 상호 신뢰, 심리적 유대)를 형성해야 하며, 무엇보다 정신적 컨디션에 대해 편견을 품으면 안 된다. 사실 AI의 문제는, 기본 데이터 학습 자료에 편견이 담겨 있으면 그 편견이 반영될 수밖에 없다는 점이다. 조현병이나 알콜중독 문제 같이 사회적 편견이 흔한 증세에 대해서, 그런 편견이 반영된 자료를 학습한다고 생각해 보자. 그 편견은 반영될 수밖에 없다.
그리고 무엇보다 중요한 건, 내담자의 생각을 항상 지지만 하는 것이 아니라 ‘제지’할 수 있어야 한다. 이 점은 다시 ‘창조적 갈등’ 개념과 이어진다.
메타버스 혹은 샌주니페로
기술을 통해 ‘사람과 사람’의 연결을 만들어주면 그런 결핍을 채울 가능성이 있는 건 사실이다. 다만 그 가능성은 이 연결 통로의 반대쪽 끝에는 나 같은 다른 인간이 있다는 전제 위에서만 작동한다. 사람 대 AI의 관계로는 그 목적을 성취하기 어려울 것으로 본다. 앞선 돌봄 노동의 교감 부분 이야기를 다시 꺼내자면, AI가 ‘노화는 자연 현상입니다’라고 과학적 근거를 찾아주는 것보다 ‘늙으면 원래 그렇지 뭐, 나도 쑤셔’라고 노화의 경험을 이입해 주는 ‘동료 인간’의 말이 훨씬 더 중요하다.
내가 다른 사람과 맺는 사회적 관계가 ‘실질성/실재성’을 띠어야 하는 것이 핵심이다. AI로 만들어진, 언어로만 존재하는 시뮬레이션 인격을 통해 그런 사회적 관계의 밀도와 실질, 실재성을 경험할 수 있을까. 어렵다고 본다. 드라마 ‘샌주니페로'(드라마 ‘블랙 미러’ 속 에피소드)에서도 ‘인간 메모리’가 아주 중요하다. 즉, 인간과 인간을 맺어주는 ‘도구로서의 AI’는 얼마든지 가능하고, 많은 가능성이 있다. 하지만 인간을 ‘대체’할 수는 없다.


하버마스 머신
결국, 가장 큰 차원에서 사회적 공론장을 만드는 문제도 앞선 개개인의 생활과 일터의 체험이 확장된 형태라고 볼 수 있다. 제 기능을 하는 민주제 사회에서 바람직한 제도들은 과학적이고 규범적 생각만으로 ‘짜잔~’ 하고 만들어질 수 있는 것이 아니라, 사회 성원들의 구체적 생활 경험, 그 안에서 나오는 해결 수요와 갈등들이 효과적으로 제시되어야 하고, 제도로서 추상화되어야 한다. 즉, 구체적 생활 경험을 추상적 정치 경제 시스템에 연결하는 복잡다단한 작업을 하는, 모두에게 공개된 공적 기능을 하는 ‘중간 영역’이 필요한 것이다.
최근 타계한 위르겐 하버마스(1929-2026)는 그런 중간 영역을 공론장이라는 이름으로 이론화했고(사실 원래 독일어는 ‘장’이라는 공간적 비유가 없지만), 그 안에서 ‘도구적 소통’이 아닌 ‘소통적 합리성’이라는 방식을 통해 공공의 여론을 형성할 수 있다는 철학적 규범을 제공했다. 다만 하버마스는 지나치게 근대적 합리성, 이성의 힘을 강변한 나머지 경시한 지점이 있다. 생활 세계의 소통은 합리적 규범이 아니라 개개인의 감정에 더 크게 영향받는다는 점을 간과한 것이다.

‘노동권 강화’를 주장한다고 해보자. 교과서에서 배웠기 때문에 혹은 논리적으로나 윤리적으로 옳으니까 투쟁하자? 뭐 그런 사람이 과연 얼마나 있을까…
- 내가 힘들여 일했는데 정당한 대우를 못 받은 경험,
- 인격적으로 하대 받으며 느꼈던 모멸감,
- 언제라도 누군가의 변덕으로 잘릴지 모른다는 불안감,
- 다쳐도 제대로 보상받지 못한 내 동료의 사연을 듣고 느꼈던 공포,
- 혹은 그런 후진 제도를 고쳐놓지 않으면 나라도 언젠가 그렇게 되겠다는 메스꺼움… 그런 감각과 감정의 기억이 쌓여야 몸을 움직이게 한다.
즉 공론을 만드는 과정은 온전히 이성적인 과정일 수 없다. 공론 형성은 그런 감정을 얼마나 잘 집단적으로 형성하느냐의 과정이기도 하다. 그런데도 지금 많은 사람이 AI가 마치 합리적 언어로 ‘완벽한 공론 정리정돈’을 던져줄 것으로 가정한다. 바람직하지도 않고, 현재 기술 수준으로는 가능하지도 않다.
그러면 공론장을 위해 어떻게 AI를 도구로서 활용할 것인가. 하버마스 머신이라는 꽤 재밌는 실험이 하나 있다. 거칠게 요약하자면, AI에 토론 ‘관리자’ 역할을 맡기니 아주 효율적이라는 것. 체험을 제공하는 것은 당연히 못 하고, 가치에 입각하여 방향을 제시하는 것도 꽝이지만, 중간 영역의 ‘관리자’로서는 AI가 제 역할을 하더라는 것. 토론의 리더로서 생각하면 부작용이 심한데, MC 역할로써는 아주 기능이 뛰어나다는 말이다.
결국, 앞 이야기로 돌아간다. 인간으로서의 가치 결정을 AI에 ‘외주’하면 큰일 난다. 하지만 인간이 제대로 조율하고 결정할 수 있도록, 정리해주고, 관리해주는 ‘MC나 비서 역할’로는, 많은 한계에도 불구하고, 좋을 수 있다.
나는 AI를 어떻게 쓰고 있는가
학생들 에세이 과제물을 낼 때, 너무 길면 요약 포인트를 추려내는데, 종종 AI를 활용한다. 사실 뭐 학생들도 AI를 활용해 과제를 작성하는 경우가 많다. 중요한 건 AI를 썼나 쓰지 않았나 하는 게 아니라 가치 지향과 현실적 고려가 담겨있는 ‘좋은 제안,’ ‘창의적 발상’이다.
좋은 에세이란, ‘왜 우리는 어떤 행동을 해야 하는가’라는 질문이다. 기계적으로 어떤 이슈의 찬반 논점을 정리하는 건 상대적으로 덜 중요하다. 중요한 건 가치판단이다. 무엇을 해야 하는가, 왜 해야만 하는가, 이런 발상과 질문이 항상 중요하다. 그것을 위해 도구로서 AI의 도움을 받는 건 얼마든 가능하다.
비슷한 이유로, 문헌 조사 및 정리에 AI는 좋은 도구다. 읽어야 할 기사나 논문의 요약판 뽑아주기. 하지만 그다음은 인간의 판단이 필요한 것이, 그 요약본을 실제 필자가 작성한 초록과 비교해 봐야 하니까. 여튼 이런 과정을 통해서 읽을 가치가 있는지 일차적으로 선별하는 기능은 쏠쏠하다.

체험의 대가는 ‘그다음’에 따라온다
장중한 문학 작품, 두 시간이나 되는 긴(?) 영화, 세세한 언어로 여러 조건을 다루는 논문을 읽는 이유는 그냥 결론을 뽑아내는 것이 아니다. 문장감, 사고의 흐름, 그 사고를 풀어내는 방식, 다시 말해 내용이 펼쳐지는 ‘과정의 체험’ 속으로 들어가기 위해서다.
학습이 내용을 파악하는 것이라면, 체험은 직접 그 안으로 들어가서 때로는 정돈되지 않은 중간 상태, 켜켜이 얽힌 여러 모순되는 요소들, 그 모든 게 존재하는 생생한 그 시공간을 ‘겪는’ 것이다. 체험은 무엇인가 안에 들어가서, 이런 상황이 실존하는 ‘방식’을 실제로 체험하는 것이다. 그런 열린 관찰이 바로 더 좋은 생각을 만들어내기 위한 필수적 과정이다.

파리 여행을 한다고 생각해 보자. 이런저런 건축물이 있고 맛집이 있다고 요약하는 것이 학습이라면, 체험은 더러운 지하철 냄새를 들이키고, 동네 빵집의 고소한 내음을 느끼고, 체계적인 듯 엉망인 듯한 골목길을 돌다가, 사람들이 북적거리는 카페 풍경을 피부에 닿는 거리감으로 경험하는 것이다. 그리고 체험의 대가는 그다음에 따라온다.
그런 공간에서 삶의 방식, 사고의 방향성은 어떻게 흐를까. 민노씨가 최근 읽은 ‘부활’도 줄거리나 주제를 학습하는 건 AI가 도와줄 수 있지만, ‘부활’이라는 소설을 체험하는 것, 톨스토이가 그려낸 인물들의 숨결, 그러니까 19세기 러시아 귀족의 위선과 민중의 고통을 그들의 생생한 삶, 그 한복판에서 체험하는 건 AI가 도와주거나 대체하지 못한다.
다시금 강조하지만, AI는 도구로서 업무 효율성을 제고할 수 있다. 하지만 사람과 사람의 연결이 목적으로 전제된 영역에서 AI가 그런 역할을 대체할 것으로 ‘착각’하면 위험하다. AI는 애초에 ‘어떤 것'(도구적인)이고, 교감을 필요로 하는 ‘관계의 상대방’은 아니다. 역할 자체가 다르다. 도구를 대체할 수는 있지만, 관계를 대신할 수는 없다.
교감을 필요로 하는 ‘관계’ 그리고 그것이 목표인 인간의 영역마저 AI가 대체한다면, 사람과 사람의 관계와 교감이 필요 없어질 수 있다. 그런데 그때는, 인간의 존재 이유도 사라지는 순간이다. 논리적으로 보면, 그 순간 인간은 그냥 사라져도 좋다. 그런 파국을 피하고 싶다면, 그 두 가지, 학습과 체험을 구별해서 스스로 성찰하는 일을 멈추지 않아야 한다. 앞으로 나아가되, 늘 스스로 되돌아봐야 한다.

