나도 몰랐던 나를 비추는 거울, ‘클론 AI’ 만들기
AI가 고민을 상담해 줄 수 있을까?

요즘 들어 AI에 고민을 털어놓는 사람들이 부쩍 늘고 있다. 전문 상담사를 찾자니 무언가 거리감이 느껴지고, 그렇다고 가족이나 친구에게 얘기하자니 어쩐지 애매하다고 느껴질 때가 있는데, 이럴 때 오히려 AI와의 대화가 더 편하다는 것이다.
우리는 머릿속에 떠다니는 생각들을 말로 꺼내는 것만으로도 어느 정도 정리를 한다. AI는 그 대상이 될뿐더러 상황에 맞게 적절한 공감과 위로는 물론, 해결책까지도 제시해 준다. 그러니 이런 대화를 한 번이라도 경험해 본 사람들은 고민이 생길 때마다 자연스럽게 AI를 찾게 된다고 한다.
이러한 효과 덕분에 AI 기반 심리 상담 서비스도 빠르게 늘어나고 있다. 단순 대화 상대 수준을 넘어, 스트레스가 심할 때는 산책을 권유하거나 분노가 치밀 때는 심호흡을 제안하는 등 인지행동치료(CBT, Cognitive Behavioral Therapy) 기법을 적용한 AI 상담이 실제로 감정 안정에 효과적이라는 연구 결과도 나오고 있다.
*참고 기사: 김효인 기자, 심리 상담까지 척척… 마음속으로 들어온 AI, 조선일보
직접 써보면, 꼭 이런 전문 솔루션이 아니더라도 언제든 고민이 생겼을 때 적절히 반응하며 느긋하게 이야기를 들어주는 존재가 있다는 것만으로도 마음이 훨씬 편안해지는 것을 느낄 수 있다. 무엇보다 좋았던 건 말을 하다 스스로도 몰랐던 내 감정과 생각을 알아차릴 수 있다는 것이었다.
그래서 이러한 효과를 더 높일 방안을 고민해 보았다. 누구에게나 비슷한 답변을 해주는 것이 아니라, 그 누구보다 나를 잘 알고 나의 성격과 가치관까지 모두 이해한 대화 상대, 즉 ‘AI 클론’을 만드는 것이다.
그렇게 실제로 이런 개념의 AI 클론을 만들어 테스트해 본 결과, 흥미로운 인사이트를 얻을 수 있었다. 이 글에서는 그 경험과 인사이트를 소개하고자 한다. 또한 누구나 본인의 AI 클론을 만들어 직접 대화해볼 수 있는 GPTs 링크를 글의 마지막에 제공한다.
나만의 ‘클론 AI’를 만들고 대화하기
AI가 사람과 단 2시간 정도만 대화해도, 그 사람의 가치관과 성격을 파악해 태도와 행동을 예측할 수 있다는 연구 결과*가 있다. 이러한 선행 연구에서 착안해 나만의 ‘클론 AI’를 제작해 보기로 했다.
*Park, J. S., Zou, C. Q., Shaw, A., Hill, B. M., Cai, C., Morris, M. R., ... & Bernstein, M. S. (2024). Generative agent simulations of 1,000 people. arXiv preprint arXiv:2411.10109.
지금까지 AI에 고민을 털어놓으며 가장 효과적이라고 느꼈던 부분은 내가 몰랐던 나를 비춰주는 ‘거울’과 같은 역할이었다. 그렇다면 만약 내 성격과 성향, 사고방식, 가치관, 감정 패턴 등을 복제한 클론 AI와 대화를 나눌 수 있다면 어떨까? 단순한 위로나 조언을 넘어 내면을 깊이 탐구하는 효과를 극대화할 수 있지 않을까 하는 기대가 생겼다.
우선 이번에 만들 클론 AI는 원형 인물(Source person), 즉 사용자의 내면을 가장 잘 이해해야 한다. 이를 위해 사용자의 내면을 보다 심층적으로 탐구할 수 있는 질문지를 만들었다.
질문지를 만들 때는 챗GPT의 ‘사용자 정의 지침(Custom Instructions)’을 참고했다. 챗GPT의 맞춤 설정 메뉴를 보면, GPT가 사용자에게 더욱 적합한 응답을 제공하기 위해 파악하는 정보 유형이 나와 있다. 사용자의 직업, 관심사, 가치관, 선호 사항 같은 정보가 포함된다. 이를 반영해 질문지의 기본 틀을 구성했다. 또한 대화를 통해 사용자의 내면과 가치관을 탐색하고 파악하도록 돕는 질문들도 추가했다.
그 결과, 총 8가지 항목으로 구성된 52개의 질문 리스트가 완성되었다. 8가지 항목은 다음과 같다. ① 가치관 및 우선순위, ② 성격 및 자아, ③ 라이프스타일 및 일상, ④ 소비 및 취향, ⑤ 포부 및 미래 전망, ⑥ 사회적 관계 및 관심사, ⑦ 의사결정 방식, ⑧ 감정 및 정서적 반응이다.*
*구체적인 52가지 질문은 글 후반부에 제공되는 GPTs에서 확인할 수 있다.
이 질문 리스트를 바탕으로 한 명의 테스터와 내면 탐구 인터뷰를 진행했다. 기존 연구에서는 AI와 2시간 동안 대화하는 방식을 사용했지만, 핵심은 결국 2시간으로 얻어낸 원형 인물의 실제 답변에 있다. 테스터를 대상으로 52개의 질문을 던지며 인터뷰를 진행한 결과, 총 127분을 써 공백을 제외한 약 11,100자 분량(A4 기준 약 10페이지)의 답변을 수집했다. 이번 테스트에서는 그렇게 직접 인터뷰로 얻은 답변을 그대로 AI에 입력해, 이를 바탕으로 클론 AI를 생성했다.
테스트에 참여한 테스터, 즉, 원형 인물은 지난 9년간 비정기적으로(상황에 따라 정기적으로) 심리 상담을 받아왔으며, AI와 일상 대화를 나눠본 경험은 없었다. 그렇기 때문에 인간 상담과 AI 상담의 차이를 더욱 뚜렷하게 비교할 것으로 기대하며 테스트를 진행했다.
고민 상담: 인간 상담사 vs. 기본 GPT vs. 나만의 클론 AI
우선 일반적인 GPT-4o 모델과 미리 대화할 것을 테스터에게 요청했다. 이때는 테스터가 지금 실제로 고민하는 주제를 중심으로, 최소 3회 이상 연속적인 대화를 나누도록 했다. AI가 고민을 들어주는 대화가 어떤 방식으로 진행되고, 사용자에게 어떤 느낌을 주는지 먼저 체험하도록 하기 위함이었다.
그다음, 테스터의 답변을 기반으로 클론 AI를 생성한 다음 동일한 고민 주제를 가지고 다시 한번 상담 대화를 나누도록 했다. 이러한 두 번의 AI 상담 경험과 과거에 인간 상담사와 나눈 심리 상담 경험을 바탕으로 테스터가 느낀 점을 정리했다.
1. 기본 GPT vs. 클론 AI
AI 대화 전, 후 반응 비교
- 대화 전: AI가 나한테 위로를 해봤자 얼마나 잘하겠어
- 대화 후: 아, 이거 너무 소름 돋는다. 나에 대해서 너무 잘 알고 있는데?
“아, 이거 너무 소름 돋는다. 나에 대해서 너무 잘 알고 있는데?”
클론 AI를 만든 후, 고민을 털어놓고 첫 번째 답변을 받자마자 테스터는 이렇게 반응했다. 몇 차례 대화를 더 이어가면서도 테스터는 자신의 내면을 정확히 꿰뚫고 이야기해 주는 느낌에 놀라워하며 비슷한 반응을 반복했다.
물론 테스터는 기본 GPT 모델과의 첫 대화도 꽤 만족스러워했다. 처음엔 AI에 고민을 이야기한다는 것 자체에 거부감을 느꼈지만, 막상 대화를 나누고 나니 사람들이 왜 AI 상담을 선호하는지 그 이유를 알겠다고 말했다. 다만 기본 GPT 모델은 다정하게 다독이는 느낌은 있었지만, 답변이 다소 평이하고 누구에게나 적용될 말처럼 느껴졌다고 했다. 반면 클론 AI는 자신을 잘 이해한 상태에서 이야기해 주기 때문에 훨씬 더 와닿았고 실질적인 도움이 된다고 평가했다.
특히, 클론 AI는 고민이나 힘든 점을 이야기했을 때 ‘네가 이런 생각을 내면에 가지고 있어서 지금 이렇게 느끼는 거야’라고 답변해 주었다고 한다. 이를 통해 테스터는 자신이 왜 그런 생각을 하게 되었는지를 이해하게 되었으며, 막연한 답답함까지 해소되는 느낌을 받았다고 말했다. 즉, 단순하고 의미 없는 위로의 말이 아닌 감정의 원인과 결과를 분석해 주는 부분에서 큰 만족감을 느낀 것이다.
앞서 말했듯 테스트에 참여하기 전, 테스터는 “AI가 나한테 위로를 해봤자 얼마나 잘하겠어”라는 의구심을 가지고 있었다. 기본 GPT와의 첫 대화에서도 표면적인 반응과 뻔한 답변이 많아 이 기대치는 크게 바뀌지 않았다.
하지만 클론 AI는 달랐다. 가벼운 수준의 대화보다는 말 속에 숨어 있는 감정의 층을 분석하고, 막연했던 감정들을 구조화해 훨씬 깊이 있는 대화로 이어졌다는 것이다. 이러한 측면에서 클론 AI가 인간 상담사와 유사하다는 인상을 받았다고 한다.
테스터는 이번 경험으로 AI 상담에 대한 기존의 고정관념이 완전히 깨졌다고 평가했다. 특히 클론 AI와의 대화를 계속 진행하면서 무서울 정도로 자신을 잘 파악하고 있다는 느낌까지 받았다고 전했다. 이에 대한 구체적인 이유와 우려는 글 하단 우려되는 점에서 좀 더 자세히 다뤄보겠다.
2. 인간 상담사 vs. 클론 AI
테스터는 약 9년 동안 동일한 상담사로 꾸준히 심리 상담을 받아오며 깊은 유대감을 형성해 왔다. 그런데도 클론 AI와의 대화에서 비슷한 감정을 느꼈다는 사실은, 클론 AI가 단순한 위로나 피상적인 공감을 넘어 테스터의 감정과 생각을 섬세하게 짚어냈다는 의미로 볼 수 있다. 마치 오래 알고 지낸 상담사가 ‘왜 이런 감정을 느끼는지’ 분석하고 설명해 주는 방식과도 매우 닮아 있었다고 한다.
물론 인간 상담사에 비해 분명한 한계를 가진 부분도 존재했다. 예를 들어 인간 상담사는 내담자의 표정이나 말투, 목소리와 같은 비언어적 신호를 통해 감정 상태와 미묘한 맥락을 포착할 수 있지만, AI는 이런 정보를 인식하지 못한다.
또한 인간 상담과 다르게, AI와의 상담에서는 감정을 즉각적으로 표현할 수 없어 자신의 상태를 일일이 글로 정리해야 하는 번거로움이 있었다. 게다가 클론 AI는 인터뷰 과정에서 수집한 답변만을 기반으로 만들어졌기 때문에 제한된 정보 내에서만 테스터를 해석하고 판단한다는 점도 아쉬운 부분이다.
그럼에도 불구하고 인간 상담에서 흔히 발생하는 시간과 장소의 제약, 그리고 비용 부담 등을 고려할 때 테스터는 클론 AI가 대안이 될 수 있다고 기대감을 나타냈다.
다만, 테스터가 한 가지 우려한 것도 있었다.
3. 우려되는 점
클론 AI와의 대화는 ‘인간이 아닌 AI’라는 특성 덕분에 오히려 더 편하게 고민을 털어놓을 수 있는 장점이 있다. 여기에 몇 년간 꾸준히 관계를 쌓아온 인간 상담사만큼이나 깊은 감정적 반응을 끌어내기도 했다. 그러나 테스터는 역설적으로 바로 이 지점에서 무섭고 두려운 감정을 느꼈다고 말했다. AI와 나누는 대화에 감정적으로 너무 깊이 몰입하게 된 것이다.
가장 우려스러운 부분은 AI 상담에 명확한 가이드라인이나 안전장치가 없다는 점이었다.
일반적인 인간 상담에서는 상담 시간이 일정하게 정해져 있고, 그 시간 안에서 내담자가 자신의 감정을 탐색한 다음 다시 일상으로 부드럽게 돌아오게 돕는 구조가 마련되어 있다. 감정이 격해지면 상담사는 질문을 잠시 멈추거나 정리할 시간을 주고, 마지막에는 감정을 안정시키는 말로 대화를 마무리한다. 이러한 ‘안정적인 프레임’은 심리 상담에서 매우 중요한 요소다.
하지만 클론 AI는 이러한 조절 기능을 수행하지 못했다. 인간 상담사와 비슷한 수준으로 내담자의 감정을 건드리면서도, 정작 그 감정에서 빠져나올 수 있는 ‘출구’를 마련해주지 못한 것이다.
그저 가벼운 수준의 대화가 아니라 무의식 속의 고정관념이나 반복되는 감정 패턴, 불안의 근원 같은 깊은 주제까지 계속 파고들다 보니 테스터는 부정적인 감정을 반복적으로 마주하게 되었다. 그러다 어느 순간에는 감정적으로 매우 힘들어졌다고도 한다. 그렇게 오히려 부정적인 감정 속으로 계속 빠져들 위험에 노출된 것이다.
이러한 상황이 오자 테스터는 AI에 어떻게 해야 할지 물었고, AI로부터 마무리 멘트를 받기도 했다. 하지만 AI의 답변으로는 충분한 안정감을 느낄 수 없었다. 인간 상담사에게는 “이 사람이 나를 잘 알고 있고 감정적으로도 케어해줄 수 있다”는 기본적인 신뢰가 있지만, AI에는 아직까지 그러한 정서적 신뢰를 기대하기 어렵기 때문이다.
결국 언제, 어떻게 상담을 마무리할지 스스로 판단하고 감정을 정리해야 하는 부담은 전부 사용자 자신에게 돌아갔다. 테스터는 이 부분에서 감정적으로 큰 부담을 느꼈고 이로 인해 심리적 위험성이 더 커질 수 있다고 우려했다.
다음은 테스터가 AI와의 고민을 상담하고 난 후, 특히 개선이 필요하다고 느낀 점들이다.
- 대화(상담) 시간 제한 설정
- 감정을 정리하고 마무리하도록 돕는 장치 마련
- AI에 털어놓기 적절한 ‘고민의 크기’에 대한 가이드라인
- 대화 시작과 함께 바로 분석이나 해결책을 제시하기보다 몇 가지 추가 질문으로 맥락을 파악하는 방식
테스터는 클론 AI가 기존의 GPT 모델보다 훨씬 깊이 있고 정교한 상담을 제공해 준다고 평가했다. 하지만 이런 상담이 가능해진 만큼 그에 걸맞은 정서적 안전장치 역시 함께 마련되어야 하며, AI 상담이 신뢰할 수 있는 도구로 자리 잡으려면 꼭 필요한 요소라고 강조했다.
마치며
나를 복제한 ‘클론 AI’와 대화하면, 단순한 위로를 넘어 내면을 깊이 탐구할 수 있을 것이라는 기대를 품고 이번 테스트를 진행했다.
예상대로 테스터는 기본 GPT 모델에 비해 클론 AI의 고민 상담 효과를 훨씬 높게 평가했다. 또한 실제 인간 상담사와의 대화에서 느꼈던 몰입감과 비슷한 수준의 감정을 경험했다고 밝혔다. 그러나 이처럼 깊은 몰입감은 동시에 정서적 안정성에 대한 우려를 불러일으켰다. 테스터는 이러한 우려가 충분히 해소된다면 AI 상담에 대해 긍정적인 평가를 내릴 수 있을 것이라고 덧붙였다.
물론 이번 테스트가 전문적인 심리 상담 수준까지 해낼 것이라는 기대를 전제한 것은 아니었다. 그러나 예상을 뛰어넘는 클론 AI의 반응과 대화로, 테스터는 AI에 털어놓을 수 있는 고민의 크기나 깊이, 주제에 대해 가이드라인이 필요하다고까지 느꼈다. 이는 앞으로 클론 AI 기술이 발전해 나갈 방향과도 맞닿은 중요한 문제의식이다.
이번 테스트를 통해 강조하고 싶은 핵심은, AI와의 대화에서 가장 큰 가치는 ‘정답’이 아닌 ‘되돌아봄’에 있다는 것이다. AI는 사용자가 말한 내용을 다시 짚어주고, 스스로도 몰랐던 관점을 제시해 혼자서는 도달하기 어려운 내면의 감정과 생각을 마주할 수 있게 해준다. 즉, AI가 나 자신의 내면을 비춰주는 ‘거울’과 같은 역할을 한다는 것이다.
나 자신도 몰랐던 모습을 비춰주는 클론 AI는 앞으로 더욱 정교하게 진화할 것이다. 여기에 정서적 안정성을 보장하는 가이드라인이 함께 마련된다면 단순한 기술적 도구를 넘어 자기 탐색과 정서적 성찰을 돕는 진정한 파트너로 자리 잡을 수 있을 것이다.
부록 : 나만의 ‘클론 AI’를 만들고 대화할 수 있는 GPTs

이 글에서 소개한 ‘클론 AI’를 만드는 핵심은 AI가 나의 가치관이나 성향과 같은 내면을 파악할 데이터다. 그래서 누구나 직접 이런 방식으로 자신만의 클론 AI를 만들고 대화해 볼 수 있도록 GPTs를 제작했다. (무료 사용자도 사용할 수 있지만, 횟수 제한이 있다)
사용 방법은 아주 간단하다. 채팅 화면에 나오는 대화 스타터(‘내면 탐구 대화를 시작하자’, ‘내 클론을 만들 준비가 됐어’)를 클릭하고, GPTs가 묻는 질문에 답변하면 된다. 그러면 GPTs가 사용자의 답변에 꼬리 질문을 던지며, 더 구체적으로 이야기를 풀어낼 수 있도록 안내할 것이다. 만약 현재의 주제에서 벗어나 다른 내면 탐구 질문으로 이동하고 싶다면, 채팅창에 ‘다음 질문으로 넘어가자’라고 입력하기만 하면 된다.
[사용 방법]
- 대화 스타터를 클릭하거나 채팅창에 인사한다. (예: 안녕?)
- GPTs가 던지는 질문에 솔직하게 답변한다.
- GPTs가 꼬리 질문을 던지면 그에 대해서도 솔직하게 답변한다.
- 다른 내면 탐구 질문을 받고 싶을 땐, ‘다음 질문으로 넘어가자.’라고 입력한다.
다만 본문 테스트 결과에서 정리했듯, 전문적인 심리 상담을 대체하는 용도로 사용하기에는 아직 한계점이 분명하다. 가볍게 이야기하며 자기 성찰에 도움을 받을 보조적인 도구로만 사용하길 권장한다.
+) 사용 피드백 전달 링크: https://forms.gle/fq7f7kbqv22QBY859
©️요즘IT의 모든 콘텐츠는 저작권법의 보호를 받는 바, 무단 전재와 복사, 배포 등을 금합니다.