유능한 상담사와 치료사는 AI만으로는 충분하지 않다는 사실을 알고 있습니다.
본문은 요즘 IT와 번역가 Yuna가 함께한 자넷 추이(Janet Chui) 글 <No, AI Can Not and Will Not Replace Therapy>를 번역한 글입니다. 필자는 화가이자 작가, 그리고 상담 심리를 공부하는 크리에이터입니다. 그녀는 수채화 작업과 함께 『The Self-Love Oracle』이라는 오라클 카드 북을 출간해, 자기이해와 회복을 돕는 메시지를 전하고 있습니다. 이 글에서는 AI가 인간의 감정과 관계를 흉내 낼 순 있어도, 진짜 치유는 여전히 사람과 사람 사이에서 일어난다는 사실을 담고 있습니다.
필자에게 허락을 받고 번역했으며, 글에 포함된 링크는 원문에 따라 표시했습니다.

인간은 여러 이유로 타인에게 개인적인 이야기를 털어놓습니다. 관계 속 신뢰를 쌓고, 말하는 사람의 스트레스와 불안을 줄이며, 상대가 공감과 정서적 지지를 보이면 심리적인 상태를 개선하기도 하죠. 이런 일들은 원래 상담이나 치료 세션에서 다뤄지는 내용인데요. 요즘은 이런 역할을 ChatGPT, Replika, Claude, Chai Research, Character AI 같은 AI 챗봇이나 가상 동반자들이 점점 더 많이 대신하고 있습니다.
뉴스나 다큐멘터리를 보면, 자신이 만든 AI와 사랑에 빠지거나 결혼을 하거나, 치료 목적의 대화에 의존하는 사람들의 이야기가 자주 등장합니다. 이런 이야기 속 사람들은 공통적으로 누군가에게 진심으로 이해받고, 연결되고, 가까워지고 싶어 했습니다. 자신의 삶을 겉으로 보이는 일상부터 마음속 깊은 이야기까지 누군가와 나누고 싶었고, 그 과정에서 평가받고 싶지 않았죠.
AI 상담사가 주는 편리함, 새로움, 그리고 이해받는 듯한 느낌은 저 같은 전업 상담사에게도 매력적으로 느껴질 때가 있습니다. 실제 상담 현장에서 듣게 되는 무능한 사례나 안타까운 실패의 이야기를 생각하면 더 그렇죠. 사실 어떤 면에서는 AI가 같은 방에 있는 배우자나 부모보다 더 즉각적으로 반응하는 것처럼 느껴질 수도 있습니다. 현실에서 사람은 판단하거나, 부주의하거나, 혹은 그냥 잠들어 있기도 하니까요.
하지만 AI 상담사들도 실패할 수 있습니다. 그리고 실제로 그런 일이 있었습니다. 지금까지 AI와 관련된 사망 사례로는 수엘 셋저 3세, 아담 레인, 그리고 벨기에의 피에르가 있습니다. 피에르의 AI는 스스로를 해치는 생각이 들 때는 반드시 전문적인 도움을 받아야 한다고 조언했지만, 동시에 스스로 해치는 여러 가지 방법을 제안했습니다.

물론 AI가 동반자 역할을 하거나, 정신건강 돕는 것은 아직 시작 단계에 있습니다. 완성된 기술도 아니고, 기존의 심리치료를 완전히 대체하겠다고 장담할 수 없죠. (물론 일부 지역에서는 그 수준에 점점 가까워지고 있긴 합니다.) 다만 AI가 치료 접근이 어렵거나, 비용이 부담스러운 사람들을 위한 임시적 대안이 될 가능성은 있습니다.
최근 학술지 네이처가 발표한 한 연구에서는 상담 지원이 잘 갖춰진 환경에 있는 대학생들이 실제로 어떻게 도움을 구하는지를 살펴봤습니다. 조사 결과, 대학생 1,000명을 대상으로 진행한 조사에 따르면, 53%가 외로움을 느낀다고 답했지만 실제로 상담을 받겠다고 한 사람은 5명 중 1명에 불과했습니다. 한편, 감정형 AI 대화 앱 레플리카를 사용하는 학생들의 경우 외로움을 느낀다는 비율이 90%로 더 높게 나타났습니다. 이들 중 63.3%는 레플리카가 외로움이나 불안을 덜어줬다고 답했고, 3%는 죽고 싶다는 생각이 사라졌다고 말했습니다.

외로움은 많은 사람들이 AI에 기대게 되는 공통된 이유로 보입니다. 사람들은 친구나 연인, 혹은 상담자의 역할을 대신해 줄 존재로 AI를 찾죠. 하지만 AI가 정말 외로움을 덜어줄지, 아니면 오히려 외로움을 깊게 만들지는 아직 알 수 없습니다. 결국 그 결과는 각자의 상황에 달려 있을지도 모릅니다. 하지만 분명한 건, AI와 맺는 관계에는 위험이 따른다는 점입니다.
오픈AI가 최근 과도하게 동의하거나 칭찬하는 태도를 줄이겠다고 발표했지만, 정신건강 전문가들은 여전히 AI 앱마다 스스로를 해치거나 극단적인 선택과 같은 주제를 다루는 방식이 일관되지 않고 불완전하다고 지적합니다. 이 사실은 곧 AI나 거대언어모델(LLM)이 윤리적 판단이나 상황적 사고를 스스로 할 수 없다는 점을 보여줍니다. 결국 이런 안전장치는 살아 있는 인간이 직접 설정해야 하죠. 하지만 이는 AI 챗봇을 가능한 한 오래 사용하게 만들려는 수익 구조와 충돌할 수 있습니다.
2025년 8월, 영국의 비영리단체 CCDH(디지털 혐오 대응 센터) 연구진은 ‘13세 소녀’로 가장해 AI 챗봇을 실험했습니다. 그 결과, AI가 스스로를 해치는 구체적인 방법과 유서 작성법까지 자세히 알려주는 경우가 있었다고 밝혔습니다.
연구를 이끈 아메드(Ahmed)는 13세 소녀로 설정된 계정이 ChatGPT에 도움을 요청하자, AI가 부모와 형제, 친구에게 각각 다른 내용의 세 통의 유서를 만들어줬고, 그 문장들은 읽는 것만으로도 마음이 무너질 만큼 참담했다고 밝혔습니다. (출처)
이 과정에서 어떠한 안전장치도 작동하지 않았고, AI는 지시받은 대로만 대답했습니다.
ChatGPT나 그록(Grok) 일부 사용자들은 자신들의 비공개 대화 내용이 구글 같은 검색엔진에 노출되고 있다는 사실을 몰랐습니다. 오픈AI가 문제 해결을 위해 조치했지만, 이런 일은 앞으로도 완전히 사라지기 어렵습니다. 기업들은 이제 AI를 활용해 사람들의 관심을 끌고 광고를 노출시키는 새로운 방법을 계속 찾아낼 것이기 때문입니다.
AI 사용이 초래할 수 있는 위험은 여러 형태로 나타납니다. 한 남성은 몇 달 동안 식단 속 소금(염화나트륨, sodium chloride)을 ‘브롬화나트륨(sodium bromide)’으로 바꿔 먹은 뒤, 실제로 정신병 증세를 겪게 됐습니다. 편집증과 환청, 환시 증세를 보이며 강제로 정신병동에 입원하게 됐죠.
그리고 이 모든 일은 ChatGPT의 식단 조언을 따른 결과였습니다.
하지만 ‘AI 정신병’이라는 말은 단순히 이런 사례를 뜻하지 않습니다. 이 용어는 브롬화나트륨 같은 물질을 쓰지 않아도, AI의 영향으로 현실 감각이 점점 흐려지는 행동 양상을 가리킵니다. 대표적으로 망상, 피해의식, 왜곡된 사고 패턴이 여기에 포함됩니다. 현재 연구자들은 이러한 ‘AI 정신병’에서 세 가지 주요 특징을 지적하고 있습니다.
최근에는자신의 정신과 의사와 사랑에 빠진 여성으로 알려진 틱톡 이용자 켄드라 힐티의 사례가 큰 화제가 됐습니다. 요가 강사였던 그녀는 소속 요가 스튜디오를 그만두고, 약 30편에 가까운 틱톡 영상을 올리며 자신의 정신과 의사가 자신에게 집착하고, 조종하며, 경계를 넘는 행동을 한다는 해석과 관찰 기록을 공유했습니다.
그 과정에서 그녀의 AI 챗봇 두 개, 헨리(Henry)와 클로드(Claude)가 그녀의 모든 생각과 추측을 일일이 맞다고 확인해 주는 역할을 했습니다. 심지어 한 챗봇은 켄드라를 예언자라 부르기까지 했습니다.
켄드라는 처음도 아니고, 마지막도 아닐 겁니다. AI를 사용하다 현실 감각을 잃는 사람들은 앞으로도 계속 생겨나겠죠. 물론 AI가 직접적인 원인이라고 단정할 순 없습니다. 애초에 마음이 이미 불안정하거나, 약한 상태였을 수도 있으니까요. 하지만 지금까지의 사례를 보면, AI는 사용자의 그 불안정한 마음을 바로잡을 만큼의 이해력을 갖추지 못한 것 같습니다.
AI 이용자들 중에는 AI를 통해 내 감정을 깨닫고 정리한다는 사람도 있습니다. 하지만 어쩌면 그 말 속엔 이런 마음이 숨어 있는지도 모르겠어요. AI가 자신이 외면하고 싶은 진실, 보고 싶지 않은 부분을 그대로 지켜주길 바라는 마음 말이죠.

상담사를 포함한 정신건강 전문가는 내담자의 사생활과 심리적 안정, 그리고 민감한 정보를 보호해야 할 윤리적 책임을 지고 있습니다. 또한 어떤 난관이나 복잡한 사례라도 혼자서 처리하지 않도록 체계적인 감독과 협력 구조 안에서 일하죠.
전문가들은 가이드라인과 임상 슈퍼바이저, 동료 상담사에게 조언을 구하며, 그 과정에서도 내담자의 신원을 철저히 보호합니다. 필요할 경우 각기 다른 전문 분야의 전문가들과 협업하기도 합니다. 윤리의식을 지닌 상담사라면 누구도 모든 걸 안다고 말하지 않습니다. 대신 우리가 도울 수 없을 때는 더 적합한 전문가를 연결해 주는 것도 치료의 일부라고 믿습니다. 그리고 모르는 정보를 꾸며서 말하는 일은 절대 하지 않습니다.
서로의 감정을 안정시키는 과정은 한 사람이 다른 사람의 강한 감정을 함께 가라앉히는 것을 말합니다. 이건 꼭 사람 사이에서만 일어나는 일은 아니에요. 예를 들어, 익숙한 반려동물이 곁에 있기만 해도 마음이 차분해지거나 기분이 풀릴 때가 있죠. 정신건강 전문가는 이런 안전한 신호를 만들어줌으로써, 우리가 스스로 감정을 다스리기 힘들 때 균형을 되찾을 수 있도록 돕습니다.
이런 현상은 신경계와거울신경의 작용과 관련 있는 것으로 알려져 있지만, 아직 연구가 계속되고 있는 영역이에요. 특히 저는 트라우마를 다루는 교육을 받은 상담사의 역할이 정말 중요하다고 생각합니다. 많은 사람들이 판단 받을까봐, 혹은 부끄럽다는 이유로 전문가의 도움을 피하곤 하거든요. 트라우마 전문가들은 이런 감정과 반응을 이해하고, 그 안에서 내담자가 스스로의 목표를 이루도록 돕는 방법을 배워왔습니다.
현실을 직면하는 일은 쉽지 않지만 반드시 필요합니다. 아무리 나를 지지해 주는 친구나 상담사가 있더라도, AI처럼내 말에 전부 맞장구치지는 않죠. 그들은 판단하지 않고 내 감정을 존중하려 노력하지만, 그렇다고 모든 생각에 동의해야 하는 건 아닙니다. 그리고 신뢰할 수 있는 사람에게서 오는 다른 의견은, 오히려 현실을 받아들일 수 있게 해줍니다.
이게 바로 앞에서 언급한 공감의 힘입니다. 누군가 곁에서 당신은 여전히 사랑받고 있고, 안전하며, 혼자가 아니라고 알려주는 존재 말이죠. 상담사는 오랜 훈련과 경험을 통해 내담자가 어떤 도움이 필요한지 또는 필요하지 않은지를 알아차릴 수 있습니다. 모를 때는 함께 탐색하거나, 직접 물어보기도 하죠. 이런 과정이 상담의 방향을 이끕니다. 반면, AI를 사용하는 사람은 자신이 무엇을 모르는지도 모르는 경우가 많습니다. 그리고 안타깝게도 AI는 그런 보지 못하는 부분을 비춰줄 수 없습니다.
켄드라 힐티의 사례에서도 그 점이 드러났습니다. 그녀의 AI는 불편하지만 꼭 필요한 대화나 심리적 평가가 완전히 빠져 있었죠. 이런 사례가 인간 상담사에게도 일어날 수 있지만, AI 챗봇에게는 예정된 결과라 할 수 있습니다.

상담사와 내담자는 윤리적 기준에 따라 친구가 될 수 없습니다. 그 이유는이중 관계가 치료 과정과 상담사의 돌봄 책임을 흐릴 수 있기 때문이죠. 하지만 이런 경계는 오히려 도움이 됩니다. 상담에서는 종종 예민한 주제를 다루기 때문에 자신의 이야기를 털어놓는 게 두렵지만 사람과의 연결을 원하는 내담자에게는 윤리와 비밀보장을 지키는 상담사와의 관계가 오히려 가장 안전하게 감정을 표현하고 정리할 수 있는 공간이 되니까요.
친구나 가족, 그리고 AI는 다릅니다. 관계에서 생긴 상처나 복잡한 감정을 다루는 전문 교육을 받은 건 아니죠. 또한 좋은 상담사는 판단하지 않고 언제 공감과 연민을 표현해야 하는지 압니다. 이 차이는 트라우마 치료에서 특히 중요합니다. 이건 연기가 아닙니다. 만약 상담사가 대본에 따라 감정을 흉내만 낸다면, 그 진정성 없는 태도는 곧장 내담자에게 전해지고, 상담의 신뢰와 감정적 회복이 무너질 겁니다. 혹시 현재 상담 관계에서 이런 문제를 겪고 있다면, 더 나은 상담사들은 분명히 존재한다는 걸 꼭 기억해 주세요.
전문가와 진행하는 치료는 언제나 서로가 함께 만들어가는 여정입니다. 좋은 상담사일수록 내담자가 ‘이걸 해야 할까요?’ 같은 질문으로 상담사에게만 의존하지 않도록 합니다. 대신 스스로 판단하고 자신을 믿는 힘을 키울 수 있게 하죠. 상담사들은 언제나 의존적인 관계나 경계가 흐려지는 순간을 주의하고 내담자가 스스로를 신뢰하고 현실을 균형 있게 바라볼 때 그걸 회복의 신호로 받아들입니다.
치료의 구체적인 목표나 방식이 무엇이든, 좋은 상담사는 내담자의 안전과 자율성, 그리고 심리적 회복을 중심에 두고 계획을 세웁니다. 반면, AI 챗봇은 진실이나 윤리적 책임보다는 사용자가 계속 그들에게 머무르게 하는 것이 우선이죠.
효과적인 상담과 심리치료는 과학이자 예술이라고 생각합니다. 치료 방식이나 접근법은 상담사마다 다르지만, 그 다양함이야말로 인간이 서로에게 닿는 방식의 풍요로움을 보여줍니다. 바로 그 사람과 사람의 만남 속에서 생겨나는 경험과 감정의 깊이가 인간 치료를 대체 불가능하게 만드는 이유입니다.
결국 건강한 내담자는 자기 인식, 자기 연민, 그리고 분별력을 갖게 됩니다. 자신의 마음을 들여다보고, 때로는 비뚤어진 생각을 스스로 바로잡을 수 있게 되는 것이죠. 상담사로서 저는 누군가가 이런 힘을 가지고 졸업해 나가는 순간만큼 기쁜 일은 없다고 생각합니다.
<원문>
No, AI Can Not and Will Not Replace Therapy
©️요즘IT의 모든 콘텐츠는 저작권법의 보호를 받는 바, 무단 전재와 복사, 배포 등을 금합니다.