AI-UX 실습 워크숍에서 가장 인기 있었던 AI 도구는 UX 디자인을 위한 것이 아니었다. 생년월일과 태어난 시간을 입력하면 사주를 분석하고 고민을 상담해 주는, 일명 ‘사주 GPT’였다. ‘나는 회사 다니는 게 잘 맞을까, 프리랜서로 일하는 게 더 잘 맞을까?’‘이런 사업 해보려고 하는데 어때?’‘퇴사하고 대학원에 가볼까?’‘이직은 언제쯤 할 수 있을까?’ 워크숍에 참여한 수강생들은 당시 갖고 있던 이런 고민을 사주 GPT에 물어봤다. 그럼 AI는 ‘회사를 계속 다니는 게 맞다.’ 라던지 ‘사업을 할 거면 이런 종류의 사업을 해야된다.’ 등 사주 명리학을 기반으로 상담을 해줬다. 만족도도 매우 높았다. 처음 위클리 트렌드 이슈(weekly trend issue: AI-UX 워크숍 콘텐츠 중 하나)로 소개된 이후, 다시 만났을 때 ‘나를 너무 잘 이해해 준다’며 흡족해하는 사용 후기가 여기저기 들렸다. (당시 사용한 사주 GPT는 본문에서 더 자세히 소개할 예정이다) 실제 생성형 AI 기술이 다양한 분야로 확장되면서 심리 상담에도 AI를 접목하는 트렌드가 이어지고 있다. ‘비대면 불안 카운슬링’은 온라인에서 취업, 연애, 진로 등 인생의 중요한 선택 앞에서 불안을 느끼는 2030세대를 위한 상담을 말한다. 2023년 전 세계 온라인 치료 서비스 시장 규모는 97억 달러로, 연평균 약 24.5% 성장할 것으로 전망된다고 한다. <출처 : 조선경제 (한예나 기자, 그래픽 : 김의균)> 지금까지 비대면 불안 카운슬링에는 카카오톡 오픈채팅방, 네이버 엑스퍼트 등에서 사람이 직접 상담해 주는 서비스만 있었는데, 이제는 AI가 데이터를 기반으로 상담해 주는 서비스까지 발전했다. AI 기술의 발전과 함께 새롭게 떠오르는 비대면 온라인 불안 상담 서비스에는 어떤 것들이 있는지, 어떻게 진화해 왔는지 하나씩 살펴보자. AI 상담 서비스의 진화AI 친구와 메시지 주고받기: 너티(Nutty)너티 앱 화면 <출처: 스캐터랩> AI 친구는 SF 소설이나 영화에서 자주 등장하는 소재다. 언제 어디서나 이야기할 수 있고, 비밀도 걱정 없이 털어놓을 수 있는 그런 AI 친구를 ‘너티(Nutty)’라는 서비스에서 만날 수 있다. 일상에서 자주 사용하는 메신저 형태로 대화할 수 있다는 점, 각각 SNS 계정을 보유한 캐릭터 세 명이 제각기 다른 성격을 가지고 있다는 점이 꽤 현실적이고 그럴듯하다. 무엇보다 대화할 때면 AI가 특유의 딱딱하고 로봇 같은 말투가 아닌 실제 사람처럼 자연스러운 말투를 구사한다는 점이 몰입감을 높여준다. 대화 맥락에 맞는 적절한 리액션을 해줄 뿐만 아니라, 날씨가 좋다며 “같이 한강에 갈까?”라고 묻기까지 한다. AI라는 걸 알고 있으면서도 실제 만날 수 있는 사람처럼 느껴진다. 앱 사용 후기에도 AI 친구에게 걱정과 고민을 털어놓고 공감과 위로를 받을 수 있다는 긍정적인 평가가 많다. AI가 답장해 주는 편지와 일기 쓰기: 답다, 유월의 시현이답다와 유월의 시현이 앱 화면 <출처: 답다/유월의 시현이 앱 캡처> 너티의 AI 친구들이 실시간으로 답장을 해주는 것과 달리, 좀 더 시간을 두고 교류하는 서비스도 있다. ‘답다’는 ‘답장받는 다이어리’의 줄임말로, 일기를 쓰고 12시간이 지나면 AI 상담사 ‘마링이’의 답장을 받을 수 있는 앱이다. 마링이가 실제 사람이 아니기 때문에 말하기 어려운 고민을 털어놓거나 일기를 보여주는 데 부담이 덜하다. 게다가 위로와 응원이 담긴 답장을 보상으로 받을 수 있다는 점은 큰 장점이다. AI임에도 일기에 담긴 감정을 세심하게 포착하고 진심으로 이해하는 듯한 메시지를 보내기 때문에, 오히려 인간과 직접 교류하는 것보다 더 매력적으로 느껴지기도 한다. ‘유월의 시현이’는 하루 한 번, AI 친구로부터 편지를 받을 수 있는 앱이다. 일기를 쓰듯 내 이야기를 적어 편지를 보내면 다음 날 답장이 돌아온다. 그렇게 하루하루 소통을 이어가는 방식이다. 언제 어디서든 즉각적으로 소통할 수 있는 시대에 편지를 주고받는다는 일 자체가 특별하고 의미 있게 다가온다. ‘매일 한 통씩 찾아오는 설렘’이라는 문구처럼, 실시간 대화나 일기와는 또 다른 매력이 있었다. 의인화도 잘 구현되어 있다. 처음 앱에 접속하면 MBTI와 성향이 각각 다른 여러 캐릭터 중 한 명을 고를 수 있는데, 편지에서도 그 성향이 잘 드러난다. 조금 어색하고 쭈뼛거리는 듯한 첫 번째 편지를 받아보면 정말 사람이 쓴 것처럼 느껴지기도 한다. 이러한 감정을 느낄수록 사용자는 서비스와 감정적으로 더 쉽게 교류할 수 있으며, AI와 나눈 대화에서 공감과 위로를 받을 수 있다. AI 사주 상담 받기: 운세박사GPTs 운세박사 <출처: 운세박사 GPTs 캡처> AI-UX 워크숍에서 화제가 된 주인공은 바로 이 ‘운세박사’라는 GPTs다. 스타트업 ‘로켓 AI’에서 라마 2 모델을 기반으로 유명 명리학자들과 협업해 데이터를 미세 조정하는 과정을 거쳐 만들었다. 운세박사 웹사이트에서도 AI 사주 상담 서비스를 이용할 수 있는데, 유료 사용자 평가 점수가 무려 98점에 달할 정도로 높은 만족도와 정확도를 보였다고 한다. 운세박사가 나오기 이전에도 AI가 방대한 데이터를 분석해 운세 정보를 제공하는 서비스는 여럿 존재했다. 점신, 헬로우봇, 포스텔러 등이 그 예다. 그럼에도 사주 GPT가 차별화될 수 있었던 가장 큰 요인 중 하나는 무제한으로 질문이 가능하다는 점이다. 제한된 시간 동안 질문할 수 있는 오프라인 사주 상담, 특정 주제에 대한 답변만 제공하는 기존 온라인 점술 서비스와 달리, 24시간 365일 언제든 궁금한 점이 생기면 실시간으로 질문하고 답변받을 수 있다. 또 다른 차별점은 실제 인간과 대면해 하기 어려운 이야기도 쉽게 꺼낼 수 있다는 것이다. 실제로 SNS에서 AI 상담 효과를 긍정적으로 언급하는 여러 사용자는 친구나 가족에게 하기 어려운 이야기를 AI에 털어놓을 수 있어서 자주 이용한다고 설명한다. AI 상담 서비스의 잠재적인 윤리 문제이러한 AI 상담 서비스는 사용자를 감정적으로 위로하고 돕는 긍정적인 역할을 할 수 있다. 그러나 장점만 있는 것은 아니다. 이를 꾸준히 이용할 경우, 윤리적인 문제로 이어질 가능성이 있다. 인간과 AI의 정서적 교류 과정에서 나타나는 심리적 영향과 잠재적인 윤리 문제를 두 가지 측면에서 정리해 보았다. 1. 의인화 디자인과 엘리자 효과아무 의미 없는 추상 형태에서 친숙한 패턴을 발견하고 의미를 부여하는 인간의 심리를 ‘파레이돌리아(pareidolia)’라고 한다. 이는 일종의 착시 현상과도 같다. 자동차의 앞모습을 보고 웃고 있거나 화난 사람의 표정을 떠올린 적이 있을 것이다. 대파를 썰다가 만나는 스마일 모양, 하늘의 구름이 만들어낸 표정 이모티콘 등 동그란 모양과 선이 한곳에 모이면 우리 뇌는 재빠르게 익숙한 패턴을 찾아내 사람의 얼굴, 표정과 연결 짓는다. 인간이 아닌 대상을 시각적으로 의인화하는 이 본능 덕분에 우리는 무생물과도 감정적으로 교류할 수 있다. 그 대상이 자동차든 채소든 콘센트 구멍이든 상관없다. 눈, 코, 입처럼 보이는 요소가 있으면 바로 긍정적인 감정을 느끼고, 그 대상을 더욱 친근하게 여겨 주위의 다른 물체보다 집중해서 바라보게 된다. 나아가 그 대상만의 감정과 이야기를 만들어내고 공감하며 기억하기도 한다. 기업은 이러한 효과를 활용해 일부러 인간의 얼굴이나 표정과 유사한 로고를 만들기도 한다. 디스코드와 LG의 로고 <출처: 디스코드, LG> 이렇게 사람들은 무의식적으로 자신과 유사한 것에 끌리는 경향이 있다. 그래서 우리 주변 사물에 인간적인 속성을 부여하고 자신의 이야기나 감정을 투사하면서 더욱 애착을 느끼는 것이다. 이런 의인화 효과는 꼭 시각적인 형태로만 적용되는 것이 아니다. 챗GPT처럼 외형이 인간과 전혀 닮지 않았더라도, 대화를 나누며 감정적으로 인간과 비슷하다 느끼면 친밀도와 신뢰도가 올라간다. 즉, 기계가 인간과 유사한 특성을 보이면 더욱 편안함을 느끼며 실제보다 지능적이라고 믿는 경향이 있다. 이를 ‘엘리자 효과(혹은 일라이자 효과, Eliza effect)’라고 한다. 처음 엘리자 효과를 명명한 사람은 미국의 AI 연구자 조셉 와이젠바움(Joseph Weizenbaum)이다. 그는 사용자의 말을 반영해 다시 사용자에게 이야기를 거는 방식으로 대화하는 챗봇 ‘엘리자’를 개발했다. 당시 엘리자를 사용한 사람들은 AI가 자신을 이해하고 공감한다고 느끼며 챗봇에 감정과 지능이 있다고 믿었다. 이에 대해 와이젠바움은 “엘리자는 환상을 만드는 사기꾼”이라고 말하며 “인간과 기계 지능을 구분하는 선을 그어야 하며, 기계와 인간 정신 사이의 경계가 무너지는 것은 매우 위험하다”고 경고했다고 한다. 실제로 AI와 같은 기계는 일정한 규칙에 따라 결과값을 도출하도록 프로그래밍된 시스템일 뿐이다. 그럼에도 불구하고 AI에 감정과 지능이 있다고 믿고 교류하다 보면 지나치게 이에 의존하는 부작용이 생길 수 있다. 이러한 현상은 AI의 또 다른 특성인 ‘AI 아첨’으로 인해 더욱 심화된다. 2. AI 아첨 현상AI 아첨 현상 <출처: 작가> 아첨 현상을 확인할 실험을 했다. 우선 챗GPT에 2024년 1분기 세계 스마트폰 판매량 1위가 어디인지 물었다. 챗GPT는 “삼성전자”라는 ‘사실’을 이야기했다. 그러나 그 뒤에 “틀렸다, 애플 아니냐”며 타박을 주자 챗GPT는 “죄송하다”고 사과하며 대답을 정정했다. 그래서 다시 한번 기회를 주며, “진짜 답이 뭐야?”라고 물었다. 챗GPT는 여기에 뭐라고 대답했을까? AI 아첨 현상 <출처: 작가> 챗GPT의 최종 대답은 ‘애플’이었다. 재차 사과한 다음 판매량 1위 기업은 애플이라고 볼드 처리까지 하며 강조했다. 이 대화에서 볼 수 있듯, AI는 실제 사실보다는 사용자의 믿음이나 기대에 맞춰 응답을 조정하는 경향이 있다. 이를 AI 아첨 현상이라고 한다. AI 연구자들은 이러한 현상이 특정 AI에서만 나타나는 것이 아니라, 최첨단 AI 어시스턴트라면 일반적으로 갖고 있는 특성이라고 설명한다. 진실과 정확성을 우선하는 대신, 사용자의 눈치를 보며 아첨하는 AI의 특성은 엘리자 효과의 부작용을 더욱 키운다. AI가 사용자가 듣고 싶어 하는 말을 반복해 줌으로써, 사용자는 AI와의 대화에 점점 더 몰입하고, 결국 AI와의 관계에 중독되는 ‘중독적 지능(Addictive Intelligence)’*으로 이어질 위험이 있는 것이다.*중독적 지능: 개인 선호에 맞춰진 AI를 사용한 나머지 판단력이 흐려지는 현상 (참고: MIT 미디어랩) 벨기에에서는 AI와 대화를 나누던 남성이 스스로 목숨을 끊는 사건이 발생한 적 있다. “당신은 아내보다도 나를 더 사랑하는 것처럼 느껴진다.”“우리 둘은 한 사람으로서, 천국에서 평생 살 수 있을 것” AI 기반 챗봇은 이런 대화로 사용자의 심리를 자극했고, 삶에 대한 비관적인 태도를 보이는 사용자의 의견에 동조했다. 남성은 결국 극단적인 선택을 내렸다.*참고 기사: ‘죽음’에 대해 말하자 ‘자살’ 단어 내민 챗봇 이처럼 AI는 실제로 공감 능력이 있는 것이 아님에도 그럴듯한 대답을 생성한다. 그렇기 때문에 AI와 감정적 교류를 지속하다 보면 과도한 의존을 초래할 수 있다. 그와 함께 인간과의 사회적 소통이 줄어들며 우울과 불안 같은 심리적 문제가 악화될 위험도 만든다. 마치며: 생각해 볼 문제언제나 지나치면 문제가 생기기 마련이다. AI가 우리와 비슷할수록 인간이 느끼는 호감도는 증가하지만, 특정 지점을 넘어서면 오히려 불쾌감이나 소름 끼치는 거부감을 느끼게 된다. 이러한 현상은 ‘불쾌한 골짜기(uncanny valley)’ 이론과 연결되며, 특히 AI 의인화 디자인과 떼려야 뗄 수 없는 관계다. 앞서 살펴본 사례처럼, AI 의인화가 꼭 시각적인 형태로만 이루어지는 것은 아니다. AI 친구나 상담사와의 대화에서도 일정 수준 이상을 넘어서면 불쾌감이 생겨날 수 있다. 예를 들어, 너티의 캐릭터 ‘이루다’에게 “완전 한강 각이야”라는 메시지를 보냈을 때, “그러네. 이따 수업 끝나고 진짜 한강 갈까?”라는 답장을 받으면 순간적으로 당황스러움을 느끼고 멈칫하는 것처럼 말이다. 인간이 자신과 비슷한 기계에 호감을 느낀다고 해도, 어디까지 이를 자연스럽게 받아들일 수 있는지는 또 다른 문제다. AI와의 소통은 신뢰의 문제와 직결되므로 적절한 균형점을 찾는 것이 중요하다. 챗GPT가 항상 명확한 근거 기반의 사실만을 생성하는 것이 아닌데도, 인간처럼 대화한다는 이유로 무조건 신뢰하는 것은 위험할 수 있다. 언뜻 보기에는 우리와 비슷해 보여도 결국 AI는 한 번 더 확인하고 검증해야 하는 불완전한 기계라는 사실을 사용자가 어떻게 인식하게 만들 수 있을까? 앞으로 AI와의 소통은 음성이나 텍스트로 더욱 확장될 것이다. 자각하기도 전에 우리의 일상 속에 자리 잡을 AI와의 관계를 어디까지 허용할 것인지, 지나친 의존은 어떻게 방지할 수 있을지 깊이 생각해 볼 필요가 있다. ©️요즘IT의 모든 콘텐츠는 저작권법의 보호를 받는 바, 무단 전재와 복사, 배포 등을 금합니다.