요즘IT
위시켓
AIDP
콘텐츠프로덕트 밸리
요즘 작가들컬렉션물어봐
놀이터
콘텐츠
프로덕트 밸리
요즘 작가들
컬렉션
물어봐
놀이터
새로 나온
인기
개발
AI
IT서비스
기획
디자인
비즈니스
프로덕트
커리어
트렌드
스타트업
서비스 전체보기
위시켓요즘ITAIDP
고객 문의
02-6925-4867
10:00-18:00주말·공휴일 제외
yozm_help@wishket.com
요즘IT
요즘IT 소개작가 지원
기타 문의
콘텐츠 제안하기광고 상품 보기
요즘IT 슬랙봇크롬 확장 프로그램
이용약관
개인정보 처리방침
청소년보호정책
㈜위시켓
대표이사 : 박우범
서울특별시 강남구 테헤란로 211 3층 ㈜위시켓
사업자등록번호 : 209-81-57303
통신판매업신고 : 제2018-서울강남-02337 호
직업정보제공사업 신고번호 : J1200020180019
제호 : 요즘IT
발행인 : 박우범
편집인 : 노희선
청소년보호책임자 : 박우범
인터넷신문등록번호 : 서울,아54129
등록일 : 2022년 01월 23일
발행일 : 2021년 01월 10일
© 2013 Wishket Corp.
로그인
요즘IT 소개
콘텐츠 제안하기
광고 상품 보기
디자인

사랑받는 AI의 비밀: 구글 AX 가이드와 실무 예제

Sarah
10분
1시간 전
148
에디터가 직접 고른 실무 인사이트 매주 목요일에 만나요.
newsletter_profile0명 뉴스레터 구독 중

구글이 제안하는 사람 중심 AI 설계 가이드북 ‘PAIR’와 그 사례들

 

요즘 어디를 가나 인공지능 이야기가 빠지지 않습니다. 하지만 막상 우리가 마주하는 AI 서비스는 어떤 모습일까요. 가끔은 너무 똑똑해서 놀랍지만, 때로는 어디까지 괜찮은지 알 수 없어 당황스럽기도 합니다. 기술이 발전하는 속도에 비해 우리가 그 기술을 대하는 방식, 즉 사용자 경험(User Experience, UX)은 여전히 불투명한 상자 속에 갇혀 있는 듯한 느낌을 지우기 어렵습니다. 단순히 놀라운 기능을 구현하는 것을 넘어, 사용자가 안심하고 의지할 수 있는 서비스를 만드는 비밀은 과연 기술의 사양에만 있는 것일까요.

 

구글의 PAIR 가이드라인은 바로 이 지점에서 출발한 AI UX 설계 지도입니다. 이번 글에서는 이 가이드라인을 토대로 실제 사례를 찾아 덧붙였습니다. 그래머리와 당근이 사용자의 니즈를 재정의하고 적절한 기대치를 형성한 방법, 제미나이와 넷플릭스가 사용자와 신뢰를 쌓아 가는 방식, 그리고 유튜브와 지메일이 사용자에게 활용의 주도권을 돌려주는 과정을 살펴볼 예정입니다. 더불어 시리와 테슬라의 사례로 기업이 에러를 다루는 태도와 데이터로 성장하는 모델의 진화까지 함께 보려고 합니다.

 

시장을 이끄는 서비스들은 기술 뒤에 숨은 ‘사람의 마음’을 어떻게 설계했을까요? 그 6가지 핵심 원칙을 파헤쳐 봅니다.

 

1. 사용자 니즈와 성공의 정의(User Needs + Defining Success)

“AI가 해결해야 할 ‘진짜 문제’는 무엇인가?”

 

AI 제품을 설계할 때 가장 빠지기 쉬운 함정은 “이 기술로 무엇을 할 수 있는가?”에 매몰되는 것입니다. 구글 PAIR는 그 반대편에서 시작하라고 권고합니다. “사용자는 이 AI를 통해 어떤 결과를 냈을 때 ‘성공’이라고 정의하는가?”를 먼저 묻는 것이죠. AI는 마법이 아니라 도구입니다. 도구의 가치는 정확도(Accuracy), 즉 성능이 아니라 사용자의 목표(Goal)를 얼마나 정확히 타격하느냐에서 결정됩니다.

 

Grammarly: 단순 교정기에서 ‘커뮤니케이션 파트너’로

그래머리(Grammarly)는 AI와 함께 사용자 니즈를 어떻게 재정의했는지 보여주는 대표적인 사례입니다. 과거의 사용자 니즈가 단순히 오타를 내지 않는 것이었다면, AI 등장에 맞춰 그래머리는 이를 문맥에 맞는 톤 조정과 명확성의 개선으로 확장했습니다.

 

<출처: Grammarly>

 

  • 목적에 따른 가이드 제공: 사용자가 글을 쓰기 전 비즈니스용인지 혹은 캐주얼한 대화인지 설정하게 합니다. AI는 이 목표에 맞춰 교정의 강도와 단어 선택을 제안합니다.
  • 단순 교정을 넘어선 가치 제안: 맞춤법이 틀리지 않았더라도 문장이 너무 복잡하거나 무례하게 들릴 수 있다면 대안을 제시합니다. 사용자는 단순히 글을 고치는 것을 넘어, 자신의 의도를 더 완벽하게 전달할 수 있다는 ‘성공’을 경험합니다.
  • 지표의 변화: 그래머리 제품 단위로 성공이란 얼마나 많은 오타를 찾아냈느냐가 아니라, 사용자가 자신의 메시지에 얼마나 만족하느냐에 달려 있습니다.

 

이처럼 AI의 성공은 기술적인 정확도가 아니라 사용자의 목표 달성 여부에 달려 있습니다. 우리 서비스가 사용자에게 제공하는 결과물이 그들의 능력을 확장하고 가치를 높여주고 있는지 점검해야 합니다. 성공의 기준을 기능 구현이 아닌 사용자 경험의 완성도에 두어야 합니다.

 

 

2. 멘탈 모델과 기대치 설정(Mental Models + Expectations)

AI 서비스에게 첫인상은 매우 중요합니다. 사용자가 이 AI를 모든 문제를 해결해 주는 ‘마법의 지팡이’로 오해할지, 아니면 보조 도구로 인식할지는 디자이너가 설계한 멘탈 모델(Mental Model)에 달려 있습니다. 구글 PAIR는 사용자가 AI의 능력과 한계를 처음부터 명확히 인지하도록 도울 것을 강조합니다. 기대를 관리하는 일이 곧 사용자 경험의 질을 결정하기 때문입니다.

 

당근: 사진 한 장으로 완성되는 AI 중고거래 글쓰기

당근의 AI 글쓰기 기능은 사용자가 복잡한 설명을 직접 타이핑하는 수고를 덜어주면서도, AI가 어떻게 작동하고 있는지 그 과정을 투명하게 공개하여 적절한 기대치를 형성합니다.

 

<출처: 작가, 당근 캡처>

 

  • 진행 과정의 시각화와 투명성: 사용자가 사진을 선택하면 AI는 단순히 로딩 바를 보여주는 대신 ‘어떤 물건인지 추리 중’, ‘열심히 쓰는 중’, ‘잘 팔리게 다듬는 중’이라는 문구를 팝업으로 노출합니다. 이는 AI가 현재 어떤 단계를 수행하고 있는지 사용자와 소통하며 지루함을 덜어주고, 동시에 AI의 작업 방식을 이해하게 만드는 훌륭한 멘탈 모델 설계입니다.
  • 자동 작성과 편집의 주도권: 진행 단계가 끝나면 인풋창(Input)에 자동으로 글이 작성되어 있습니다. 사용자는 AI가 작성한 초안을 바탕으로 내용을 수정하거나 보충할 수 있습니다. 이는 AI를 완벽한 정답 제조기가 아니라 사용자의 작업을 도와주는 비서로 포지셔닝하여, 사용자가 최종 검토의 주도권을 갖게 합니다.
  • 결과에 대한 한계 명시: 작성 화면 하단에는 ‘AI로 작성된 내용은 틀릴 수 있어요’라는 안내 문구가 상시 노출됩니다. 이는 발생할 수 있는 오류에 대해 미리 공지함으로써 사용자에게 최종 확인의 책임이 있음을 자연스럽게 인지시키고, 잘못된 정보로 인한 실망감을 방지합니다.

 

AI 채팅 서비스: “AI는 실수할 수 있습니다”

ChatGPT와 Gemini 등 LLM 기반 채팅 서비스의 입력창을 유심히 보면 공통으로 보이는 문구가 있습니다. 바로 “AI는 실수할 수 있습니다. 중요한 정보는 확인하세요.”와 같은 안내 문구입니다. 이 짧은 한 줄은 단순한 면책 조항이 아니라, 생성형 AI 시대의 UX 철학을 드러내는 장치입니다.

 

<출처: 작가, ChatGPT, Gemini 캡처>

 

  • 자동 생성과 사용자의 최종 책임: 질문을 입력하면 즉시 문장, 코드, 요약, 분석 결과를 생성합니다. 속도와 완성도는 인상적이지만, 그 아래에는 항상 “AI는 실수할 수 있습니다”라는 문장이 함께 존재합니다. 이는 책임을 분산하기 위한 장치가 아니라 역할을 명확히 구분하는 설계입니다. AI는 생산성을 높이는 보조자이고, 판단의 주체는 여전히 사용자입니다.
  • 비판적 사고 유지: 이 한 줄은 기대치를 관리하는 UX 장치이기도 합니다. 과도한 신뢰를 방지하고 맹목적인 의존을 줄이며, 인간이 비판적 사고를 유지하도록 돕습니다.
  • 시스템 한계 이해: 만약 이러한 안내 없이 오류가 발생한다면 사용자는 배신감을 느낄 수 있습니다. 그러나 사전에 한계를 고지하면 사용자는 오류를 ‘시스템의 본질적 특성’으로 이해하게 됩니다.

 

사용자가 AI를 블랙박스처럼 느끼게 해서는 안 됩니다. AI가 무엇을 근거로 생각하고 있는지, 그 과정을 단계별로 보여주는 것만으로도 사용자는 서비스에 대한 신뢰를 얻습니다. 또한 AI의 한계를 솔직하게 안내하는 것이 오히려 서비스의 신뢰도를 높이는 가장 빠른 길입니다.

 

 

3. 신뢰와 설명(Trust + Explanations)

사용자에게 AI는 종종 속을 알 수 없는 검은 상자와 같습니다. 구글 PAIR 가이드라인은 AI가 내놓은 결과에 대해 충분한 설명을 제공함으로써 사용자가 그 제안을 믿어도 될지 스스로 판단하도록 만들어야 한다고 강조합니다. 신뢰는 AI의 뛰어난 성능 그 자체보다, 과정의 투명성에서 시작됩니다.

 

AI 검색 서비스: 출처 표기를 통한 검증 가능성의 확보

ChatGPT, Perplexity 등 AI 기반 검색 기능을 제공하는 서비스는 답변의 근거가 된 웹 페이지를 직접 확인하며 이동할 수 있는 기능을 강화해 답변의 신뢰도를 높이고 있습니다.

 

<출처: 작가, Perplexity, ChatGPT 캡처>

 

  • 인용 기호와 출처 표시: 답변의 특정 문장 옆에 작은 아이콘이나 번호 형태의 인용 표기를 남깁니다. 이는 AI가 임의로 만들어낸 이야기가 아니라 실제 존재하는 정보를 바탕으로 답변했음을 보여주는 시각적 장치입니다.
  • 외부 링크 이동 기능: 인용 표기를 클릭하면 해당 정보의 원천이 되는 기사나 공식 문서로 바로 이동할 수 있습니다. 사용자는 AI의 답변을 수동적으로 받아들이는 데서 그치지 않고, 정보를 직접 검증하며 서비스에 대한 신뢰를 쌓게 됩니다.

 

Netflix: 숫자보다 명확한 키워드 설명

최근 Netflix는 단순한 매칭 점수 대신 콘텐츠의 특징을 묘사하는 키워드를 통해 추천의 이유를 설명합니다.

 

사용자 프로필 별로 다른 홈 화면 리스트의 헤더 <출처: 작가, Netflix 캡처>

 

  • 정성적인 태그 제공: ‘긴장감 넘치는’, ‘실화 바탕’, ‘가슴 뭉클한’과 같은 구체적인 태그를 노출합니다. 사용자는 ‘90퍼센트 일치’라는 모호한 숫자보다 이러한 키워드로 이 영화가 왜 자신의 취향에 맞는지 더 잘 이해합니다.
  • 맥락 기반의 이유 제시: ‘당신이 시청한 영화’ 혹은 ‘한국 드라마 팬을 위한 추천’과 같이 추천의 근거로 쓴 행동이나 그룹화된 취향을 명시합니다. 이는 시스템이 나를 잘 이해하고 있다는 느낌을 사용자가 받게 만듭니다.

 

이처럼 설명은 단순히 정보를 나열하는 것이 아닌 사용자의 의사결정을 돕는 장치여야 합니다. 때로는 정교한 수치보다 출처를 직접 확인할 수 있는 링크나 직관적인 키워드 한마디가 사용자의 신뢰를 얻는 데 더 효과적입니다. 우리 서비스가 사용자에게 제공하는 설명이 그들의 불안을 해소하고, 판단의 근거로 쓰이고 있는지 고민해야 합니다.

 

 

4. 피드백과 제어(Feedback + Controls)

AI는 완벽하지 않기에 사용자가 이를 교정하고 자신의 취향에 맞게 조정할 수 있는 장치가 필수적입니다. 구글 PAIR 가이드라인은 사용자가 직접 피드백을 주고 AI를 제어할 때 비로소 서비스와 사용자 사이의 긴밀한 협업이 가능해진다고 강조합니다. 사용자가 핸들을 쥐고 있다는 느낌을 주는 것이 핵심입니다.

 

Youtube: 알고리즘을 길들이는 명시적 피드백

Youtube는 사용자가 자신의 홈 피드를 직접 구성할 수 있도록 강력한 피드백 도구를 제공합니다.

 

<출처: 작가, Youtube 캡처>

 

  • 명확한 제어 버튼: 추천 영상이 마음에 들지 않을 때 ‘관심 없음’이나 ‘채널 추천 안 함’ 버튼을 통해 즉각적으로 의사를 표시할 수 있습니다. 이는 사용자 스스로가 수동적으로 추천을 받아들이는 존재가 아니라, 알고리즘을 교육시키는 주체임을 느끼게 합니다.
  • 피드백 반영 알림: 사용자가 피드백을 주면 ‘다시 추천되지 않습니다’라는 안내로 자신의 행동이 시스템에 실제 영향을 미쳤음을 확인시켜 줍니다.

 

Gemini: 대화 만족도 피드백으로 완성하는 협업 구조

제미나이는 “지금까지 Gemini와 나눈 대화가 얼마나 도움이 되었나요?”라는 질문을 던지며, ‘전혀 도움이 되지 않음’부터 ‘대단히 도움이 됨’까지를 범주로 평가를 요청합니다. 이는 AI를 일방향으로 소비하는 대신 상호작용에 기반한 개선 과정으로 확장하는 장치입니다.

 

<출처: 작가, Gemini 캡처>

 

  • 연속 척도 기반 만족도 평가: 사용자는 극단적인 긍정·부정 선택 대신 단계별 선택지를 통해 자신의 만족도를 표현할 수 있습니다. 이는 단순한 좋아요/싫어요보다 더 정교한 신호를 제공합니다. AI는 이 데이터를 바탕으로 응답 품질을 개선하고 전반적인 사용자 경험을 조정합니다.
  • 정성 피드백 유도: 낮은 점수를 선택할 경우 추가 의견을 작성하도록 유도하는 구조는 특히 중요합니다. 무엇이 부족했는지, 어떤 부분이 불명확했는지를 구체적으로 전달할 수 있기 때문입니다. 무엇보다 이로써 사용자는 단순한 평가자가 아닌 개선 과정의 참여자가 됩니다. 이러한 경험은 AI에 대한 신뢰 형성과 장기적인 사용에도 영향을 줍니다.

 

AI UX에서 제어권은 사용자의 만족도와 직결됩니다. 사용자가 AI의 제안을 거절하거나 수정하는 과정을 복잡하게 만들지 마세요. 언제든 AI의 개입을 멈추거나 방향을 바꿀 수 있는 핸들을 쥐여 줄 때, 사용자는 비로소 해당 서비스를 자신의 유능한 도구로 신뢰하게 됩니다.

 

 

5. 에러와 우아한 실패(Errors + Graceful Failures)

AI는 완벽할 수 없으며, 때로는 사용자의 의도를 오해하거나 좋은 결과를 생성하지 못할 수 있습니다. 구글 PAIR 가이드라인은 이러한 실패의 순간을 사용자를 내쫓는 장애물이 아니라 학습과 교정의 기회로 바꾸는 ‘우아한 실패(Graceful Failures)’로 설계할 것을 강조합니다.

 

Siri: 다음 행동을 지시하는 친절한 가이드

Siri는 기술적인 한계나 보안상의 이유로 명령을 즉시 수행할 수 없을 때 단순히 “안 됩니다”라고 말하지 않습니다. 대신 사용자가 무엇을 해야 하는지 구체적인 해결 방법을 제시합니다.

 

<출처: 작가, 아이폰17 화면 캡처>

 

  • ​​보안 및 개인정보 보호 안내: “에어팟 프로 어디 있어?”라고 물었을 때 Siri는 기기의 위치 정보를 다루기 위해 보안 확인이 필요함을 인지합니다. 이때 “먼저 아이폰의 잠금을 해제해 주세요”라고 안내하며, 사용자가 어떤 절차를 거쳐야 원하는 정보를 얻을 수 있는지 알려줍니다.
  • 기능 활성화를 위한 설정 유도: “근처 맛집 찾아줘”라고 요청했는데 위치 서비스가 꺼져 있다면 “현재 위치를 알 수 없습니다”라는 오류 메시지 대신 “위치 서비스를 켜주시면 식당을 찾아드릴 수 있어요”라고 말합니다. 이는 사용자가 설정을 변경해야 하는 이유와 목적을 동시에 이해할 수 있도록 돕는 설계입니다.

 

Gemini: 정책 위반 시의 투명한 이유 공개

이미지 생성이나 콘텐츠 제작 같은 요청이 구글의 안전 정책 또는 저작권 가이드라인에 부딪힐 때, 시스템은 사용자가 납득할 수 있는 구체적인 실패 사유를 제공합니다.

 

<출처: 작가,Gemini 캡처>

 

  • 저작권 및 정책 가이드라인 명시: 예를 들어 사용자가 “디즈니 공주인 엘사와 신데렐라가 서로 옷을 바꿔 입은 그림을 그려줘”라고 요청할 경우 시스템은 이를 거절해야 하는 상황에 놓입니다. 이때 나노바나나프로 모델은 “서드 파티 콘텐츠와 관련된 구글의 안전 장치로 인해 이 프롬프트에 대한 대답을 생성할 수 없습니다”라는 메시지를 표시합니다.
  • 실패의 원인 특정: 단순히 ‘생성 실패’라고 표시하는 대신 ‘서드 파티 콘텐츠’, 즉 저작권과 관련된 안전 장치가 작동했음을 구체적으로 밝힙니다. 사용자는 이를 통해 자신의 요청이 왜 거절되었는지 이해하게 되고, 정책을 우회하려는 헛된 시도 대신 다른 방식의 프롬프트를 고민할 수 있게 됩니다.

 

에러 메시지는 시스템의 무능함을 알리는 경고장보다는 사용자와의 대화를 이어가는 징검다리가 되어야 합니다. 실패의 원인을 투명하게 밝히고, 사용자가 잠금을 해제하거나 정책에 맞는 다른 키워드를 선택하는 등 다음 행동으로 무엇을 해야 할지 친절하게 제안해야 합니다. 기술 한계나 정책의 제약이 서비스의 신뢰를 깎지 않도록, 우아하게 대처하는 흐름을 설계하는 것이 중요합니다.

 

 

6. 데이터와 모델의 진화(Data + Model Evolution)

AI 서비스의 진정한 가치는 시간이 흐를수록 사용자를 더 잘 이해하고 발전하는 데 있습니다. 구글 PAIR 가이드라인은 제품이 사용자 데이터를 통해 어떻게 개선되는지 투명하게 알리고, 그 변화를 사용자가 체감할 수 있도록 설계할 것을 권장합니다. 여기서는 정체된 서비스가 아니라 진화하는 파트너라는 인상을 주는 것이 핵심입니다.

 

Tesla: 실제 주행 데이터 기반의 안전한 진화

Tesla는 단순한 소프트웨어 업데이트를 넘어, 실제 도로 위 수백만 대의 차량에서 수집되는 방대한 데이터를 통해 주행 지능을 근본적으로 진화시키고 있습니다.

 

FSD <출처: Tesla>

 

  • 코드에서 신경망으로의 대전환: 과거에는 수십만 줄의 코드로 규칙을 정의했지만, 최신 FSD에서는 모든 판단을 신경망이 스스로 내리는 엔드 투 엔드 AI 방식을 채택했습니다. 이는 사람이 일일이 가르치기 어려운 복잡한 상황을 AI가 실제 운전 데이터로부터 학습하도록 만들어, 더 사람답고 부드러운 운전을 가능하게 합니다.
  • 하드웨어와 소프트웨어의 협업: 최신 AI 하드웨어인 AI4를 장착한 차량뿐만 아니라 기존 하드웨어를 사용하는 차량에도 학습된 데이터를 최적화해 제공함으로써, 모든 사용자가 기술 발전의 혜택을 함께 누릴 수 있도록 설계되었습니다.

 

지금 시대, 데이터 활용의 핵심은 투명성과 가치 전달입니다. 사용자가 제공하는 정보가 단순한 수집에 그치지 않고, 어떻게 더 안전하고 유능한 경험으로 되돌아오는지 수치와 성능으로 보여주어야 합니다. 모델의 진화 과정을 사용자와 지속적으로 공유할 때, 사용자는 단순한 소비자를 넘어 서비스의 성장을 돕는 협력자가 됩니다.

 

 

마치며

지금까지 살펴본 구글 PAIR의 6가지 원칙은 기술의 화려함보다는 기술을 사용하는 사람에게 초점을 맞추고 있습니다. 그렇기에 중요한 것은 AI 기술이 사용자의 일상에서 어떤 가치를 만들어 내고, 얼마나 신뢰할 수 있는 파트너로 자리 잡느냐입니다. 훌륭한 AI UX는 사용자를 무력하게 만드는 것이 아니라 AI라는 강력한 도구를 손에 쥔 ‘슈퍼 플레이어’로 만들어 줍니다. 기술이 복잡한 로직을 가질수록 우리는 그 복잡함을 걷어내고, 사용자가 주도권을 가질 수 있는 투명한 통로를 설계해야 합니다.

 

마지막으로 이 글을 읽어주신 모든 분에게, 어쩌면 너무 당연해서 지나쳤을지 모를 질문 하나를 나누며 글을 마무리하고 싶습니다. 우리는 혹시 AI의 완벽함을 증명하려 애쓰느라, 사용자가 머물러야 할 빈칸까지 모두 채워버리고 있지는 않을까요?

 

진정으로 사람을 위한 AI는 모든 정답을 대신 내주는 전지전능함보다는, 사용자가 그 기술을 직접 매만지고 고쳐가며 자신만의 도구로 길들여 갈 유연한 여백을 허용하는 데서 시작될지도 모릅니다. AI가 조금 서툴거나 침묵하는 순간마저도 사용자를 당황하게 만드는 결함이 아닌 기술과 사람이 서로의 속도를 맞춰 가는 대화의 과정이 될 수 있도록 말입니다.

 

AI는 갈수록 유능해지겠지만, 그 기술에 온기를 불어넣고 사용자의 주도권을 지켜 주는 일은 여전히 우리 디자이너들의 몫으로 남아 있습니다. 거창한 정답을 설계하기보다 사용자가 안심하고 AI라는 새로운 가능성을 탐험할 수 있도록, 작고 사소한 통로를 하나씩 열어 주는 것부터 시작해 보면 어떨까요. 결국 AI 시대의 디자인은 정답을 보여주는 기능의 설계가 아니라 신뢰를 쌓아 가는 과정의 설계입니다. 기술이 고도화될수록 우리가 지켜야 할 자리는 기술 그 자체를 너머 이를 마주하는 사람의 마음이라는 점을 잊지 말아야 합니다.

 

©️요즘IT의 모든 콘텐츠는 저작권법의 보호를 받는 바, 무단 전재와 복사, 배포 등을 금합니다.