에이전틱 서치: ‘추론 모델’이 쏘아 올린 검색 시장의 변화(1)
2025년 초, 오픈AI(OpenAI)가 선보인 ‘딥 리서치(Deep Research)’는 AI 검색 시장에 적지 않은 충격을 안겼습니다.
이 기능은 단순히 질문에 대한 답변을 제공하는 데 그치지 않고, AI가 스스로 웹을 탐색하고 문서를 읽으며, 수차례의 추론과 행동을 거쳐 리포트 형태의 결과를 작성해주는 일종의 지능형 리서치 에이전트였습니다. 사람들은 곧 깨달았습니다. "이건 검색이 아니라, 일을 대신해주는 AI다."
딥 리서치처럼 AI가 여러 단계의 작업을 스스로 계획하고 실행할 수 있는 시스템을 ‘에이전틱(agentic)’하다 하고, 검색에서 이 ‘에이전틱’이 구현된 것을 ‘에이전틱 서치(Agentic Search)’라고 하는데요. 이 개념은 지금 AI 기술 트렌드의 최전선에 있습니다. AI 검색이 정보를 요약해주거나 링크를 클릭해야 하는 수고로움을 덜어주었다면, 에이전틱 서치는 더 나아가 질문의 맥락을 이해하고, 스스로 필요한 정보를 찾고, 판단하고, 정리하여 결과뿐 아니라 사고 과정까지 함께 제공하는 것이죠.
검색이라는 개념이 더 이상 ‘검색창에 입력하고 클릭하는 것’을 의미하지 않게 된 것입니다. 요즘 구글 검색의 위기가 언급되는 데는 이런 배경도 있습니다.
‘딥 리서치’를 가능하게 했을뿐 아니라 ‘에이전틱’에 대한 기대감을 더욱 촉발한 것은 바로 ‘추론(reasoning) 모델’이었습니다. 기존 LLM이 주어진 질문에 대해 그럴듯한 다음 단어를 예측해 빠른 답을 만들어냈던 것에서 한발 더 나아가, 스스로 ‘이게 맞는 방향인지’ 판단하는 사고 과정을 거쳐 답을 내놓는 것이 추론 모델입니다. 오픈AI가 o1을 먼저 내놨고, 이후 딥시크의 R1이 오픈소스로 공개되며 더 큰 반향을 일으켰죠.
이 글에서는 이러한 트렌드의 한가운데서 AI 검색 시장을 바꾸고 있는 ‘라이너’의 허훈 테크리드가 ‘에이전틱 서치’의 등장 배경과 앞으로 변화할 환경을 쉽게 설명합니다. 이 글을 읽고 나면 에이전틱 서치라는 키워드를 중심으로 검색 시장의 변화 전반과 트렌드를 이해할 수 있습니다.
허훈 리드는 대학에서 포르투갈어와 컴퓨터 공학을 전공한 뒤 리걸테크 스타트업과 카카오 브레인에서 자연어 처리 연구를 하다가 라이너에 합류해 추천, 검색, 그리고 현재는 에이전트 관련 업무를 맡고 있습니다. ‘월간 자연어처리’라는 페이스북 페이지를 운영하기도 했습니다.
안녕하세요. AI 검색 플랫폼 스타트업 라이너에서 기술 전반의 의사결정 및 실행을 담당하고 있는 테크 리드 허훈입니다.

라이너는 검색을 혁신하는 곳이다 보니, 이곳에서 기술을 리드하는 저로서는 검색 시장 트렌드를 계속 모니터링하고 있는데요. 현재 ‘검색 시장’에서는 ‘에이전틱 서치’라는 키워드가 가장 주목받고 있습니다. AI 시장에 관심이 있으신 분들은 들어보셨을 텐데요. 이 ‘에이전틱 서치’는 사실 ‘추론(Reasoning) 모델’이 등장한 뒤 더욱 주목받게 된 개념입니다. 딥시크의 R1이나 챗GPT의 o3 같은 모델의 이름을 들어보셨을 텐데요, 바로 대표적인 추론 모델입니다.
이 글을 통해서 지금 뜨고 있는 ‘에이전틱 서치’의 개념에 관해 설명하고, 추론모델과 관련해 주목받게 된 배경을 설명해 드리려고 합니다. 또 추론모델의 등장으로 인해 벌어지는 비즈니스의 변화에 대해서도 소개해 드리도록 하겠습니다.
전통적인 검색과 AI 검색의 차이
먼저, 저는 전통적인 검색의 과정과 경험을 AI가 전부 재개편했다고 생각합니다.
그동안 검색을 어떻게 해오셨나요? ‘구글’로 대표되는 전통적인 검색은 다음과 같은 네 가지 과정을 거칩니다.
- 검색: 사용자가 검색어를 생각해내는 과정.
- 선별: 검색 결과 페이지에 뜨는 수많은 링크 중에서 어떤 페이지가 원하는 결과를 담고 있을지를 판단하는 과정.
- 열람: 선별을 통해 고른 문서의 링크를 눌러 열람.
- 탐색: 선별한 문서 내에서 원하는 정보를 찾아내는 과정.
전통적인 검색에서는 위 네 가지 과정을 모두 사람이 수행해야 했습니다. 언뜻 간단해보이지만, 사실 각 단계별로 어려움이 있습니다.
- 검색: ‘검색어’를 떠올리기 어려울 수 있습니다. 이를 보완하려고 전통적인 검색에서도 자동 제안 같은 기능을 마련해 뒀습니다.
- 선별: 검색 결과 리스트에서 나에게 가장 맞는 것을 찾기 어렵습니다. ‘찍기’에 가깝지요.
- 열람: 막상 골라 들어간 문서도, 원하는 정보를 찾으려면 스크롤을 내리며 문단이나 문장을 찾아야 합니다.
- 탐색: 스크롤을 움직여 살펴본다고 해서 원하는 정보가 명쾌하게 나와 있지도 않습니다.
이를 N번 반복하는 것이 결국 전통적인 검색의 검색 경험이었습니다. 그러다 보니 검색을 잘하는 사람과 못 하는 사람의 편차가 커지게 됐습니다.
그런데 AI검색으로 넘어오면서 ‘검색’을 제외한 나머지 과정이 사라집니다. 사용자는 의도만 전달하면 되는 것입니다. 이 의도를 수행하기 위해 기계(AI 시스템)가 스스로 검색어를 만들고, 문서를 선별하며, 문서 내에서 답변 생성에 도움이 될 만한 구절(passage)을 찾아내는 기술로 넘어간 것입니다.
라이너가 만든 검색 경험을 예로 들어보겠습니다.
검색 서비스 기업마다 다른 목표를 갖고 경험을 디자인하겠지만, 라이너는 답변과 출처의 ‘페어’를 함께 제공하는 데 집중합니다. 이는 연구직, 법률, 의료 등 자신이 내뱉는 말의 근거를 항상 밝혀야 하는 전문 직군에게 특히 중요하지요. 그러한 지식 노동자들은 생성형 AI가 만든 답변이 할루시네이션을 포함할 수 있기 때문에 답변을 그대로 활용하지 않고 신뢰할 만한 것인지 검증합니다.
그래서 저희는 답변과 그 답변의 출처라는 ‘페어’를 중요하게 생각합니다. 답변이 신뢰할 만하다는 것을 보여주는 식입니다. 그래서 다음과 같은 경험을 구현했습니다. 사용자가 검색을 하면, 한 화면에서 AI가 생성한 답변과 그 답변의 출처를 볼 수 있습니다. 선별과 열람 과정을 단축한 것입니다.

또 생성한 답변의 문장을 클릭하면, 그 문장의 근거가 된 출처 목록이 뜹니다. 그리고 답변에 인용된 특정 구절을 정확히 보여줍니다. 이 부분은 탐색 과정을 단축했다고 할 수 있습니다.

에이전틱 서치란 무엇인가?
이렇듯 AI 서치가 검색 시장을 바꾸고 있는 가운데, ‘에이전틱 서치’는 AI 검색보다 훨씬 더 큰 개념(엄브렐라 텀, umbrella term)*으로 등장했습니다.
*엄브렐라 텀: 우산처럼 여러 관련 개념을 포괄하는 상위 개념. 여기서는 AI 검색보다 에이전틱 AI가 더 포괄적인 개념이라는 뜻입니다.

AI 검색이 가능해지자, 사용자들은 점점 더 창의력을 발휘하기 시작했습니다. ‘이런 것도 되네!’ 하며 다양한 시도를 하게 되고 기대도 더 높아졌지요. 예를 들어, ‘지난 10년간의 재생 가능 에너지 동향과 미래 발전 방향’과 같은 복합적인 질의는 구글에 하지는 않습니다. 그런데 이런 걸 이제 에이전트에게 합니다. 기존에 스스로 수행했던 정보 수집 및 취합 같은 작업들을 에이전트에게 떠넘기기 시작한 것입니다.
이는 자율주행 자동차의 발전에 비유할 수 있습니다. 기존 AI 검색이 크루즈 모드였다면, 에이전틱 서치는 완전 자율 주행(Fully Autonomous Driving) 개념에 가까운 것입니다.

검색의 발전 과정은 이렇습니다.
- Single Search
'2024년 노벨 물리학상 수상자 누구야?'와 같은 단순 질의이며 구글 수준에서 가능했습니다. - Multi Search
'2024년 노벨 물리학상 수상자 그리고 노벨 화학상 수상자를 알려줘'와 같이 두 번의 검색과 결과 취합이 필요한 질의가 AI 검색에서 가능해졌고 사용자들은 이를 기대하게 되었습니다. - Sequential Search:
'2024년 노벨 물리학상 수상자와 화학상 수상자의 유명한 제자를 알려주고, 그들이 요즘 뭐 하고 지내는지 알려줘'와 같이 복합적인 질의가 에이전트에게 실제로 발생하기 시작했습니다.
이를 자율주행처럼 ‘자율성(오토노미, Autonomy)’레벨을 기준으로 살펴보면 다음과 같이 나타낼 수 있습니다.
- Lv1: 사용자 요청을 완수하기 위해 검색어, 도메인 등 기본적인 값을 스스로 결정하여 작업 수행
- Lv2: 사용자 요청을 완수하기 위해 탐색해야 할 관점, 특이사항 등을 스스로 결정하여 작업 수행
- Lv3: 의존 관계가 있는 복잡한 사용자 요청에 대해 맥락과 수행 과정을 스스로 정의 및 관리하여 작업 수행
그런데 이제는 여기서 한 단계 더 나아갑니다.
사용자들이 에이전트에게 ‘충분히 답변을 낼 수 있을 정도로, 맥락 정보를 다 찾을 때까지 계속 이 작업을 반복’하라는 요구사항도 얹어주는 상황이 생기는 것입니다. 언어 모델이 검색 엔진 등과 상호작용하면서, 계속 스스로 판단하고 반복 작업하며 완수 여부까지 스스로 판단하는 것입니다. 이를 ‘리플렉티브(reflective) 패턴’이라고 하는데요. 에이전트 서치가 발전돼 완성된 모습이 바로 이러한 리플렉티브 패턴을 보이는 모습, 즉 Lv4 단계라고 할 수 있습니다.
- Lv4: 요청 완수 여부에 대한 판단을 스스로 결정하고, 요청 수행 결과가 만족스러울 때 까지 작업 수행
에이전틱 서치의 핵심, '추론 모델(Reasoning Model)'
이러한 에이전틱 서치에 대한 기대감은 ‘추론 모델’의 등장으로 더욱 커졌습니다. 추론 모델이 등장한 이후, 연구자들 사이에서는 “추론 모델 자체가 에이전트”라는 이야기가 많이 떠돌기 시작했습니다. 추론 모델이 스스로 사고하고 판단하기 때문입니다. 이전에는 LLM 모델을 잘 엮어 답변해 주는 방식을 통해 에이전트를 구현했지만, 추론 모델의 등장 이후 그 또한 달라졌습니다.
추론 모델은 사용자의 요청에 대해 명시적인 답변을 바로 하는 대신, 스스로 올바른 방향으로 가고 있는지 계속 검증하고 스스로 교정하다가 답변이 충분히 가능하다고 판단될 때 답변하는 방식입니다. 이렇게 스스로의 생각 과정을 거치는 것을 '추론' 과정에서 수행하는 셈입니다.
이러한 추론 모델의 작동 방식은 Lv 4의 자율성 수준과(스스로 판단하고 계획을 세우며 오류를 수정하는 단계)과 많이 닮아 있습니다. 그래서 추론 모델의 등장으로 AI가 여러 단계의 작업을 스스로 계획하고 실행할 수 있다는 의미에서 ‘에이전틱’이라는 단어가 더 대중화되었습니다. 추론 모델은 레벨 4 수준의 에이전트 구현을 더욱 수월하게 만들었고요.
그런데 연구자들도 처음에는 추론 모델이 이렇게 사용될줄은 몰랐습니다. 과학(Science), 코딩(Coding), 수학(Math) 등 STEM 분야*에 특히 유용할 것이라고 여겨졌고, 오픈AI도 초기 모델을 공개했을 때 STEM 분야에 특화되어 있다고 언급했습니다.
*STEM: Science, Technology, Engineering, Math 분야를 융합한 교육 및 연구
그러나 딥시크(Deepseek)의 R1 모델과 같은 상용 수준의 오픈소스 추론 모델이 공개되면서 큰 파장을 일으켰습니다. 사용자들이 R1을 글쓰기, 여행 계획 짜기 등 다양한 분야에 사용했는데, 그 결과가 놀라웠던 것입니다. 추론 모델이 STEM 분야 외에도 웬만한 모든 영역에서 Non-reasoning 모델보다 더 나은 성능을 보이는 것으로 나타났기 때문입니다.

AI 연구원이자 유명 AI 뉴스레터 Interconnects의 운영자인 네이선 램버트(Nathan Lambert)는 자신의 뉴스레터에서 “추론 모델이 일반화되는 이유(Why reasoning models will generalize)”라는 글을 내며 “많은 이들이 추론 모델의 장기적 잠재력을 과소평가하고 있다”라고 주장했습니다. 오픈AI 또한 AI 안전 검수와 같은 비 STEM 영역에서 추론 모델을 사용하는 연구 결과를 발표하기도 했습니다. 이러한 '더 나은 성능'은 1세대 LLM 평가 벤치마크에서도 높은 점수를 받은 것으로 증명됐는데, 글쓰기나 여행 계획 등에서의 사용자들의 정성적인 결과 후기로도 확인되었습니다.
'추론 모델(Reasoning Model)'을 검색에 붙인 결과
딥시크가 R1을 공개한 게 설 연휴 즈음이었습니다. 반응이 너무 뜨거워 저희도 정신이 없었는데요. 검색에서도 추론 모델이 ‘일반화’가 나타날 것인가 궁금해지더군요. 그래서 추론 모델을 붙여보았더니 재미있는 현상을 목격할 수 있었습니다.

“2024년에 가장 부유한 인물이 누구인지(who is the richest person in the world 2024)”를 물어봤습니다.
그랬더니 일단 사고 과정을 쫑알쫑알 보여줍니다.

이 추론 과정을 자세히 살펴보면 재밌습니다.
먼저 “문서 1을 보니, 위키피디아의 “세계적인 백만장자들”이라는 글의 9번째 문단에 “가장 부유한 베르나르 아르노(Bernard Arnault)”가 있다”라고 확인합니다. 그 뒤 베르나르 아르노에 관한 정보를 추가로 취득하면서 베르나르 아르노가 최고로 부유한 사람임을 확인합니다. 문서 2를 보니 포브스에서도 베르나르 아르노라고 한다고 확인하고요.

그런데 문서 3~7에서 “일론 머스크”가 가장 부유한 사람이라고 나온다는 걸 알게 됩니다. 정보 간에 충돌이 발생한 것입니다.

여기서 추론 모델의 진가가 나옵니다. 정보의 충돌을 확인하기 위해 문서의 메타 정보를 보기 시작하는 겁니다. 문서 1과 문서 2는 2024년에 나왔고, 문서 5, 6, 8이 2025년에 나온 문서라고 확인합니다. 그래서 “질문에서 요구한 기간을 넘어서므로, 2024년에 관한 질문에 답할 때는 그런 문서를 고려 대상에서 제외하겠다”라고 합니다.

그리고 스스로 결론을 내립니다. “따라서 2024년에 한정해서 말하자면, 억만장자 순위에 있어 가장 권위 있는 출처인 포브스 리스트에 따르면, 베르나르 아르노가 2,330억 달러의 순자산으로 세계에서 가장 부유한 사람이었습니다.”
(* 질의에 대한 정답은 문서 1, 문서 2 기준으로 선정)

충돌되는 정보를 마주했을 때 메타 정보를 활용해야 한다는 결정은 사람이 주입한 것이 아닙니다. 하지만 스스로 필요한 정보를 판단해 살펴보고 검토해 신뢰할 수 있는 답변을 내놓는다는 사실이 놀라웠습니다. 에이전트 입장에서는 복잡할 수 있는 질의를 이 추론 과정을 통해 해결할 수 있다는 걸 확인하게 된 것입니다.
그래서 이는 근거를 활용해 신뢰할 수 있는 답변을 내려줄 수 있는 기술이 된 것뿐 아니라, 복잡한 질의가 들어왔을 때 이를 해소하기 위한 여러 가지 문제를 정의하는 데 있어서도 추론 모델이 잘할 수 있다는 걸 확인했습니다.
이렇듯 추론 모델의 성능이 증명되고 성과가 나타나다 보니, ‘에이전틱’한 서비스의 등장에 더욱더 큰 기대감이 생기게 되었습니다.
사실 과거에도 Lv 4 수준의 리플렉티브 패턴을 구현할 수 없었던 건 아닙니다. 여러 개의 LLM을 호출하는 방식으로 이러한 형태의 에이전트를 구현할 수 있었습니다.

하지만 그렇게 하는 것은 LLM이 스스로 검색엔진과 상호작용하며 자신만의 판단을 이어나가는 방식은 아닙니다. 하나의 LLM에게 답변을 생성하게 하고, 또 다른 LLM에게 결과가 어땠는지 물어보는 것을 반복하는 방식입니다. 이러한 유형의 호출 구조는 사람들이 고안한 방식이기에 한계를 쉽게 마주할 수 있습니다. 하지만 추론 모델이 등장하며 모델 스스로가 제약 없이 탐색과 반복을 이어나갈 수 있는 진정한 의미의 리플렉티브 패턴을 구현한 ‘에이전틱’ 서비스가 가능하게 된 것입니다.

마치며
정리하자면 이렇습니다.
- 사용자들은 전통적인 검색 과정에서, 검색어 입력, 정보 선별과 열람, 탐색 과정에 어려움을 겪었습니다. AI 검색은 이를 해결하고 사용자가 단순히 ‘의도’만 전달하면 되도록 했습니다.
- 한발 더 나아가 요즘 검색 시장에서 가장 주목받는 ‘에이전틱 서치’는 단순한 검색을 넘어 AI가 복잡한 요청도 스스로 계획하고 반복적으로 수행해 검색 결과를 내놓는 방식의 검색입니다.
- 이 에이전틱 서치는‘추론 모델’의 등장으로 더욱 주목받게 됐습니다. 특히 딥시크의 R1과 같은 오픈소스 추론 모델은 STEM뿐 아니라 글쓰기, 여행 계획 등 일반적인 영역에서도 높은 성능을 보여, 추론 모델의 범용성과 가능성을 입증했습니다.
- 결과적으로 ‘추론 모델’은 검색 경험을 혁신하며, 진정한 ‘에이전틱’ 서비스를 가능하게 하는 핵심 기술로 부상했습니다.
에이전틱 서치의 대표적인 예시는 ‘딥 리서치’입니다. 오픈AI가 2025년 2월에 출시했고, 뒤이어 많은 기업에서 딥 리서치 기능을 내놓았습니다.
그런데 이러한 딥 리서치는, 우리가 기존에 경험하던 검색 제품들과 매우 다른 점이 하나 더 있습니다. 바로 시간이 오래 걸린다는 겁니다. 인터넷과 소프트웨어가 발전하면서, 우리는 더 빠른 속도의 결과물을 보는 것에 점점 더 익숙해져왔습니다. 그러나 딥 리서치는 적게는 수 분, 길게는 수 시간이 걸릴 수도 있었습니다. 그 결과 고객 경험의 측면에서 변화가 일어나기 시작했지요.
또 추론 과정은 필연적으로 더 많은 컴퓨팅 자원을 사용하게 됩니다. LLM 등장 이후부터 컴퓨팅 자원 사용에 따른 비용 증가는 계속 이슈가 되었습니다. 그에 따라 제품의 가격 체계를 다시 설계해야 한다는 주장도 대두됐는데요. 딥 리서치는 그러한 흐름 속에 등장해, 실제로 그 흐름을 반영한 가격 체계와 함께 런칭된 제품이었습니다.
다음 글에서 이 내용을 더 자세히 이어가 보도록 하겠습니다.
©️요즘IT의 모든 콘텐츠는 저작권법의 보호를 받는 바, 무단 전재와 복사, 배포 등을 금합니다.