요즘IT
위시켓
새로 나온
인기요즘 작가들컬렉션
물어봐
새로 나온
인기
요즘 작가들
컬렉션
물어봐
개발
AI
IT서비스
기획
디자인
비즈니스
프로덕트
커리어
트렌드
스타트업
서비스 전체보기
위시켓요즘IT
고객 문의
02-6925-4867
10:00-18:00주말·공휴일 제외
[email protected]
요즘IT
요즘IT 소개작가 지원
기타 문의
콘텐츠 제안하기광고 상품 보기
요즘IT 슬랙봇크롬 확장 프로그램
이용약관
개인정보 처리방침
청소년보호정책
㈜위시켓
대표이사 : 박우범
서울특별시 강남구 테헤란로 211 3층 ㈜위시켓
사업자등록번호 : 209-81-57303
통신판매업신고 : 제2018-서울강남-02337 호
직업정보제공사업 신고번호 : J1200020180019
제호 : 요즘IT
발행인 : 박우범
편집인 : 노희선
청소년보호책임자 : 박우범
인터넷신문등록번호 : 서울,아54129
등록일 : 2022년 01월 23일
발행일 : 2021년 01월 10일
© 2013 Wishket Corp.
로그인
요즘IT 소개
콘텐츠 제안하기
광고 상품 보기
AI

고양이도 알아듣는 생존형 AI 기초: LLM 편

요즘AI
18분
4시간 전
2.4K

요즘 IT 시장을 보면 온통 AI 이야기로 가득 차 있습니다. 특히 ‘챗GPT’가 등장한 이후로 정말 많은 것이 바뀌었죠. 이런 흐름에 ‘AI가 내 일을 대체할 거라는데, 정작 나는 아무것도 모르겠어.’라는 두려움이 퍼지고 있습니다. ‘AI 포모(AI FOMO)’라는 이름으로요.

 

두려움에 빠진 분들을 위해 AI를 이해할 때 필요한 최소한의 이야기를 준비했습니다. 어려운 이론은 뛰어넘고 실제 산업을 이해할 때 도움을 줄 것들만 다루겠습니다. 목표로 하는 것은 새로운 뉴스가 나왔을 때 적어도 “그 소식이 왜 중요한지” 정도는 이해할 수 있는 겁니다. 모두가 ‘이건 정말 중요하다!’라고 말할 때, 최소한 그 이유 정도는 알 수 있도록 말이죠. 집사 옆에 식빵 굽던 고양이도 알아들을 수 있는, 생존을 위한 AI입니다. 


LLM. ‘에레렘~’ 하고 발음도 쉽지 않은 이 단어가 어쩌다 제 일상을 잡아먹었는지, 저도 잘 모르겠습니다.

 

사실 LLM이라는 용어가 나온지는 좀 되었습니다. 2018년까지 거슬러 올라가죠. 오픈AI라는 ‘연구소 비슷한 무언가’가 GPT-1이라는 모델을 내면서 대단히 직관적으로 “아주 큰 언어 모델(Large Language Model)”이라 설명한 것이 좀 유명해졌습니다. 곧 이들이 만든 GPT-3가 SOTA* 먹었다, 대단하다고들 한다, 이런 이야기가 2020~21년에 많이들 나왔습니다.

*SoTA: State-of-the-Art의 약자로, ML 쪽에서는 쉽게 말해 ‘당대 최고의 모델’을 말합니다. 워낙 발전이 빠르다 보니 “지금까지는 최고”가 전제입니다. 요즘은 체감상 매달 바뀌는 느낌인데다 벤치마크도 다양해져 의미가 퇴색한 느낌은 있습니다.

 

다만 그때까지도 LLM은 연구소 안에 머물러 있었습니다. 대중의 관심을 끌지는 못했죠. 그러다 펑! 2022년 말, “챗GPT”가 터졌습니다. 생각해 보면 아주 단순한 구조의 서비스입니다. 채팅을 치고 답변을 받는 게 전부니까요. 다만 그 답을 주는 쪽이 무지막지하게 많은 것을 알고 있을뿐.

 

하여튼 그 ‘연구소 비슷한 무언가’였던 반영리기업 오픈AI는 이제 AI 시장을 주도하는 한 축이 되었고, 그렇게 시장을 이해하려면 LLM과 챗GPT를 빼놓을 수 없어졌습니다. 당연히 “AI로 돈 버는 이야기”를 할 때도 마찬가지고요. 시작해 보겠습니다.

 

  • 고양이(요고): 무슨 이야기 할 지 요약해 주쇼
  • 나: LLM 산업의 모든 것! 누가누가 잘 만드나, 어떻게 쓰나, 이런 것들 알아봅시다. 부릉부릉

 

<출처: 작가, 챗GPT로 생성>

 

 

LLM과 3대장 이야기

지금 시점에서 AI에게 일을 시킬 때 가장 중요한 게 무엇인가 하면, 저는 어쨌든 ‘모델’이라고 하겠습니다. 결과물을 내는 과정, 즉, 추론의 시작은 모델에게 새로운 입력값을 넣는 것이니까요.

 

그중 LLM, 아주 큰 언어 모델은 사람의 말을 이해하는 녀석이죠. 사람의 언어는 그리 단순하지 않습니다. 그 자체로 문화와 사상을 반영하며 변화를 끌어내니까요. 무엇보다 ‘소통’의 매개죠. 생성에 최적화된 친구 LLM은 그렇게 언어로 사람과 대화를 할 수 있습니다. 이렇게 기계와 대화다운 대화를 할 수 있다는 사실은 우리에게 무지막지한 변화를 가져왔습니다.

 

다만 문제가 있습니다. 이 모델, 특히 규모가 ‘필수 조건’인 LLM을 아무나 만들 수 없단 거죠.

 

LLM은 아무나 만드나

우선 AI 모델을 만드는 데 필요한 ‘학습’ 과정 자체가 굉장히 어렵습니다. 근본적으로 모델은 ‘블랙박스’입니다. 그 안에서 무슨 일이 벌어지는지 엔지니어도 모른다는 거죠. 우리가 뇌의 동작 방식을 100% 모르듯 말입니다. 그래도 더듬더듬 모델을 탐색하고 발전시킬 새로운 연구(=논문)가 나옵니다. (사실 쏟아집니다) 그래서 최신형 모델을 만들려면 문제에 대한 다각도의 접근이 필요합니다. 즉, 새로운 지식들을 아주 빠르게 탐구하고 적용할 뛰어난 인재가 필요합니다.

 

게다가 여기에 들어가는 비용이 어마어마합니다. 딥러닝 모델의 학습은 데이터를 잘 설명하는 숫자(=파라미터)와 구조를 구하기 위해 끝없이 오가는 과정이라고 했습니다. 이것 모두 계산인데요, 그 계산은 컴퓨터가 합니다.

 

이 ‘계산하는 컴퓨터’에 돈이 참 많이 들어갑니다. 우선 부품으로 무지막지 비싼 최고급 GPU가 많이 필요합니다. 전기세도 많이 듭니다. 전기세라니 우스워 보이지만, 장난 아니게 많이 듭니다. 참고로 GPT 같은 AI 모델의 경우, 학습 한 번 진행할 때마다 어마어마한 수준의 탄소가 배출*된다고 합니다. 그만큼 많은 에너지를 소모한다는 거죠. 발생하는 열도 대단합니다. 그래서 아무데나 둘 수 없으니 맞춤형 데이터센터가 필요합니다. 데이터센터는 보통 이런 열을 식힐 도우미=물이 아주 많은 곳 가까이에 있거든요.

*AI와 탄소 배출량에 대한 글이 궁금하다면, 이 글도 읽어보세요.

 

마지막 벽은 데이터입니다. 학습할 만반의 준비가 끝났다 해도 배울 데이터가 없으면 끝입니다. 물론 웹에서 수많은 데이터를 얻는다 하지만, 또, 아무나 접근할 수 없는 데이터도 많습니다. 뉴스 기사처럼 지식재산권을 가지며 일정 플랫폼에 종속된 정보들이죠. 게다가 이 아주 많은 데이터를 모델이 학습할 때까지 정리하는 것도 쉬운 일이 아닙니다. 현실에서는 데이터 정리가 전체 작업의 80%라고 할 정도입니다.

 

  • 고양이(요고): 아우, 어지러워. 안 된다고만 하고. 그래서 왜 어렵다고요?
  • 나: 3가지 조화가 없으면 어렵거든요. 무지막지한 비용, 많고 좋은 데이터, 어려운 문제를 풀 인재!

 

<출처: 작가, NapkinAI로 생성>

 

그래서인지 이를 잘 만들어 내는 기업들이 주목을 받고 유명해졌습니다.

 

많지도 않습니다. 지금 LLM 하면 알아주는 회사는 3곳입니다. 오픈AI, 앤트로픽, 구글.

 

 

오픈AI: GPT씨는 언제부터 그렇게 잘 나갔나?

요즘 가장 유명한 곳은 역시 오픈AI입니다. 잘 알려진 GPT를 만든 회사죠. 인공지능 분야의 판도를 확 뒤집은 주인공입니다.

 

오픈AI는 태생이 조금 다릅니다. 돈을 벌기 위한 AI가 아닌 진짜 미래를 바라보는 ‘연구소’로 시작했거든요. 목적 자체도 ‘AI가 인류 모두에 이익이 되는’데 있었습니다. 그 흐름으로 시작했기에 지금도 완전한 영리 기업이 아닌 ‘반영리 기업’이란 형태로 운영되고 있죠. LLM, GPT처럼 입에 잘 붙지 않는 단어가 그대로 시장에 나온 것도 어쩌면 그 때문인가 싶습니다.

 

그래도 그런 시작이 지금의 오픈AI를 만들었을지 모릅니다. “단순히 돈을 벌기 위한 AI가 아니라 최고 성능의 AI를 만들어 보겠다”는 접근에 실력 있는 개발자와 연구자들이 모였으니까요.

 

게다가 CEO인 샘 올트만(Sam Altman)이 워낙 영향력 있는 기업가였고, 공동창업자가 유명한 일론 머스크(Elon Musk) 등이었던 것도 도움이 됐겠죠. 이렇게 영향력 있는 사람들이 모여서 “우리 AI 연구 한번 제대로 해보자!” 하다 보니까 인력과 자본이 풍부하게 모였습니다. 하여튼 오픈AI는 실험적인 연구를 거쳐 결국 ‘GPT’라는 모델을 선보이게 됩니다.

 

GPT 모델이 대중적으로 유명해진 건 챗GPT부터지만, 실제로 GPT 시리즈 자체는 등장부터 유명했습니다. 특히 GPT-3가 당대 최고의 모델, SOTA에 등극하며 유명세는 더 커졌죠. 튜링 테스트 통과를 눈앞에 뒀다, 직접 소설도 쓰더라, 같은 소문도 파다했고요.

 

메인 홈페이지의 화면도 ‘채팅창’으로 만들어버린 오픈AI의 패기 <출처: 오픈AI 웹사이트 캡처>

 

그 GPT-3를 발전시킨 모델 GPT-3.5에 얹은 서비스는 군더더기 없이 깔끔했습니다. 이런저런 UX, 또 어쩌고저쩌고 하는 BM 보다는 순수하게 “우리 모델 최고인데. 써볼래?” 느낌이었죠. 챗GPT란 이름도 꼭 프로토타입에 붙이는 이름 같잖아요. (실제로 연구 성과를 보기 위한 시제품이었다고 합니다: 참고 글) 처음 나온 챗GPT는 모델과 대화해 볼 수 있는 인터페이스 그 자체였으니까요. 그리고 그렇게 ‘모델 성능’에 집중한 결과는 우리 모두가 압니다.

 

이후로도 오픈AI는 ‘스케일업’ 전략에 기반해 모델 자체를 정말 잘 만들었습니다. 추론(reasoning) 전문 모델 o 시리즈, 기존 DALL-E 시리즈를 계승하며 히트 친 GPT-image 시리즈처럼 모델의 외연도 확장하고 있습니다. 현재 기준 최신 모델은 GPT-4.5, o4-mini, GPT-image1 정도로 볼 수 있습니다.

 

게다가 단순히 ‘모델 만드는 회사’가 아닌 빅테크로 나아가려는 모습도 보여 줍니다. 샘 올트만이 분주하죠. 코딩 에이전트 ‘윈드서프(windsurf)’, 아이폰 디자이너 조니 아이브가 만든 AI 하드웨어 기업을 각각 30억 달러(3조 8천억 원), 65억 달러(9조 원) 수준으로 인수했고요. 소프트뱅크, 아부다비 MGX와 함께 ‘스타게이트’ 프로젝트로 자체 인프라 구축도 시작했고, 브라우저랑 SNS를 만든다는 소식도 들려 옵니다. 이제 오픈AI에 한계는 없어 보이네요.

 

  • 고양이(요고): 오픈AI는 어떻게 일류가 되었나
  • 나: 연구소 태생으로 시작해 ‘좋은 모델’이란 본질에 집중한 것이 비결. GPT가 히트 시리즈.

*더 자세한 오픈AI 이야기는 “AI 기업 탐구: 오픈AI, 절대강자의 탄생”에서 만날 수 있습니다.

 

 

클로드 모름? MCP 모름? 앤트로픽

다음으로 소개할 회사는 앤트로픽(Anthropic)입니다. 이곳에서 만든 모델은 ‘클로드(Claude)’라는 이름을 쓰고 있죠.

 

이 앤트로픽은 오픈AI보다도 더 늦게 등장합니다. 재미있는 점은 창업자들이 원래 오픈AI에서 GPT 모델을 만들던 핵심 인력들이라는 거예요. 샘 올트만이 회사를 주도하면서 ‘연구소’가 아닌 ‘기업’으로 변해가자, 이 방향성에 반발한 이들이죠. 특히 오픈AI가 MS로부터 대규모 투자를 유치한 것이 결정타였다고들 합니다.

 

그렇게 늦게 출발했는데도 앤트로픽은 단기간에 정말 좋은 모델을 만들어냈어요. 그렇게 나온 모델이 바로 클로드로, 버전이 올라갈 때마다 꾸준히 존재감을 키우고 있습니다. (이런 거 보면 결국 모델 개발도 사람이 다인가 싶고요)

 

클로드 시리즈는 특히 개발자 친화적인 느낌이 강합니다. 예를 들면, 최근 개발자들이 자주 사용하는 AI 코딩 도구 커서(Cursor), 러버블(Loveble)도 클로드 모델이 중심이라고 알려졌습니다. 지금은 Claude 4 모델(Opus, Sonnet)이 최신형이고, 3.5-Sonnet, 3.7-Sonnet 등이 AI 제품에 많이 들어 있습니다.

 

신규 모델 클로드 4, API 활용 능력, 코딩 에이전트 클로드 코드 등을 내세운 앤트로픽 메인 화면 <출처: 앤트로픽 웹사이트 캡처>

 

또, 최근에 등장한 MCP 역시 앤트로픽이 직접 개발하고 생태계를 전폭적으로 지원해 만든 결과물입니다. 지난해 11월에 나온 프로토콜이 올해 4월 무렵 핫이슈가 된 것 역시, 앤트로픽이라는 기업 단위의 노력이 없었다면 어려웠을 겁니다. 마찬가지로 MCP도 개발자들이 AI 에이전트를 원하는 방향과 기능에 맞춘 형태로 쓰도록 지원하는 데 중점을 둔 형식이죠.

 

결국 앤트로픽은 AI 생태계가 더 진화하고 발전하려면 개발자들이 실제로 무엇을 필요로 하고, 어떻게 도구를 사용해야 하는지 잘 안다는 느낌입니다. 또, 그것이 가장 큰 경쟁력이고요.

 

  • 고양이(요고): 앤트로픽은 조금 생소한 걸?
  • 나: ‘클로드’라는 모델 시리즈를 만드는 중! 기업 고객 중심으로 영향력을 키웠고, 개발 생태계 친화적인 것이 큰 특징.

*더 자세한 앤트로픽 이야기는 “AI 기업 탐구: 앤트로픽, 오픈AI를 위협하는 진짜 라이벌”에서 만날 수 있습니다.

 

 

알파고 모르세요? 구글

다음은 구글(Google)입니다. 구글은 사실 인공지능 분야에서 전통의 강자라고 할 수 있어요.

 

GPT 시리즈가 모델계를 호령하기 전, BERT라는 모델을 구글에서 만든 적이 있는데요. 여기 ‘트랜스포머(Transformer)’라는 구조가 들어갑니다. 트랜스포머 구조는 LLM의 근본적인 혁신을 가져온 개념이라고 볼 수 있어요. BERT의 마지막 글자 T, GPT의 마지막 글자 T 모두 바로 이 ‘트랜스포머’의 약자일 정도로요.

 

구글이 왜 AI 분야의 선두 주자, 즉 ‘선발대’라고 불리는지 조금 더 자세히 보면요. 사실 구글의 AI 기술력은 대부분 자회사 ‘딥마인드(DeepMind)’에서 나옵니다. 그리고 이곳은 바로 2016년 화제를 일으킨 ‘알파고(AlphaGo)’를 만든 회사입니다. (무료 공개 알파고 다큐멘터리, 모두 보셨나요?)

 

딥마인드는 기업이긴 하지만, 마찬가지로 정체성은 연구소에 가깝습니다. 이 딥마인드를 중심으로 구글은 인공지능 분야에 엄청난 투자를 해왔고 좋은 모델들도 꾸준히 만들어 왔습니다.

 

영상 생성 모델 Veo3를 비롯해 i/o로 공개한 성과를 자랑 중인 딥마인드 <출처: 구글 딥마인드 웹사이트 캡처>

 

단순히 LLM만 만드는 게 아니라 다양한 추론 영역에서 꾸준히 영향력을 키우고 있는 것도 특징이죠. 인체의 ‘단백질 구조’를 계산해 수많은 질병을 예방할 단초를 만들 ‘알파폴드(Alphafold)’도 딥마인드의 모델 중 하나죠. 참고로 딥마인드의 CEO와 엔지니어는 그 영향력을 인정받아 지난해 노벨상까지 받았습니다. 그만큼 오랜 기간 AI 연구와 다양한 분야에서 영향력을 넓혀왔다는 거죠.

 

물론 LLM도 잘 만듭니다. 구글의 LLM 시리즈 ‘제미나이(Gemini)’는 GPT, 클로드 시리즈들과 엎치락뒤치락 성능 경쟁 중이죠. 최신 모델은 2.5(Pro, flash, lite)로 볼 수 있습니다.

 

무엇보다 구글은 생태계 자체가 굉장히 강력하다는 장점이 있습니다. 크롬(Chrome)이나 구글 워크스페이스(Google Workspace)처럼 이미 많은 사람이 일상적으로 쓰는 서비스가 존재하니, 새로 개발한 모델을 빠르게 이 서비스들에 붙여보고 테스트하기가 정말 쉽습니다. 게다가 클라우드 서비스 GCP를 운영해 컴퓨팅 자원 풍부하고, 근본인 검색 엔진이 수집하는 데이터는 비교 불가죠. 인프라와 모델, 서비스를 모두 확보한, 어쩌면 지금 단계의 가장 강력한 기업입니다.

 

  • 고양이(요고): 구글은 역시 구글인가
  • 나: 맞죠맞죠. AI 연구를 선도해 온 역사와 다양한 영역의 모델, 지배적인 생태계가 가장 큰 장점!

 

 

꼭 이 세 기업만 만드는 것은 아닙니다

물론 이들은 주목받는 기업일 뿐, 여기서만 모델을 만드는 것은 아닙니다. 대표적으로 Grok 시리즈를 낸 xAI가 있고요. 일론 머스크가 이끄는 AI 전문 기업이죠. 또한 오픈소스, 그러니까 모델을 만들어 싹 다 공개하는 곳들도 많아요. 메타의 Llama, 딥시크의 Deepseek, 알리바바의 Qwen, 미스트랄AI의 Mistral 시리즈 등이 대표적이죠. (자세한 이야기는 글 후반부에!)

 

꼭 기업만 뛰어드는 것도 아닙니다. 데이터라든가, 자원이라든가 하는 측면에는 국가 단위 조직이 가지는 강점도 있거든요. AI를 쓰려면 가장 기본이 되는 것은 모델인 만큼, 어디서 갑자기 무척 뛰어난 모델이 튀어나올지는 모를 일입니다.

 

+MADE IN KOREA?

우리나라에서도 AI 모델을 열심히 개발하고 있어요. 네이버, KT, LG 같은 IT 대기업들이 대표적이죠. 다만 최근 스탠퍼드 대학 연구소(HAI)에서 주목할 만한 AI 모델을 선정했는데, LG에서 만든 ‘엑사원(Exaone)’ 하나만 들어갔다고 합니다. 미국 40개, 중국 15개, 프랑스 3개 등인 것을 보면 IT 강국이란 이미지치고 모델 개발에서는 고전하는 것이 현실!

 

 

모델 비즈니스: 돈이 될까?

재미있는 것이 있습니다. 오픈AI, 앤트로픽, 구글(딥마인드) 모두 시작은 ‘연구’ 최적화된 집단의 느낌을 풍겼다는 거죠. 그래서 처음 챗GPT가 등장했을 때만 해도 이런 의견이 나왔습니다.

 

“그래, 대단한 건 인정. 그런데 그걸로 돈은 어떻게 벌래? 학습과 추론에 들어가는 돈이 어마어마할텐데?”

 

맞습니다. 감당하기 어렵습니다. 그래서 초기 자금과 데이터 조달은 투자로들 해결합니다. 오픈AI는 MS가 핵심 파트너로 나섰고, 앤트로픽은 아마존, 구글을 비롯해 여기저기서 돈을 냅니다. 구글은 구글이었고요. 하지만 곧 모델 그 자체도 꽤 많은 수익을 내기 시작합니다. ‘빌려주기’ 시작하면서요.

 

<출처: 영화 ‘신세계’, 챗GPT로 생성>

 

글쎄요~ 업계 사람이면 돈 버는 방식이 무엇인지~ 충분히 알 것 같은데 :)

모델로 돈 버는 방식은 사실 매우 간단해요. ‘쓸 때마다 돈을 내는 구조’입니다.

 

구체적으로 어떻게 하냐고요? 해답은 “API”입니다. 모델 제공사들은 모델을 쓸 수 있는 API(응용 프로그래밍 인터페이스, Application Programming Interface)를 제공합니다. 이때 API라는 건 쉽게 말해 ‘모델과 소통할 수 있는 창구’와 같은 역할을 합니다.

*자세한 API 설명은 “알다가도 모를 API, 제대로 잡고 가기”를 참고하세요.

 

예를 들어 사용자가 궁금한 내용을 입력하면, 서비스 운영자가 이 입력을 API를 통해 정해진 양식대로 LLM에게 전달합니다. 모델은 전달받은 데이터를 ‘입력값(X)’으로 삼아서 내부적으로 연산을 수행하고, 그 결과로 나온 ‘출력값(Y)’을 다시 정해진 양식으로 반환합니다. 서비스 운영자는 그 답을 각자 정의한 방식으로 사용자에게 보여주고요. 이렇게 모든 서비스에 강력한 LLM이 붙을 수 있게 된 겁니다.

 

다만, 이 과정에서는 API를 ‘한 번 호출할 때마다’ 미리 정해진 요금이 청구됩니다. 쓴 만큼 내라는 겁니다.

 

  • 고양이(요고): 엥? 챗GPT 유료 구독으로 돈 버는 거 아님?
  • 나: 그건 엄밀히 말하면 ‘모델’로 돈을 버는 것은 아닙니다. 오픈AI라는 기업이 GPT라는 모델로 만든 ‘서비스’인 챗GPT가 돈을 버는 거죠. 자세한 건 next time….

 

LLM 가격 비교 사이트 <출처: LLM Price Check>

 

그래서… 얼마죠…?

다만 ‘쓴 만큼’이라는 걸 사람마다 다르게 이해할 수 있잖아요? 그래서 기본 단위가 있습니다. ‘토큰(Token)’이라는 단위입니다. 쉽게 말하면 우리 언어의 형태소와 비슷한 개념이라고 보면 되는데요. 모델이 언어를 쪼개서 이해하는 단위입니다. 모델마다 토큰의 정의 기준이 조금씩 다르긴 한데, 어찌되었든 사용량을 계산할 때 토큰을 기준으로 비용을 책정하는 구조는 같습니다.

 

대신 또 ‘요청할 때’랑 ‘돌려 받을 때’ 돈이 다릅니다. 즉, 입력과 출력을 따로 구분해서 계산하는 거죠. 일반적으로 입력 토큰 비용이 조금 더 저렴하고, 출력 토큰이 좀 더 비싼 편입니다. 입력값은 최대한 요약하고 줄여 핵심만 훑는데, 출력은 나갈 때 여러 번 검토하는 과정이 필요하거든요.

 

기술적으로는 그렇다지만, 어쨌든 가공된 무언가를 돌려 받을 때가 더 비싼 건 당연한 원리 아니겠어요? 들어올 때는 마음대로였지만, 나갈 때는 아니니까요. 사실 이 말이 더 무섭게 다가오는 것은 다른 데 있습니다.

 

API 방식으로 우리 서비스에 LLM을 한번 도입하면 운영자 입장에서는 그 의존도가 점점 높아질 수밖에 없습니다. 모델이 서비스 시스템에 깊숙이 연결되면 될수록, 고객이 그 기능을 사랑하면 사랑할수록, 서비스는 어쩔 수 없이 모델에 의존할 수밖에 없습니다.

 

그래서 나중에는 벗어나고 싶어도 쉽게 벗어나기 어려울 겁니다. 결국 그 모델을 제공한 회사의 영향력 아래 놓일 가능성이 높은 거죠. 지금이야 3사가 경쟁하며 발전하니까 비용이 점점 저렴해지고 그렇지만요. 나중에 클 만큼 커서 문득 담합을 해버리면 어떻게 할까요? 새로운 모델 만든다고 지원이란 지원은 다 받고 요금은 왕창 올리고는 “나 못해, 배 째”하고 포기해 버리면요? (기시감이 드네요.)

 

그래서 이 모델 회사들의 가치는 눈에 보이는 것 이상으로 더 큽니다. 너도 나도 돈을 들고 투자하겠다 하는 이유기도 하고요. 한편으로 이러한 의존성은 API 기반으로 LLM 서비스를 도입할 때 반드시 염두해야 하는 영역입니다.

 

  • 고양이(요고): ㅎㄷㄷ. 내 무습다….
  • 나: 물론, API 기반 도입을 무조건 피해야 하는 것은 아니에요. 뛰어난 성능, 저렴한 초기 비용, 빠른 구축까지, 장점도 정말 많습니다. 게다가 직접 구축과 이제 설명할 오픈소스까지, 대안이 충분하니 그리 걱정할 것도 없습니다.

 

 

오픈소스: 코드 한 쪽도 나누는 것이 개발의 정신

이제부터는 모델을 도입하는 또 다른 선택지, “오픈소스(Open Source)”를 봅시다.

 

오픈소스는 원래 있던 겁니다. 단순히 그냥 스쳐갈 개념이 아니고, 웹과 프로그래밍이 이토록 폭발적으로 성장한 가장 큰 이유 중 하나죠. 자신들이 만든 기술이나 결과물을 개발자 생태계 전체에 활짝 열어놓고, 누구나 가져다가 활용할 수 있도록 하는 방식입니다.

 

리눅스(linux), 웹(www), 깃(git) 같은 핵심 기술 모두 오픈소스라는 것을 알고 있나요? 개발자 스스로 천문학적인 부를 쥘 수 있음에도 기술 발전을 위해 모조리 공개해버린 거죠. 누구나 이 기술을 활용해 비즈니스 활동을 해나갈 수 있고요.

 

그렇게 자라난 오픈소스 정신이란 씨앗은 AI 모델 생태계에도 뿌리 내리고 있습니다.

 

그럼 AI 모델을 어떻게 오픈소스로 공개할까요? 모델은 결국 수많은 파라미터(Parameter), 또 이를 연결하는 구조의 집합이잖아요. 그래서 모델을 오픈소스로 공개한다는 건 그 파라미터와 구조 전부를 열어준다는 겁니다. 누구든 이걸 다운로드 받아 새로운 입력을 넣으면, 그에 따른 출력을 받을 수 있고요.

 

 

오픈소스 모델은 뭐가 좋나요?

물론 아직 오픈AI, 앤트로픽, 구글의 모델에 비하면 오픈소스 모델들은 성능 측면에서 아쉬운 점이 있다고 합니다. 다만 또 그만큼 이를 상세하는 강점이 있죠. 크게 세 가지입니다.

 

첫째, (장기적인 관점에서) 가격입니다. API는 쓴만큼 냅니다. 당연히 수수료가 붙고요. 오픈소스 모델은 추론에 쓰는 자원값만 감당하면 됩니다. 물론 아무리 오픈소스 모델이라고 해도, 여전히 실제로 돌리기 위해서는 성능 좋은 GPU가 필수라는 사실은 변하지 않습니다. 그래서 초기 비용이 좀 듭니다.

 

둘째, 보안입니다. API로 쓰려면 어쨌든 우리의 입력값을 모델 기업의 서버로 보내야 합니다. 그래야 출력이 나오니까요. 왜 지금도 챗GPT를 못 쓰는 기업들이 꽤 있잖아요. 기업 기밀을 넣어 데이터가 유출되는 것을 걱정하기 때문이죠. 물론 3사는 이에 대한 암호화를 철저히 한다고 보장하지만, 걱정은 걱정입니다. 그런데 오픈소스 모델은 결국 모델이 우리 장치 안에 존재하니 외부 유출에 대한 걱정이 한층 덜합니다.

 

마지막, 최적화입니다. 모델은 ‘범용적’입니다. 넓은 데이터로 학습하죠. 다양한 범위의 지식은 넓지만, 사실 기업이 선호하는 건 ‘우리 도메인’을 기깔나게 잘 하는 녀석입니다. B2B에서 그리 부르짖는 ‘커스터마이징’이죠. 그래서 우리만의 데이터를 추가로 학습시키며 파라미터를 조금 조정하는 ‘파인 튜닝(fine-tuning)’이란 과정이 필요합니다. 물론 API 방식에도 파인 튜닝을 지원하지만, 우리 로컬에서 오픈소스 모델 기반으로 만드는 것이 더욱 확실한 방법이고요.

 

이런 걱정을 다 없애주는 제일 좋은 방법은 당연히 바닥부터 우리 기업에 맞는 모델을 만드는 겁니다. 실제로 그렇게 시도하는 곳도 있죠. 다만, 여기에 들어가는 기반 비용은 장난이 아니니까요. 오픈소스 모델을 기초로 삼아 이 위에 쌓아올리는 방식도 많이 씁니다.

 

  • 고양이(요고): 오픈소스 정리 좀
  • 나: 파라미터와 구조까지, 모델을 통으로 공개하는 것! 이 모델 기반으로 시스템을 구축하면 (장기적인) 가격, 보안, 최적화의 장점이 있고요.
  • 고양이(요고): 그런데 왜 공개하는…?
  • 나: 그것이 개발 업계의 유구한 전통이라는 거임

 

라마(Llama): 메타는 알아주는 오픈소스 맛집

이런 오픈소스 LLM 중에서 유명한 것, ‘라마(Llama)’ 시리즈입니다. 메타에서 만들었죠.

 

메타는 물론 SNS 서비스 중심 회사지만, 기술 측면에서 공헌도가 꽤 큰 편입니다. 많은 기술을 오픈소스로 공개하며 개발 생태계를 키워왔거든요. 딥러닝 모델 개발에 쓰이는 파이토치 라이브러리도 메타가 공개한 소스고요. 또, 왜 개발자들이 밤새 모여서 코딩하는 ‘해커톤(Hackathon)’ 같은 문화도 메타에서 적극 수용하며 퍼졌습니다. 라마 모델 역시 그런 메타의 정책과 문화가 담긴 결과물이라고 할 수 있습니다.

*기업은 기업이니까요. 라마로 돈을 벌고 있다는 소식도 있습니다.

 

물론 초창기 라마 모델들은 오픈소스라 그런지 성능 면에서 조금 아쉬운 부분이 있었다고 합니다. 하지만 최근 공개된 Llama 4 버전은 이런 격차를 많이 잡았다고 해요. 특히 이 최신 라마 모델 중에서도 가장 규모가 크고 성능이 뛰어난 모델(Behemoth)은, GPT나 제미나이 최상위권 모델과 벤치마크에서 비슷한 성능을 기록했다고들 합니다.

 

<출처: 메타>

 

딥시크(DeepSeek)와 큐웬(Qwen): 중국 무시 ㄴ

오픈소스 모델 생태계에서 의외로 중요한 존재, 바로 중국의 모델들입니다.

 

잠깐 새보자면, 중국은 사실 국가 주도 AI 집중 전략에 돌입한지 꽤 되었고, 어느 정도 두각도 나타내고 있었습니다. 중국이 가진 가장 큰 강점은 데이터를 국가가 직접 통제한다는 부분입니다. 예를 들어 오픈AI 같은 회사는 데이터를 확보하고 학습에 이용할 때마다 항상 소송에 휘말리곤 해요. “우리 콘텐츠가 지적 재산인데 왜 마음대로 모델 학습에 사용하느냐?” 하는 문제가 있으니까요. 그런데 중국에서는 이런 문제 자체가 거의 없어 보입니다. 개인정보 같은 데이터를 국가가 직접 관리하고 있기 때문에, 국가가 나서서 지원만 해주면 데이터 확보가 정말 쉬워지는 거예요. 가치 판단은 제외하고, 어쨌든 데이터 확보의 편리는 모델 개발의 장점이죠.

 

다만 여전히 미국 중심 기업들에는 아직 안 된다는 이야기가 많았습니다. 그러다 지난해 확 튀어나온 것이 바로 중국에서 만든 ‘딥시크(DeepSeek)’입니다. 대표적으로는 R1, V1 같은 모델이 있습니다. 딥시크 모델은 대부분 오픈 소스로 공개되어 있습니다. 딥시크의 R 시리즈 모델은 물론 성능도 성능이었지만, 이를 개발하는 데 든 자원, 즉, 비용이 압도적으로 적어 화제가 되었죠. 이래저래 거짓말이다 vs. 아니다 논란은 많지만, 딥시크는 오픈AI 모델 구축 비용의 5%만 들었다고 주장해요.

*모델 영역의 추론(reasoning)과 지식 증류 등 개념이 엮여 있는데요, 다음에 또 말할 기회가 있을 겁니다.

 

딥시크 외에 주목받고 있는 중국의 오픈 소스 모델로는 ‘큐웬(Qwen)’이라는 라인이 있습니다. 알리바바 그룹에서 만든 모델인데요, 요즘 들어 벤치마크에서 상당히 좋은 성능을 내고 있다고 하더라고요.

 

이렇듯 중국 AI의 빠른 성장세와 높은 성과는 확실히 무시할 수 없는 수준입니다. 게다가 중국발 모델들은 대부분 오픈소스로 공개된다는 것이 특징이라면 특징이겠네요. (오픈소스로 공개된 것들 위주로만 우리가 접할 수 있는 걸지도요)

 

허깅페이스(Hugging Face): AI 궁금하면 모이삼

그럼 이런 오픈소스 모델은 어디서 찾아볼 수 있을까요? 직접 회사든 어디든 메일을 보내서 받아야 할까요?

 

아니요, AI 모델을 서로 공유하고 주고받는 커뮤니티가 있습니다. 대표적인 곳이 바로 ‘허깅페이스(Hugging Face)’라는 사이트예요. 오픈소스 모델을 자유롭게 공유할 수 있는 플랫폼으로, AI 오픈소스 생태계의 핵심으로 성장했죠. 웬만한 오픈소스는 이곳 가면 다 접할 수 있습니다.

 

또, 단순히 오픈소스 모델을 올리고 공유하는 커뮤니티에 그치는 게 아니라 AI 개발자들끼리 소통하고 교류하는 일종의 개발자 커뮤니티 역할까지 하고 있어요. 예전에는 개발자들이 궁금한 게 있으면 ‘스택 오버플로우(Stack Overflow)’라는 사이트를 자주 찾았잖아요? 요즘은 비슷하게 AI 모델 쪽 궁금하면 “허깅페이스에 가서 찾아본다”라고 하는 분들도 있더라고요.

 

그렇게 허깅페이스는 단순히 오픈소스 모델을 공유하는 것을 넘어 데이터셋, 리소스, 라이브러리, 정보를 공유하며 AI 오픈소스 생태계의 중심으로 성장하는 중입니다.

*허깅페이스도 기업입니다. 더 자세한 이야기는 “AI 시대 개발자들의 놀이터 '허깅페이스'를 알아보자”에서 만날 수 있습니다.

 

<출처: 허깅페이스 웹사이트 캡처>

 

여기까지 요약 with 고양이AI

  • LLM 3대장: 오픈AI(GPT), 앤트로픽(클로드), 구글(제미나이)이 서로 경쟁하며 시장을 주도하고 있음
  • 모델은 API 호출 방식으로 비용을 내며 입력·출력 토큰 사용량에 따라 과금
  • 파라미터와 구조를 모조리 공개하는 오픈소스 모델은 (장기) 비용 절감, 보안 강화, 도메인 맞춤 최적화에 좋음

 

마치며

지금까지 LLM 시장을 지배한 핵심 논리는 ‘스케일’이었어요. 데이터를 많이 부으면 부을수록, 파라미터가 많으면 많을수록 = 그러니까 돈을 쓰면 쓸수록 성능이 기하급수적으로 좋아진다는 거였죠. 실제로도 그랬고요. 좋은 모델은 다시 좋은 데이터와 큰 돈을 유혹하고 그렇게 시장 지배력을 키워가고 있습니다.

 

이런 이유로 벤치마크 최상위 경쟁을 이어갈 모델은 일단 등장하면 파급력이 클 겁니다. 갑자기 나올 모델이 아주 많지는 않을 거라고 보지만요. 이미 AI 모델, 특히 LLM 개발을 일찌감치 포기해 버린 곳들도 많습니다. 애초에 엄두도 못 낸 곳, 해보다 관둔 곳, 이제야 ‘모델이 필요하다고?’ 하는 곳들이 섞여 있죠. 다만 그럼 “의존성은 어떻게 해소해?”라는 질문에 대한 대답은 여전히 물음표입니다.

 

남의 이야기가 아닙니다. 당장 상사가 “거 AI 하나 못 붙여보나?”할 때 가장 먼저 고민해야 하는 질문은 이거거든요. 만들까? 빌릴까? API로 받아오든, 오픈소스 기반을 고치든, 바닥부터 쌓든 말입니다. 그럼 무슨 기준으로 선택하냐고요? (한참을 우루루 너덧개 뛰어넘고) 결국 고객일 겁니다.

 

다시 한 번 강조하지만, 모델은 결과물을 만드는 시작점일 뿐입니다. 사람들은 무슨 모델을 썼는지를 보고 돈을 내지 않습니다. “더 빠르고 품질 좋은 무언가 결과물”에 내는 거죠. 그렇게 다음은 그 무언가, 서비스가 전면에 나섭니다. 챗GPT의 등장과 함께 불거진 ‘서비스 전쟁’을 트렌드 흐름에 따라 살펴봅시다.

 

©️요즘IT의 모든 콘텐츠는 저작권법의 보호를 받는 바, 무단 전재와 복사, 배포 등을 금합니다.

에디터가 직접 고른 실무 인사이트 매주 목요일에 만나요.
newsletter_profile0명 뉴스레터 구독 중