고양이도 알아듣는 생존형 AI 기초: 기반 산업 편
요즘 IT 시장을 보면 온통 AI 이야기로 가득 차 있습니다. 특히 ‘챗GPT’가 등장한 이후로 정말 많은 것이 바뀌었죠. 이런 흐름에 ‘AI가 내 일을 대체할 거라는데, 정작 나는 아무것도 모르겠어.’라는 두려움이 퍼지고 있습니다. ‘AI 포모(AI FOMO)’라는 이름으로요.
두려움에 빠진 분들을 위해 AI를 이해할 때 필요한 최소한의 이야기를 준비했습니다. 어려운 이론은 뛰어넘고 실제 산업을 이해할 때 도움을 줄 것들만 다루겠습니다. 목표로 하는 것은 새로운 뉴스가 나왔을 때 적어도 “그 소식이 왜 중요한지” 정도는 이해할 수 있는 겁니다. 모두가 ‘이건 정말 중요하다!’라고 말할 때, 최소한 그 이유 정도는 알 수 있도록 말이죠. 집사 옆에 식빵 굽던 고양이도 알아들을 수 있는, 생존을 위한 AI입니다.
AI 시대의 ‘생존’이라 하면 무엇을 의미할까요?
물론 지능이란 특수성을 빼앗긴 인간이 인간으로 인정받을 권리에 대해 말할 수도 있습니다. 하지만 이건 너무 큰 이야기잖아요. 그래서 더 피부에 와닿는 내용, 그러니까 ‘AI에 내 일자리를 빼앗기지 않는 것’에 대해 말하고자 합니다. 여기서 말하는 ‘내 일’의 근본은 무엇일까요? IT 시장으로 한정 지어 보자면 결국 다 회사에서 돈 버는 일을 말할 겁니다. 내 회사이든, 남의 회사이든, 혼자 벌든, 여럿이 벌든 말이죠.
그럼 AI로는 어떻게 돈을 벌까요? 아직 잘 모르겠다고들 합니다. 그래도 잘 나가는 회사들은 있습니다.
게임 좋아하는 사람들이나 알던 엔비디아가 어떻게 AI 대장이 되었는지, 오픈AI는 도대체 뭘 했길래 챗GPT 같은 미친 제품을 만들었는지, 그 옛날 바둑 두던 알파고는 어디로 갔는지. 두 편에 걸쳐 AI로 돈 버는 이야기에 대해 알아보겠습니다.
- 고양이(요고AI): 이 글에서 등장하는 키워드들 알려 줘요!
- 나: 오늘은 AI의 기반들. 엔비디아와 GPU, 클라우드 3대장(아마존, MS, 구글), 파이썬이 나올 거예요.

AI로 돈 벌려면 필요한 것
AI 기능을 잘 만들려면 필요한 것이 크게 두 가지 있습니다.
첫 번째, 컴퓨터. AI는 결국 기계 위에서 동작합니다. 학습도 추론도 모두 기계가 필요하죠. 그래서 그 기계 장치에 쓸 ‘부품’들이 중요해집니다. 필요한 부품을 많이 확보하면 좋은 컴퓨터를 만들어 일을 시킬 수 있거든요. 문제는 꽤 비싸다는 것. 그래서 작은 기업들은 주로 ‘클라우드’ 방식으로 얻어옵니다.
두 번째, 모델. 사람들은 AI 그 자체에 돈을 쓰는 건 아닙니다. AI를 돌려 나오는 결과물, 즉, 추론의 결과물에 돈을 쓰는 거죠. 그러려면 추론의 시작점인 모델이 필요할 겁니다. 다만 이 모델은 아주 많은 데이터와 최신 기술의 집약체입니다. 당연히 직접 만들 수 있어도 쉽지는 않죠. 특히 LLM은요.
물론 복잡한 산업 세계가 그렇듯 당연하게도 이를 제외한 시스템 역시 많이 필요합니다만, 이 두 가지는 특히 접근이 어려운 기반 산업, 즉, 인프라의 세계입니다. 막대한 투자와 시간이 필요하기 때문입니다. 이런 기반은 후발주자들이 다시 따라잡기 힘든 차이를 만들어 냅니다. 새로 나온 기술과 데이터를 곧바로 접목할 ‘시간’을 선점하고 있으니까요.
오늘은 인프라 산업, 그중에도 컴퓨터의 영역을 점거한 가장 대표적인 기업들과 모델 개발에 필요한 기초 구조를 살펴보겠습니다.
- 고양이(요고): AI의 기반이 뭐라고요?
- 나: AI 돌릴 ‘컴퓨터’ + 결과물 만들어 주는 ‘모델’!
GPU 이야기: 어떻게 엔비디아는 한국 기업 전부보다 비싸졌을까?
25년 5월 말, 반도체 기업 엔비디아(NVIDIA)의 시가 총액은 약 3.2조 달러입니다. 한국 증시 전체가 25년 2월 기준 약 1.7조 달러라고 하니 엔비디아 하나만 해도 한참 더 비싸네요.
어떻게 그럴까요?

엔비디아 주가가 폭등한 이유 → 를 알기 위한 GPU 이야기
요즘 AI가 다루는 데이터는 정말 많다고 했습니다. ‘무지막지하게 많다’라고까지 할 수 있죠.
컴퓨터는 이렇게나 많은 데이터를 전부 처리해야 하고, 또 이 데이터로 모델도 학습시켜야 합니다. 이 과정은 한 번에 ‘따랑’ 하고 끝나는 게 아니고요. 엄청나게 많은 숫자들이 계속 왔다 갔다 하면서 계산하고 또 계산하는 과정이 필요합니다. 학습해서 모델 만들었으면 끝날까요? 아뇨. ‘추론’, 그러니까 우리가 원하는 결과를 내놓기도 해야 하죠.
이 추론이라는 것도 그냥 데이터를 넣으면 바로 결과가 나오는 게 아닙니다. 큰 모델은 파라미터가 1조 개, 2조 개 넘습니다. 그러니 여기에도 또 엄청난 숫자 계산이 들어가고, 그 연산한 결과값들을 다시 처리해야 합니다. 이런 복잡한 작업을 사람이 하나하나 할 수는 없으니까, 그래서 우리에게는 컴퓨터가 필요한 겁니다.
- 고양이(요고): 잠깐만요. 학습이 뭐고 추론이 뭐…?
- 나: 아, 생존형 AI 시리즈 안 보셨구나. 오케이, 되게 좋은 건데 이거(전편 링크)만 딱 드릴게. 짧게 정리하면, 데이터를 가장 잘 설명하는 패턴과 구조를 찾는 것이 학습, 이렇게 학습한 결과물인 모델로 새로운 데이터에 기반한 예측값을 찾는 것이 추론!
컴퓨터는 결국 기계고, 기계가 잘 돌아가려면 부품이 필요하겠죠? 컴퓨터 안에도 여러 가지 다양한 부품들이 들어 있을 테고요. 그중에서도 AI 히트 상품, 특히 중요한 부품이 바로 ‘GPU’라는 녀석입니다.
똑똑하지만 외로운 CPU
GPU가 왜 중요한지 이해하려면 컴퓨터의 연산장치를 잠깐 살펴보는 게 좋습니다. 원래 컴퓨터 안에는 여러 가지 연산 장치가 있는데요, 가장 핵심적인 역할을 했던 부품은 바로 CPU라고 하는 거였습니다. 컴퓨터의 두뇌라고도 많이 불렸죠. CPU는 우리가 흔히 알고 있는 인텔(Intel) 같은 회사에서 만드는 건데요, 왜 펜티엄4 할 때 ‘펜티엄’하는 게 그 CPU입니다.
비유하자면 CPU는 아주 똑똑한 사람입니다. 똑똑한 만큼 일을 잘 처리하는데, 우선 중요한 일 위주로 한 번에 한 가지 일만 담당하는 느낌입니다. 물론 요즘에는 듀얼 코어라고 CPU 여러 개 넣는 것도 표준이 되었습니다만, 여전히 CPU는 똑똑한 소수가 복잡하고 중요한 일을 처리하는 방식이라고 생각하면 이해가 쉽습니다.
옛날에는 이 똑똑한 CPU가 혼자서도 웬만한 일은 잘 처리할 수 있었습니다. 컴퓨터가 해야 하는 일이 그렇게 많지는 않았거든요. 그래서 CPU가 성능의 표준이 되고는 했죠.

조금 멍청하지만 함께인 GPU
GPU라는 친구는 CPU와 비교하면 사실 좀 멍청합니다. 대신 한 번에 여러 가지 일을 동시에 하는 건 아주 잘하죠. 이런 걸 우리가 병렬 처리라고 부르는데요. 쉽게 말해 여러 명이 한꺼번에 일을 나눠 조금씩 동시에 처리하는 방식입니다.
그런데 이런 특징이 글쎄, AI하고 딱 맞아떨어집니다.
빅데이터, 딥러닝 같은 기술은 결국 이 병렬 처리 덕분에 많이 발전했거든요. 딥러닝 모델의 학습에서 파라미터라는 숫자들을 구할 때만 해도 병렬 처리가 꼭 필요합니다.
이 병렬 처리를 잘하는 부품이 뭘까? 하니 바로 GPU라는 거죠. AI의 수식 계산은 사실 생각보다 어렵지 않아요. 대부분 곱하기와 더하기 같은 쉬운 수학을 반복한다고 생각하면 됩니다. 문제는 이 단순한 계산을 수십억 번, 몇조 번씩 반복해야 한다는 거고요. 그렇게 GPU가 무대 중앙으로 나섭니다. GPU 없이는 이 엄청나게 많은 계산을 빠르고 효율적으로 처리할 수가 없으니까요.
- 고양이(요고): 그런데 왜 GPU를 그래픽카드라고 불렀어요?
- 나: 이미지도 텍스트에 비하면 훨씬 많은 숫자로 표현하는 데이터 유형이거든요. 그 많지만 단순한 그래픽 데이터를 빠르게 처리하는 데 특화된 게 GPU였고, 쓰임새에 맞게 이름이 붙었죠.
그저 하던 대로 GPU를 최고로 잘 만들었을 뿐인데…
이렇게 중요한 “GPU를 AI에 최적화해 세상에서 제일 잘 만드는 회사가 누구냐?” 하니까 번쩍 손을 든 것이 바로 ‘엔비디아(NVIDIA)’입니다.
엔비디아가 만든 라인업 좀 간단히 짚어 볼게요. 엔비디아 GPU 모델은 마이크로아키텍처와 제품으로 구분할 수 있습니다. 마이크로아키텍처는 (간단히 말하면) 설계도, 그 설계도로 만든 실물은 제품이라고 볼 수 있죠. 여기서 제품은 다시 아주 무거운 AI 모델 개발/활용 목적(=데이터센터용)과 개인 PC 용도(=소비자용)로 나뉩니다. AI 산업에서 조금 더 중요한 건 데이터센터용이고요.
*소비자용 제품은 지포스(GeForce)란 브랜드를 씁니다. 조금 익숙한가요? 여기에 GTX, RTX가 붙으며 발전하고 있습니다. 한편 마이크로아키텍처의 이름은 모두 유명한 물리학자의 이름에서 따와 붙이고 있대요. 케플러(Kepler), 파스칼(Pascal), 튜링(Turing) 이렇게요.
데이터센터용 모델에서도 처음 유명세를 얻은 건 T4 제품으로 꼽습니다. 2018년에 나왔고요, 구글에서 만든 ‘BERT’처럼 초기 LLM을 돌릴 때 많이 쓰이곤 하죠. 엔비디아는 곧 이보다 더 강력한 ‘A’, ‘H’ 시리즈도 선보입니다. 2022년에 나온 H100 정도만 해도 현재 나와 있는 웬만한 AI 모델을 감당한다고 합니다.
여기서 멈추면 ‘황제’가 아닙니다. 엔비디아는 꾸준히 GPU를 발전시키며 다양한 아키텍처 시리즈를 내놓고 있습니다. 현재 최신형은 ‘블랙웰(Blackwell)’이고요. (제품 시리즈 이름은 GB입니다) 앞으로도 ‘루빈(Lubin)’, ‘파인만(Feynman)’ 같은 새로운 시리즈를 계속 출시할 예정이라고 합니다.

- 고양이(요고): 당신 엔비디아랑 무슨 사이야?
- 나: 말이 길어졌네요. 죄송. 정리합니다.
- 엔비디아라는 회사는 AI에 꼭 필요한 컴퓨터 부품인 GPU를 세상에서 제일 잘 만들었습니다.
- 그 GPU 없이는 AI 학습도, 추론도 쉽지 않으니 아주 중요한 기업 중 하나가 되었죠.
제발 좀 GPU 좀 팔아 주세요
GPU가 AI 모델의 성능까지 관여할 만큼 중요해지자, 힘의 논리까지 개입하기 시작합니다. 특히 H100 같은 모델은 출시도 하기 전부터 미국 정부가 중국에 팔지 못하게 막으면서 더 유명해졌죠.
이제는 모두 AI가 필요해졌고, 그렇게 수요가 폭발하다 보니 공급이 따라잡지를 못합니다. 그래서 “글로벌 기업의 총수들이 엔비디아 CEO인 젠슨 황(Jensen Huang)을 만나려고 줄을 선다”, “엔비디아 GPU 부르는 게 값이다” 이런 얘기도 나온 거고요. 그 정도로 GPU 확보가 중요하다는 겁니다.
엔비디아 입장에서는 당연히 정해진 완성도에 맞춰 만들어진 GPU를 팔아야 하니까 누구나 쉽게 살 만큼 찍어내긴 어렵습니다. 사실 또 만드는 것은 다른 기업(TSMC 등 파운드리)이고, 바뀐 설계도에 따라 공급망도 바뀌어야 하거든요. 기다리던 기업들이 답답해서 다른 곳으로 가자니 품질이 아쉬운 것은 물론 GPU 활용 프레임워크 CUDA가 엔비디아 제품만 지원하니 벗어나기 어렵습니다. 결국 비싸고 귀한 GPU를 누구나 쉽게 구매할 수는 없는 상황이 되어 버렸습니다.
- 고양이(요고): 아니, AI 만드는 데 필수인 GPU가 얼마 없으면 다른 사람들은 다 놀아요?
- 나: 당연히 아니겠죠. 여기서 다음 주제가 등장합니다. 바로 “클라우드”
클라우드 이야기: 컴퓨터 필요해요? 빌려 드릴게
귀한 만큼 GPU 하나가 처리할 수 있는 일의 양은 정말 어마어마합니다. 그래서 이 귀하다는 GPU를 얻은 큰 회사들이 문득 그런 생각을 합니다. “어차피 백날천날 쓸 것도 아닌데, 이거 남는 자원 좀 돈 받고 팔아볼까?” 하고요.
GPU 빌려주자고 이 모든 구조가 생긴 건 아니지만요, 일단
큰 회사들은 장비에 투자를 많이 합니다. 장비빨이 중요하거든요. 그래서 이들은 엔비디아의 고성능 GPU도 직접 삽니다. 다만 모두 쓰지는 않으니, 사서 남는 건 빌려주기도 합니다. 비쌀 때는 개당 6000만 원도 넘던 H100처럼 비싼 GPU를 중소기업들이 따로 사기는 너무 어려우니까요.
또 GPU라는 게 혼자서만 돌아가는 부품은 아닙니다. GPU가 제대로 일하려면 그것을 움직이게 해주는 CPU도 필요하고, 데이터 처리를 도와주는 램(RAM)이나 메모리, 그리고 다른 여러 부품도 함께 준비해야 하죠. 이런 부품들도 당연히 GPU와 비슷한 수준에 맞춰 준비해야 합니다.
그래서 몇몇 빌려주는 일을 전담으로 하는 회사들은 아예 CPU, 메모리 같은 다른 부품까지 전부 묶은 다음 완벽한 패키지로 만들어 빌려주기로 합니다. 이렇게 하면 GPU를 직접 사지 않아도 작은 회사들 역시 필요한 만큼 쓸 수 있습니다. 유통 마진이 붙는 건 당연하지만요.

클라우드 컴퓨팅(Cloud Computing)
흐름에 따라 GPU와 엮어 등장하기는 했지만, 이렇게 컴퓨팅 자원(Computing Resource)을 빌려주는 일, ‘클라우드 컴퓨팅(Cloud Computing)’이라는 비즈니스 영역은 이미 IT 세계를 지배하고 있습니다.
지금 우리가 쓰는 웹과 앱 모두 결국 서버와 DB라는 이름의 컴퓨터 위에서 돌아가고 있으니까요. 여기도 똑같이 더 많고 성능 좋은 컴퓨터는 필요하고, 모든 기업이 컴퓨터를 실물로 사기는 어렵고, 그러니 자연스럽게 빌려다가 쓰는 흐름이 만들어졌습니다.
그런 일을 전문으로 하는 클라우드 서비스 회사는 데이터 센터를 구축하고, 컴퓨팅 자원들을 분야별로 모아, 인터넷으로 제공해 오고 있었습니다. 원래부터 잘해오던 일이었는데, AI 시대가 오면서 훨씬 더 중요해진 거고요. 데이터도 크고 에너지도 많이 필요한데다 발전 속도가 워낙 빠르니 옛날 전산실의 자원만으로는 커버하기 무척 어려워졌습니다.
- 고양이(요고): 감이 잘 안 오는데, 클라우드를 더 설명해 줄래요?
- 나: 이게 클라우드는 또 IT 인프라의 무척 중요한 영역으로, 단순히 설명하기가 어려운데요. 그 배경과 역사부터 거슬러 올라가자면, 아마존의 …
- 고양이(요고): 캭! 한 줄로!
- 나: “컴퓨터 빌려 드립니다. 쓰고 싶은 구조를, 돈 내는 만큼, 인터넷으로요.”
클라우드 3대장: AWS, GCP, Azure
이런 서비스를 제공하는 유명한 회사들이 있습니다. 세계 레벨로 보면 AWS, GCP, Azure 이렇게 3대장이죠. (클라우드 서비스를 제공하는 회사들을 묶어 CSP라고 부릅니다) 이름이 생소하게 느껴지는 분도 있을 텐데요. AWS는 아마존, GCP는 구글, Azure는 마이크로소프트가 그 위에 있습니다. 진짜 대장들이죠?
그렇게 시장을 지배하는 기업들은 또 각자 다음 핵심 사업으로 AI를 바라보고 있습니다. AI도 결국 컴퓨터 위에 굴러가는 시스템이라고 본다면, 그 수요가 늘어난다는 건 더 많은 컴퓨팅 자원이 필요하다는 뜻이니까요.
AWS의 ‘세이지메이커(SageMaker)’, GCP의 ‘버텍스(Vertex) AI’, Azure의 ‘ML 스튜디오’ 같은 서비스들이 대표적으로 기업의 AI 도입을 지원하는 서비스입니다.

그런데 이 회사들이 단순히 컴퓨팅 자원만 제공하는 건 아닙니다. 이를테면 이미 우수한 컴퓨팅 자원을 충분히 갖추고 있으니까, 다양한 AI 모델을 직접 이것저것 테스트해 볼 수 있는 공간까지 함께 제공하는 겁니다. AI 모델을 실제로 활용하고 추론(Inference)하는 데 정말 많은 컴퓨팅 자원이 소모된다고 했잖아요? 그런데 그걸 마음껏 써보라고 환경을 만들어주는 거죠. AWS의 ‘베드락(Bedrock)’이라는 서비스가 대표적입니다. 그러다 보니 이제는 하루게 다르게 발전하는 기술을 최대한 빠르게 도입할 수 있다는 ‘속도’가 클라우드의 핵심 장점이 되어가고 있습니다.
이런 예시를 비롯해 이래저래 AI 활용, 그러니까 선택부터 실제 적용까지 필요한 모든 자원과 시스템을 빌려주는 형태로 발전할 겁니다. 물론 또 그런 만큼 수수료는 내야 할 테고요.
- 고양이(요고): AI 산업에서 클라우드의 역할이 뭐라고요?
- 나: AI 역시 컴퓨터 시스템으로 동작을 위해 많은 컴퓨팅 자원이 필요함! 그래서 클라우드 서비스 기업들이 GPU를 비롯해 다양한 기반을 수수료 받고 빌려주는 중!
물론 그런 것이 싫어 기업 혹은 국가 단위로 직접 데이터 센터를 만드는 곳도 꽤 있습니다. 수수료보다 더 큰 문제는 의존성이니까요. 이처럼 AI에 쓸 좋은 컴퓨터와 이를 공급하는 시스템을 어떻게 구축하는가 자체도 AI 시대의 경쟁력입니다.
모델로 넘어갑니다
AI 돌릴 컴퓨터를 만드는 영역을 이해했나요? 그러면 다음은 모델의 세계입니다.
모델을 쓰는 방법은 두 가지입니다. 직접 만들거나, 이것 역시 빌려다 쓰거나. 오늘은 이 중에서 모델을 직접 구축할 때 필요한 ‘기반’에 대해 알아보려고 합니다.
- 고양이(요고): LLM 가져다 쓰면 되는 거 아니었음?
- 나: 네! 아닙니다! 자체 개발이 필요한 영역이 있어요. 먼저 살펴볼게요.
GPT가 짱 아님? → (늘 그런 것은) 아님
AI 추론의 기본은 분류, 회귀 문제이며 대표적인 응용 시스템은 추천, 탐지와 같은 영역입니다. 우리가 주변에서 접하는 서비스에도 이미 그런 AI 시스템은 많이 녹아있죠. 때로 이런 시스템에는 오히려 LLM을 사용하는 것이 낭비가 되기도 합니다.
LLM은 아주 무겁고 복잡한 모델이거든요. 무거운 만큼 실제로 모델을 추론(Inference)할 때 소모되는 자원도 매우 많습니다. 클라우드 서비스를 쓰면서 들어가는 리소스마다 돈을 낸다면 더욱 그렇겠죠. 게다가 LLM처럼 범용 지식을 학습한 모델이 우리가 가진 데이터에 최적화해 작고 가볍게 만든 모델보다 나은 효율과 성능을 낼지 확신할 수도 없고 말입니다.
실제로 국내에서 만난 서비스 기업의 ML 팀은 대부분 자신들만의 데이터를 가지고 모델을 구축하거나 개량하고 있다 하더라고요. 특히 저런 추천, 탐지 등 영역의 문제를 푸는 일에는요.
그럼 모델은 무얼로 만드나요? 라이브러리로요.
자, 그럼 모델을 개발해 볼까요? 그런데 그냥 맨땅에서 개발하려면 답이 없습니다.
처음부터 짚어봅시다. AI 모델은 뭐로 만드나요? 알고리즘(Algorithm)을 이용해 만듭니다. 알고리즘이란 쉽게 말해 일종의 ‘수식’이라 할 수 있고요. 처음부터 수식을 코드로 일일이 작성하면서 개발하는 일은 현실적으로 적합하지 않습니다. 그 많은 수식을 하나하나 다 코딩하려면 엄청나게 복잡하고 힘들겠죠.
그래서 그런 수식과 기능을 미리 코드로 바꿔 정리해 두고, 간단한 명령어로 호출해 쓸 수 있게 제공합니다. ‘라이브러리(Library)’*로요.
*라이브러리는 쉽게 말해 개발에 필요한 다양한 도구와 함수들을 묶어 한 번에 편하게 제공하는 도구입니다. 도서관은 아닙니다.
이런 대표적인 AI 라이브러리가 바로 일반 머신러닝 모델을 위한 사이킷런(Scikit-Learn), 딥러닝 모델을 위한 텐서플로(TensorFlow)와 파이토치(PyTorch), 그리고 트랜스포머(Transformer) 등이 있습니다. 라이브러리도 개발자가 만드는 건데요, 만들기 꽤 어려울 것 같은 이 라이브러리는 누가 만들었을까요? 텐서플로는 구글(Google)에서 만들었고, 파이토치는 메타(Meta, 이전 페이스북)에서 만들어 공개했습니다. 지금도 무료로 누구나 가져다 쓸 수 있도록 풀어서 공개하고 있어요. 참 큰 회사들입니다.

AI요? 파이썬하세요
방금 말한 라이브러리들은 모두 특정 프로그래밍 언어 위에 올라가 있습니다. 그리고 그 언어가 바로 그 유명한 ‘파이썬(Python)’*입니다.
*물론 다른 언어에서도 구성과 실행을 할 수 있도록 제공하지만, 공식 문서에서 ‘가장 완벽하고 사용하기 쉽다(the most complete and the easiest to use)’고 표현하는 언어는 파이썬뿐입니다.
“AI 배우려면 일단 파이썬부터 배워라” 들어보셨나요? 근본으로 들어가면 모두 이 때문입니다.
물론 파이썬은 그 자체로 무척 진화한 프로그래밍 언어입니다. 쉽고 직관적인 탓에 초심자가 프로그래밍 언어의 구조를 이해하기 정말 좋다고 하죠. 게다가 넘파이(NumPy), 판다스(Pandas), 맷플로립(Matplotlib)처럼 데이터 분석에 쓸 라이브러리가 이미 훌륭하기도 합니다.
다만 그 이상으로 방금 말한 텐서플로나 파이토치 같은 라이브러리들이 넘사벽급 영향력을 가지고 있습니다. 게다가 그런 영향력으로 AI 모델을 애플리케이션에 연결해 주는 랭체인(LangChain) 같은 프레임워크나 모델 배포 환경을 구성하는 MCP 같은 프로토콜도 역시 주요 언어로 대부분 파이썬을 사용하고 있죠. (이 단어들은 나중에 다시 다루겠습니다) AI 개발 세계 속 파이썬의 영향력 확대는 현재 진행형입니다.
아무튼 이런 배경 때문에 “AI 개발을 하려면 일단 파이썬을 배워야 한다”고 하는 겁니다. 기초를 이해하는 데 도움이 되는 건 당연한데요. 모델을 개발하거나 응용할 것이 아니라면 또 ‘굳이’라는 말이 나오는 이유도 여기 있습니다.

여기까지 요약 with 고양이(요고AI)
- AI 인프라 비즈니스는 크게 컴퓨터 + 모델로 볼 수 있음
- 엔비디아는 AI 학습과 추론에 필수적인 GPU를 세계 최고로 잘 만들어 인프라 시장을 주도
- AWS, GCP, Azure; 클라우드 3대장은 AI에 필요한 컴퓨팅 자원을 인터넷으로 빌려주며 성장
- AI 개발의 중심 언어는 파이썬: 텐서플로, 파이토치 같은 AI 개발 라이브러리가 여기 있음
마치며
AI는 하늘에서 뚝 떨어지지 않습니다. 어느 날 갑자기 기술이 미친 듯이 성장해 처음부터 끝까지 모든 영역을 바꿔버린 것도 아니죠. 차근차근 기술력을 높이고, 자원을 확보하고, 데이터를 쌓아온 결과입니다. 지금 돈을 버는 회사들도 모두 미리 준비한 곳들이고요.
그렇다고 AI가 열어젖힌 기회의 문이 닫힌 건 아닙니다. 오히려 에이전트의 영역 같은 곳을 보면, 이제 시작에 가깝습니다. 여기에는 “돈 버는 일”의 본질은 아직 바뀌지 않았다는 전제가 있을지도 모르겠습니다. 사람들은 새로운 “AI 기술”에 돈을 내지 않고, AI 기술로 문제를 풀어내어 “날 편하게 해준 결과물”에 돈을 낸다는 사실입니다.
다음 글에서는 그 결과물의 기반이 되면서 세계를 뒤집어버린 ‘LLM’ 공급사 3대장과 함께 좀 더 피부에 와닿을 모델 산업의 영역을 살펴보겠습니다.
©️요즘IT의 모든 콘텐츠는 저작권법의 보호를 받는 바, 무단 전재와 복사, 배포 등을 금합니다.