오늘은 법에 대한 이야기를 한번 해보려고 합니다. 요즘IT에서 갑자기 웬 법이지?라고 생각하실 수도 있지만, 바로 인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(이하 AI 기본법)에 대한 이야기입니다. 이 법은 지난 1월 22일부터 본격적으로 시행되었기에, 한 번쯤 짚어볼 만한 의미가 있는데요.
대부분의 IT 종사자에게 법은 익숙하지 않은 영역일 수 있습니다. 특히 특정 도메인이 아니라면, 법과는 거리가 있는 경우가 많죠. 하지만 ‘법 종사자’가 아니더라도, 누구나 법제처에서 제공하는 국가법령정보센터를 통해 법률 원문을 쉽게 확인할 수 있습니다.
또한 법은 가장 오래된 형태의 문서화 결과물이기도 합니다. 그래서 일반인도 이해할 수 있도록, 법의 목적과 용어 정의부터 주요 조항까지 체계적으로 구성되어 있죠. 덕분에 법무팀이나 법 전문가가 아니더라도, 충분히 한 번쯤 읽어볼 만합니다. 더욱 흥미로운 점은, 이처럼 복잡할 수 있는 법령 검색조차 이제는 AI를 통해 보다 쉽고 편리하게 접근할 수 있다는 사실입니다. 그럼 지금부터 AI 기본법에 대해 하나씩 살펴보겠습니다.
미리 요점만 콕 집어보면?
- 우리나라 AI 기본법은 2026년 1월 22일부터 시행되는 세계 최초의 AI 기본법으로, AI의 발전 지원과 신뢰 확보를 동시에 목표로 합니다.
- 법은 총 6장으로 구성되며, 2~3장은 산업 육성과 정부 지원을, 4장은 고영향·생성형 AI 사업자의 윤리·투명성·안전성 의무를 규정합니다.
- 특히 생성형 AI 사용 사실의 명확한 고지와 고영향 AI에 대한 관리가 핵심이며, 초기 혼란을 고려해 과태료 등은 1년 유예됩니다.

그렇다면 AI 기본법이 뭐길래 화제일까요? 우선 가장 큰 이유는 우리나라의 AI 기본법이 전 세계 최초로 시행되는 AI 기본법이라는 점입니다. 사실 EU가 법률로 명시하는 법제화를 먼저 시작했지만, 시행을 올해 8월로 미루면서 우리나라가 세계 최초로 이를 시행하게 되었습니다. 이에 대해서는 선제적 대응을 통해 퍼스트 무버(First Mover)로서 AI에 대한 기회를 만들 수 있다는 긍정적인 시선과, 해외에 비해 ‘규제’가 먼저 적용되기 때문에 여러 혼란이 있을 수 있다는 우려가 함께 존재합니다.
EU의 AI 기본법의 경우, 위험도에 따라 AI 사용을 금지할 수 있다는 점, 예외 대상이 더 많다는 점, 벌금 규모가 훨씬 크다는 점 등을 들 수 있습니다.

우리나라의 AI 기본법은 크게 본문과 부칙으로 구성됩니다. 여기서 본문은 법의 목적으로 하는 실질적인 내용을 담고 있는 부분이고, 부칙은 이어지는 이미지와 같이 본문의 규정들이 언제 어떻게 누구에게 적용되는지 등 기술적인 내용을 담고 있습니다. AI 기본법의 부칙에서는 법이 공포(공개)된 2025년 1월 21일부터 1년 후인 2026년 1월 22일부터 시행되고, 일부 내용은 6개월 간의 유예 기간을 허용하는 것을 설명하고 있습니다.


AI 기본법의 본문은 여섯 개의 장으로 구성되어 있습니다. 먼저 1장은 AI 기본법의 “총칙”으로 법의 목적과 정의, 기본 원칙들을 설명하는 나침반으로써 해석의 기준이 됩니다. 이어 2장에서는 추진체계를 설정하는데 인공지능 정책을 누가 이끌어 갈 것인지 설정합니다. 예를 들면, “국가인공지능전략위원회”와 같은 기구를 설치해야 한다는 법을 정하거나, 이러한 기구에서 어떠한 업무를 해야하는 지를 정합니다.
3장은 AI 기본법의 두 가지 핵심 목적 중 하나인 “산업 지원”에 대한 내용을 다루고 있습니다. 연구개발 지원, 전문 인력 양성 등 AI 산업이 잘 성장할 수 있도록 돕는 일종의 “당근”에 해당하는 규정들입니다. 이어서 4장은 인공지능 윤리 및 신뢰성 확보로 AI의 부작용을 막기 위한 안전장치를 다루고 있습니다. 앞의 3장과 대비하면 “채찍”이라고 볼 수 있습니다.
5장은 보칙으로 앞에서 다루지 못한 내용들을 보충하는 역할을 하며, 6장은 벌칙으로 법을 어겼을때의 과태료, 형사 처벌 등을 정하는 역할을 합니다. 이 큰 흐름을 인지한 상태로 주요 내용을 짚어보겠습니다.
AI 기본법의 첫 내용은 다음과 같습니다.
이 법은 인공지능의 건전한 발전과 신뢰 기반 조성에 필요한 기본적인 사항을 규정함으로써 국민의 권익과 존엄성을 보호하고 국민의 삶의 질 향상과 국가경쟁력을 강화하는 데 이바지함을 목적으로 한다.
이를 통해 볼 수 있는 AI 기본법의 목적은 “AI 잘 쓰자”인데요.
구체적으로는 위 내용으로 볼 수 있습니다.

이어 정의에서는 본문에 쓰이는 여러 법적 용어들을 정의합니다. 특별히 주의할 부분으로는 “고영향 인공지능”이라는 단어가 있습니다. 이는 에너지, 물, 의료, 원자력, 범죄, 채용, 교통, 공공서비스, 기본 교육 등 개개인 사람의 생명과 신체의 안전 및 기본적인 권리에 큰 영향을 미치는 영역에 쓰이는 인공지능을 의미합니다. 이 고영향 인공지능은 개념을 분리한 만큼, 특별히 추가 규칙과 벌칙들이 정의됩니다.
또 다른 주요 정의로는 “인공지능사업자”와 “이용자”, “영향받는 자”가 있습니다. 사업자는 이 법의 규제 대상이고 이용자와 영향받는 자는 이 법이 고려해야하는 대상입니다. 특별히 이용자와 영향 받는자는 별도로 분리하여 정의했는데, 이 둘의 차이는 각각 인공지능 제품을 제공 받는자와 인공지능 제품에 의해 자신의 생명, 신체 안전 및 기본권에 중대한 영향을 받는 자를 의미합니다.
예를 들어, 기업에서 AI 면접 프로그램을 사용하는 상황에서 이용자는 기업의 인사 담당자, 영향받는 자는 지원자입니다. 이 둘을 구분해야 하는 이유는 AI 기본법에서 보호해야 할 대상별 각각 의무의 내용이 다르기 때문입니다.
여기서 영향받는 자는 인공지능서비스에서 인공지능이 만든 결과에 대한 기준과 원리에 대해 명확한 설명을 제공 받을 수 있어야 합니다. 이는 기존 기업에서 검색, 뉴스 배치 등의 알고리즘을 공개하는 것과 비슷하다고 볼 수 있습니다.

2장에서는 인공지능 정책을 이끌 추진체계를 정의하고 있는데요. 요약하면 “정부 관계자 등이 AI 활성화를 위해 열심히 해야 한다.” 같은 내용을 설명하고 있습니다.
이 외에 특별한 점은 두 가지가 있습니다. 그중 두 번째 내용은, AI 기본법이 단순히 AI의 활용과 규제만을 조절하는 데 그치지 않는다는 데 있습니다. 이 법은 앞으로 정부 차원에서 국가 운영 방향에 AI를 적극적으로 반영하고, 모든 주요 사업의 기반으로 삼아, 장기적으로는 AI를 내재화하겠다는 방침을 명시한 것으로 해석할 수 있습니다.
3장에서는 본격적으로 AI 기본법이 다루고자 하는 내용을 정의합니다. 단순히 인공지능 기술을 개발하는 것에 그치지 않고, 제14조에서는 ‘표준화’라는 용어를 사용합니다. 여기에는 안전성과 신뢰성을 확보하기 위한 기준으로, 데이터 규격, AI 간의 통신 프로토콜, AI 윤리 가이드라인, 용어 정의 등이 포함될 수 있으며, 이를 정부 차원에서 주도적으로 시행하겠다는 목적이 드러나 있습니다.

16조의 내용도 주목할 만합니다. 바로 국가기관이 업무에 필요한 제품과 서비스를 구매할 때, 앞으로는 인공지능이 활용된 제품과 서비스를 우선적으로 고려해야 한다는 내용입니다. 이 조항은 작년 AI 기본법이 공개된 이후 최근에 추가 신설된 것으로, AI 기업들에게 정부라는 안정적인 고객이 생긴 셈이기 때문에, 민간 투자 확대와 산업 생태계 활성화를 기대할 수 있습니다.
또한 이어지는 조항에서는, AI 서비스를 구매·사용한 결과 손해가 발생하더라도 손해배상 책임을 면제함으로써, 공무원들이 보다 자유롭게 AI를 시도할 수 있는 안전장치도 마련했습니다.
이어지는 제17조부터 제23조까지는, AI 지원 시책을 규정하고 있습니다. 여기에는 중소기업 특별 지원, 창업 활성화 사업, AI 전문인력 양성, 인공지능연구소 설립 지원 등이 포함되며, 이를 통해 AI를 직접 만드는 대기업뿐 아니라, AI를 응용·활용할 수 있는 다양한 산업 주체들의 참여를 유도하고자 합니다.
드디어 가장 많은 관심이 쏠릴 제4장입니다. 4장은 AI를 위험하게 사용하지 않도록 하기 위한 일종의 가이드라인으로, 지키지 않을 경우 과태료가 부과되는 규칙들도 포함되어 있습니다. 먼저 교육기관, 연구기관, 사업자 등은 자체적으로 윤리위원회를 구성하여, 윤리 원칙의 준수 여부, 안전 문제, 인권 침해 등의 사항에 대해 필요한 업무를 수행할 수 있습니다. 이 조항은 의무사항은 아니며, 선택적으로 운영할 수 있습니다.
특히 AI 기본법의 내용은 다소 헷갈리는 부분이 많기 때문에, 정부 차원에서 AI 활용 관련 주요 윤리 원칙과 실천 방안 등을 담은 가이드라인을 별도로 공개했습니다. 이 가이드라인은 총 5개의 파일로 구성되어 있으며, 인공지능기본법 지원데스크를 통해 각각 확인할 수 있습니다.

그렇다면, 이 4장에서 AI 윤리 원칙을 지켜야 하는 대상은 누구일까요? 이는 제31조에 정의되어 있는데, 고영향 인공지능 혹은 생성형 인공지능을 이용해 제품과 서비스를 제공하는 인공지능 사업자가 이에 해당합니다. 이들은 서비스 운용 과정에서 인공지능을 사용했다는 사실과 결과물이 생성형 인공지능에 의해 만들어졌다는 점을 명확히 고지해야 한다는 규정을 따릅니다.
다행히 일반적으로 AI를 활용하는 일반 이용자는 이 규제의 대상에 해당하지 않습니다. 예를 들어, 영상 생성 인공지능을 이용해 영화를 제작하거나, 배급하는 제작사는 AI 제품이나 서비스를 제공하는 사업자가 아니라, AI를 업무에 활용하는 이용자로 간주되어, 해당 투명성 확보 의무의 대상에는 포함되지 않습니다.
이어서, AI를 사용한 결과임을 고지하는 ‘투명성’ 외에도 AI의 ‘안정성’ 확보 또한 포함됩니다. 여기에는 인공지능 사용의 위험 식별 및 평가, 안전사고 모니터링 체계 구축 등이 해당합니다. 이 규제의 대상은 두 가지입니다.
하나는 AI 모델을 직접 제공하는 사업자로, 학습에 사용된 누적 연산량이 10^26 FLOPS 이상인 경우에 해당하며, 다른 하나는 고영향 인공지능을 활용하는 사업자입니다.
다만, 이러한 규제를 담고 있는 4장의 내용은 AI 기본법 시행 초기 단계인 만큼,
등과 관련해 혼란이 많을 수 있습니다. 이에 따라 앞서 소개한 인공지능기본법 지원데스크에서는 상담을 지원하고 있으며, 과태료와 처벌 등에 대해서는 1년의 유예기간도 부여되어 있습니다.
한편, 제5장은 법 시행과 관련된 행정적, 기술적인 내용을 담고 있어 생략하고, 제6장에서는 4장 내용 위반 시 과태료 부과에 관한 규정을 설명합니다. 여기에는 제7조, 제31조, 제36조, 제40조가 포함됩니다.
‘기술 문서’에는 익숙하지만 ‘법조문’에는 익숙하지 않은 제게는 다소 헷갈리는 부분도 많았지만, AI 기본법의 핵심은 두 가지 정도로 요약할 수 있습니다.
이 중 제2~3장은 알아두면 좋지만, 모른다고 해서 당장 큰 위험이 생기는 내용은 아니라 비교적 덜 중요하게 느껴졌습니다. 반면, 제4장은 의무와 규제를 포함하고 있기 때문에 제대로 알지 못하면 곤란할 수 있어 주의 깊게 해석해야 합니다. 특히 4장의 핵심은, 서비스에 생성형 AI를 사용했다면 그 사실을 명확히 표기하자는 것입니다. 물론 규정 위반 시 ‘큰일’이 나는 것처럼 보일 수도 있지만, 앞서 언급했듯이 혼란을 대비해 1년간 규제 시행이 유예되었기 때문에, 아직은 여유가 있는 상황으로 볼 수 있습니다.

저는 이 4장의 대상을 AI 사업자와 AI 이용자를 구분 지으며 생성형 AI를 써서 만든 결과물이 사용자가 볼 때 고정된 상태라면(ex: 영화) 표기 의무 없는 이용자, 결과물이 사용자가 볼 때 상호작용에 의해 바뀐다면 (ex: AI 작문) 표기 의무 있는 사업자 정도로 이해했습니다. 고영향 AI의 경우, 대부분의 서비스는 여기에 해당하지 않지만, 만약 해당된다면 기존에도 관련 규제를 경험했을 가능성이 높기 때문에, 자신이 법 적용 대상인지 알고 있을 확률이 큽니다.
다만 주의할 점이 하나 있습니다. 고영향 AI는 꼭 ‘생성형 AI’만을 의미하지 않고, 선형회귀처럼 오래된 AI 방식도 포함될 수 있습니다. 왜냐하면 법에서 고영향 AI를 “학습, 추론, 지각, 판단, 언어 이해 등 인간의 지적 능력을 전자적으로 구현한 것”으로 정의하고 있기 때문입니다. 즉, 기술 방식과 관계없이 법적 대상이 될 수 있으니 서비스 성격에 따라 충분한 검토가 필요합니다.
또한 ‘투명성’뿐만 아니라 ‘안전성’ 확보도 중요합니다. 이 부분은 기존의 보안 규정과 비슷한 컴플라이언스(규제 준수) 영역이지만, 여기에 AI 기술에 대한 이해까지 필요하기 때문에 현실적으로 꽤 어려운 문제가 될 수 있습니다.

이번 글에서는 AI 기본법에 대해 법령을 토대로 주요 내용과 실제로 체감될 만한 부분들을 중심으로 살펴보았습니다. 개인적으로는, 이전에 작성했던 글 중에서도 알아보기 전과 조사한 후의 인상이 가장 달랐던 주제였던 것 같습니다. 사실 AI 기본법을 다룬 뉴스나 기사들을 보면, 과도한 규제가 AI 혁신을 가로막을 수 있다는 우려도 종종 제기됩니다.
하지만 막상 내용을 자세히 들여다보면, 규제가 그렇게 강하게 체감되지는 않았고, 오히려 정부가 AI 활용에 큰 방향성과 의지를 가지고 있다는 점이 인상적이었습니다. (구체적으로 다루진 않았지만, 제2~3장에는 상당한 규모의 지원과 사업 계획이 담겨 있을 것으로 예상됩니다.)
현재 우리나라의 AI는 독자 AI 파운데이션 모델 프로젝트로 “인프라”를, 그리고 AI 기본법으로 “가이드라인”을 만들어가고 있는데요. 어쩌면 패스트 팔로어를 넘어, 퍼스트 무버를 꿈꿔볼 수 있지 않을까요?
©️요즘IT의 모든 콘텐츠는 저작권법의 보호를 받는 바, 무단 전재와 복사, 배포 등을 금합니다.