INSIGHT

AI 기본법
함께 만드는 신뢰의 기준

2026.02.10

2022년 말 ChatGPT가 본격적인 생성형 AI 시대를 연 지 3년 여. AI는 우리 생활에서 뗄래야 뗄 수 없는 존재가 되었습니다. 익숙한 검색 창에서 무슨 단어를 치든 ‘AI 요약’이 가장 먼저 뜨게 되었죠. 오래 쓰던 스케줄 앱에서, 운동 앱, 식단 앱까지 너도 나도 ‘AI 기능’을 도입해 ‘개인 맞춤형 조언’을 장점으로 내세우게 되었습니다.

한편 AI가 가져온 편리함 뒤에는 그림자도 있습니다. 실제와 구분하기 어려운 딥페이크 영상이 소셜미디어에 퍼집니다. AI가 생성한 허위정보가 뉴스처럼 유통됩니다. 알고리즘 편향, 개인정보 오남용, 창작물 저작권 논란. AI가 가져온 문제도 만만치 않죠.

그래서 필요해진 게 ‘공통의 기준’입니다. AI를 만들고 쓰는 모든 사람이 함께 참고할 약속 말이죠.

🚀AI 기본법 시행, 한국의 새로운 출발

2026년 1월 22일, 한국이 AI 기본법을 시행했습니다. EU를 비롯한 주요 국가들도 AI 규제 체계를 단계적으로 도입하고 있는 가운데, 한국 역시 제도적 기반을 마련하며 본격적인 운영에 들어간 것입니다. AI 거버넌스 시대가 본격화되는 흐름 속에서 한국도 중요한 한 걸음을 내디뎠습니다.

AI 기본법은 ‘AI를 이렇게 만들고, 이렇게 알리고, 이렇게 관리하라’는 기준을 제시합니다. 핵심은 다섯 가지예요.

1. 투명성: “알고 쓸 권리 보장”

AI가 만든 생성물은 ‘AI가 만들었다’라고 명확히 알려야 합니다. 이용자가 AI 사용 여부와 생성물을 인지하도록 하여 혼란과 오용을 방지하는 거죠.

✅ 사전 고지

서비스를 시작하기 전에 적용됩니다. 고영향 AI나 생성형 AI를 이용한 제품·서비스를 제공할 때, 이용자에게 AI 기반 운용 사실을 미리 알려야 하죠. 이용약관이나 서비스 시작 화면에 “이 서비스는 AI 기반으로 운영됩니다”와 같은 문구가 보이는 까닭입니다.

✅ 표시 의무(워터마크)

결과물에 적용됩니다. 생성형 AI로 만든 텍스트, 이미지, 영상, 음성 결과물에는 식별 가능한 표시를 해야 하죠. 캡션, 워터마크, 메타데이터 등 다양한 방법으로 표시할 수 있지만, 기계가 판독하는 방식(비가시적 워터마크)을 쓸 때는 별도 안내 문구나 음성을 1회 이상 제공해야 합니다.

✅ 딥페이크 식별

실제와 구분하기 어려운 가상 정보(딥페이크)를 제공할 경우, 이용자가 명확히 인식할 수 있도록 ‘반드시’ 표시해야 합니다. 메타데이터 같이 비가시적 표시 방법이 아니라, 콘텐츠 자체에 표시해야 합니다. 영상이라면 화면에 계속 떠있는 워터마크, 음성이라면 “AI가 합성한 음성입니다”라는 안내 멘트 등을 예로 들 수 있습니다.

2. 안전성: “고성능 AI의 위험 통제”

두 번째는 안전성입니다. AI를 만들고 쓰기 전에 ‘위험’을 먼저 평가해야 합니다. 특히 국가 안보나 공공 안전에 영향을 줄 수 있는 초거대 AI(고성능 파운데이션 모델)는 개발 전부터 위험 분석이 필수입니다. 고성능 AI는 ‘10²⁶ FLOPs* 이상’의 연산 능력을 가진 AI를 의미합니다.

* FLOPs: ‘Floating Point Operations Per Second’의 약자. 1초에 수행할 수 있는 부동소수점 연산 횟수이다. 쉽게 말해 AI가 얼마나 많은 계산을 빠르게 할 수 있는지를 나타내는 지표.

이 정도 연산 능력을 가진 AI는 거의 사람 수준으로 글을 쓰고, 코드를 짜고, 추론합니다. 잘못 쓰이면 대량의 허위정보를 순식간에 생성하거나, 정교한 사이버 공격 도구로 악용될 수 있겠죠. 위험을 미리 평가하고, 안전을 보장하기 위해 AI기본법은 크게 두 가지 틀을 마련했습니다.

✅ 위험 관리

개발부터 배포까지 전 수명주기에 걸쳐 위험을 식별·평가하고 완화 조치를 해야 합니다. 여기에는 레드팀 테스트(모의 공격) 등 실질적 취약점 점검이 포함됩니다.

✅ 사고 대응

중대한 AI 안전사고 발생 시 7일 이내 보고 등 모니터링 및 대응 체계를 구축하고, 그 이행 결과를 정부(과학기술정보통신부)에 제출해야 합니다.

3. 신뢰성 및 이용자 보호: “고영향 AI의 책임 강화”

이번 AI기본법에서 ‘고영향 인공지능’으로 지정된 영역에선 특히나 더 높은 기준을 적용받습니다. 의료 진단, 채용 심사, 대출 승인, 교육 평가, 법 집행과 같은 영역인데요. 이들 분야에서 자칫 AI가 잘못 쓰인다면 우리의 생명·신체·기본권에 중대한 영향을 미칠 수 있기 때문이죠.

⚠️ 고영향 인공지능 지정 영역

고영향AI는 법률에서는 10여 개, 실무 가이드라인에서는 13개 항목으로 구분하고 있는데요. 크게 4개 분야에서 세분화됩니다.

안전 및 생명 직결 분야

오작동 시 대규모 재난이나 인명 피해로 이어질 수 있어 고영향으로 분류됩니다. 에너지, 먹는 물, 보건·의료, 의료기기, 원자력 분야가 포함되죠.

기본권 및 사회적 기회 관련 분야

개인의 인생에 중대한 영향을 미치는 결정(채용, 대출 등)이나 신체의 자유(수사)와 관련된 분야입니다. 범죄 수사 및 체포, 채용, 대출 심사가 이에 속합니다.

교통 및 이동 수단

교통수단의 오작동은 즉각적인 생명 위협이 될 수 있어 포함되었습니다. 가이드라인은 이를 수단별로 세분화하여 관리합니다.

공공 및 교육 서비스

국가가 제공하는 서비스나 학생들의 미래에 영향을 주는 평가 영역입니다.

단순히 위 영역에서 AI를 쓴다고 무조건 ‘고영향’이 되는 것은 아닙니다. 해당 영역에 속하면서(1단계) + 사람의 생명·신체·기본권에 중대한 영향을 미치거나 위험을 초래할 우려가 있는 경우(2단계)를 고영향 인공지능으로 최종 판단하죠.

예를 들어, 의료 분야라도 진료 예약 챗봇처럼 안전에 영향이 적은 경우는 제외될 수 있습니다. 하지만 진단을 내리는 AI 닥터는 고영향으로 분류되죠. 이런 AI를 쓰는 기업은 4가지를 반드시 해야 합니다.

고영향 AI를 다루는 기업의 의무 네 가지를 설명한 도식. 위험 관리, 설명 제공, 피해 구제, 사람의 감독을 통해 AI 의사결정에 대한 통제와 책임 구조를 강조한다.

4. 산업 진흥 및 지원: “AI 생태계 육성”

AI기본법은 규제만 담고 있는 게 아닙니다. 기술 개발과 산업 성장을 돕기 위한 지원책도 함께 마련돼 있죠.

먼저, AI 기술 개발부터 데이터센터 구축, 학습용 데이터 확보까지 필요한 인프라를 정부가 뒷받침합니다. AI 제품이나 서비스의 안전성과 신뢰성을 검증받고 싶은 중소기업이 있다면, 인증에 드는 비용과 기술도 지원받을 수 있죠. 여기에 AI와 다른 산업이 만나는 융합을 촉진하고, 불필요한 규제는 찾아서 개선하겠다는 방침도 담겼습니다.

5. 거버넌스: “국가 추진 체계”

정책을 이끌어갈 조직과 제도도 함께 갖췄습니다. 우선 대통령 직속으로 ‘국가인공지능위원회’가 생깁니다. AI 관련 주요 정책과 기본계획을 심의하고 의결하는 컨트롤타워 역할을 맡죠. 여기에 새로 생길 ‘인공지능안전연구소’가 AI의 안전성을 연구·평가하고 기술적 기준을 마련하게 됩니다.

AI기본법은 윤리 원칙도 정부가 직접 만들어 공표하되, 민간이 자율적으로 윤리를 지킬 수 있도록 지원하는 방식을 택했어요. 규제 기관만 세우는 게 아니라, 방향을 잡고 함께 가겠다는 구조인 셈이죠.

👣SKT가 걸어온 길

SKT에게 이 법은 낯설지 않습니다. 훨씬 전부터 비슷한 기준을 스스로 만들어왔기 때문이죠.

SKT의 AI 거버넌스 추진 과정을 연도별로 정리한 타임라인. 2021년 AI 추구 가치 정립부터 2026년 AI 기본법 시행과 함께 Good AI 캠페인 시작까지의 주요 이정표를 보여준다.

2021년, SKT는 AI컴퍼니 전환을 선언하며 AI 추구 가치를 정립했습니다. 사람 중심, 신뢰, 투명성이라는 세 가지 원칙이었습니다. 이어 2024년 3월에는 ‘T.H.E. AI’라는 구체적인 원칙을 공개했죠. by Telco(통신기술 기반의 신뢰), for Humanity(사람을 위한 포용), with Ethics(윤리적 책임성)의 앞 글자를 딴 것입니다.

이 원칙은 다시 네 가지 영역으로 구체화됩니다. 신뢰성, 다양성과 포용, 결정 투명성, 윤리적 책임성. 4개 영역 60여개 체크리스트를 만들어, 개발자와 기획자가 AI 프로젝트를 시작할 때마다 점검하도록 했습니다.

같은 해 4월에는 ISO/IEC 42001 인증을 받았습니다. ISO/IEC 42001는 AI 관리 시스템에 대한 국제 표준 인증으로, 이 인증을 받으려면 AI를 개발하고 운영하는 전 과정이 국제 기준에 맞아야 하죠.

곧이어 2025년 9월에는 ‘AI 거버넌스 포털’을 열었습니다. 12월에는 CPO가 AI 거버넌스를 총괄하는 체계를 정비했죠.

🌐 AI 거버넌스 포털이 하는 일

AI 거버넌스 포털은 단순한 체크리스트 도구가 아닙니다. T.H.E. AI 원칙을 기준으로 위험과 기회 요인을 분석하고, 위험 수준별로 체크리스트를 만들죠.

개발자가 새로운 AI 프로젝트를 시작하면 포털에 등록합니다. 시스템은 자동으로 질문을 던집니다. 이 AI는 고객 데이터를 다루나요? 의료나 금융 분야에 쓰이나요? 딥페이크 생성 가능성이 있나요?

답변에 따라 위험 등급을 매기고, 그에 맞는 체크리스트를 생성합니다. 고위험 AI라면 더 많은 항목을 점검해야 합니다.

포털은 AI 서비스가 기획되는 순간부터 개발, 출시, 운영, 종료까지 각 단계마다 점검합니다. 개발 중일 때는 위험 요소가 있나? 출시 직전에는 체크리스트를 통과했나? 운영 중에는 문제가 발생했나? 끊임없이 질문을 던지며 각 프로세스를 추적하죠.

여기에 대시보드가 전체 현황을 한눈에 보여줍니다. 어떤 프로젝트가 진행 중이고 어떤 프로젝트가 위험 요소를 안고 있는지 경영진은 이 화면으로 파악합니다.

🏁️AI 잘 쓰는 사회를 함께 만들어가는 여정

SKT는 AI 기술 개발과 활용에 있어 이용자 프라이버시 보호와 AI 거버넌스를 연계하기 위해 지난해 12월부터 CPO가 관련 업무를 총괄하고 있습니다.

“책임감 있고 신뢰 가능한 AI 개발과 활용을 위해 전사 역량을 결집하겠다. 안전한 AI를 통해 고객에게 더 나은 가치를 제공할 것.”

차호범 CPO

2026년 1월 22일, 법 시행과 함께 SKT는 ‘Good AI’ 캠페인을 시작했습니다. 거창한 선언이라기보단, 그동안 쌓아온 기준을 더 단단히 하겠다는 다짐입니다.

스스로 기준을 세우고 더 높은 신뢰를 쌓아가는 것. SKT가 거버넌스 포털을 만들고, Good AI 캠페인을 시작한 것도 같은 맥락에 있습니다. 앞으로 기술은 계속 발전하고 예상치 못한 문제도 생길 겁니다. 하지만 방향은 분명해요. 투명하고 안전하며 신뢰할 수 있는 AI를 함께 만들어가는 거죠.