유럽연합(EU)은 인공지능 AI 규제법을 세계 최초로 2024년 3월에 채택하였습니다. 그 목적은 인공지능 기술에 대한 윤리적 책임, 기준을 마련하고 사람들의 권리를 보호함으로써 지속 가능한 인공지능 기술발전을 활성화한다는 의도가 있습니다.
유럽의 AI 규제법 시행
유럽에서 세계 최초로 시행되는 인공지능 규제법은 먼저 금지 조항이 발표되면 6개월 뒤부터 적용되고 순차적 단계를 거쳐 2026년부터 전면적으로 시행됩니다.

규제에 대한 목적은 인공지능 기술과 인간의 가치에 대한 우려에서 비롯되고 있습니다. 인공지능 기술이 빠른 속도로 개발되고 다양한 분야에 적용되면서 프라이버시 침해, 일자리 감소, 편향된 알고리즘 등 부정적인 인식도 존재하기 때문에 AI 기술 발전과 인간의 조화로운 공존을 위해 필요한 규제를 만들겠다는 의도가 담겨 있습니다.
인공지능 기술이 인간의 삶의 방식에 엄청난 영향을 미칠 가능성이 높다고 알려져 있기 때문에, 인공지능 기술 개발에 대한 윤리적 기준을 마련하여 시민들의 안전과 권리를 확보하는 규제임을 밝히고 있습니다.
만약 규제법을 어길 시 상황에 따라 전 세계 매출의 1.5% ~ 7%까지 벌금이 부과될 것으로 알려졌죠.
규제 범위
다소 범위가 추상적이긴 하지만 결국은 사람과 유사 수준의 지능을 갖춘 AI 기술을 개발하는 업체는 개발 단계에 대한 투명성을 의무화하는 목적이 있습니다.
크게 4가지 위험도의 단계에 따라 차등 규제를 두고 AI 기술을 발전시키되 인간 영역에서 문제가 될 소지가 있는 기술들은 위험도를 높여 철저하게 관리를 하겠다는 내용입니다. 대표적으로, 사람들에 생체 인식 시스템이 사실상 금지되고 범죄자에 대한 기술 적용은 법원의 허가에 따라 조건부로 사용될 수 있습니다.
사실상 사람들의 행동 패턴, 특성들을 분석하는 AI 기술인 소셜 스코어링 기술은 금지되는 것으로 볼 수 있죠
적용 대상
- 사람에게 해를 끼칠 가능성이 있는 인공지능 AI 기술, 서비스, 소프트웨어
- 의료진단, 자율주행 자동차, 얼굴 인식 시스템, 신용 평가 시스템
제외 대상
- 일상생활에서 사용되는 사소한 AI 기능(스마트폰 자동 알람)은 제외
유럽 AI 규제의 4가지 위험분류
유럽의 AI 규제는 AI 시스템의 잠재적 위험성에 따라 4가지 위험 수준으로 구분하고 있습니다. 즉, 위험도에 따라 규제 강도를 차등하게 둠으로써 기술개발을 저해하지 않는다는 목적이 담겨져 있습니다.
1단계 : 높은 위험 단계
- 사람들에게 심각한 피해를 입힐 수 있는 AI 시스템이 가장 엄격한 규제를 받습니다. 특히 최근에 언급되고 있는 AGI 기술의 경우 개발단계의 투명성을 부과하여 사람들에 의해 감독을 받아야 합니다.
- 가장 까다로운 규제이며, 개발단계에서부터 판매 이후 모니터링까지 등의 항목을 다 맞추어야 하는 단계입니다.
- 적용되는 항목 : 사전 적합성 평가, 인간 참여 감독, 데이터 보안 준수, 사용자에게 개발 정보 투명성 제공, 사후 시장 감독
- 예 : 의료 진단, 자율주행 자동차, 금융 등 국가 관리 시스템
2단계 : 제한적 위험 단계
- 일부 위험을 야기할 수 있는 인공지능 시스템은 사전 평가 및 투명성에 대한 의무를 준수해야 합니다. 즉, 시스템 개발 단계에서 개발자가 위험성을 평가하고 완화조치를 마련해야 하며, 개발 정보에 대해 사용자에게 제공해야 합니다.
- 적용되는 항목 : 사전 적합성 평가, 사용자에게 개발 정보 투명성 제공
- 예 : 챗봇, 콘텐츠 추천
3단계 : 낮은 위험 단계
- 일반 가전제품에 내장된 AI 기능은 간단한 투명성 요구사항만 준수하면 됩니다.
- 적용되는 항목 : 사용자에게 개발 정보 투명성 제공
- 예 : 얼굴 인식 기능이 있는 가전제품
4단계 : 미미한 위험 단계
- 위험성이 거의 없는 AI 기술은 규제 대상이 아닙니다.
- 적용되는 항목 : 없음
- 예 : 계산기
주요한 규제 내용
안전 요구 규제 : 높은 위험군의 인공지능 시스템은 인간이 관리 감독, 안전 테스트, 데이터 보안 알고리즘 설명 의무 등 엄격한 안전 요구 사항을 준수해야 합니다.
투명성 요구 규제
- 모든 인공지능 기술은 개인 정보, 사용목적, 작동 방식등의 대한 개발 단계 투명성을 확보해야 합니다.
특정 인공지능 금지
- 인간의 가치를 훼손하거나 사회적인 문제를 야기할 수 있는 인공지능은 금지됩니다. 즉, 사회 신용 점수 시스템, 인종 차별 알고리증 등의 기술이 될 수 있습니다.
개발 이후 관리감독
- EU에서는 인공지능 기술의 안전성과 적합성을 관리 감독하고, 위반할 경우 상응하는 조치를 취할 수 있습니다.
이외에도 딥페이크 영상이나 이미지에 대해 식별이 가능하도록 표기를 해야 합니다.
인공지능 기술은 긍정적인 면과 부정적인 면이 동시에 존재할 수 있는 기술입니다. 인간 삶의 생산성을 폭발적으로 증가시켜 줄 수 있는 기술과 동시에 인간에게 윤리적인 문제를 야기시킬 수 있죠. 적당한 규제도 필요하지만 기술 발전을 저해할 만큼 과도한 규제는 인공지능 기술 발전에 어려움을 초래할 수 있습니다.
또한 규제 자체가 추상적인 경우 불확실성이 생겨 개발 기업이나 사용자들의 혼선만 줄 수 있죠. 결국 유럽 AI 규제의 목적은 AI 위험성을 예상하고 철저한 관리 감독하에 AI 기술 개발이 이루어질 수 있도록 한다는 궁극적인 취지이며, 기업활동과 사용자들의 올바른 행동 지침을 가이드해 줄 수 있는 역할을 할 것입니다.