현재 인공지능 기술은 우리 삶을 방식을 편리하고 빠르게 바꿔 놓고 있습니다. 하지만 그림자처럼 윤리적인 문제도 함께 대두되고 있으며, 책임감 있는 기술 개발이 점점 요구되고 있죠. 결국 올바른 인공지능 사용을 위해 윤리적 기준 및 가이드가 필요합니다.
인공지능 윤리적 문제점
기술의 투명성 부족
인공지능 기술은 기업의 자본 논리로 인해 알고리즘 개발 정보가 불투명하여 어떻게 작동되는지 전혀 알 수 없습니다. 따라서 어떤 문제가 발생할 수 있을지 조차 예상이 안되며, 만약 문제가 발생하더라도 책임 소재 규명 자체가 어렵습니다.
개발 투명성 자체가 부족하기 때문에 변수에 대한 오류, 잘못된 정보 등의 알고리즘 설계 문제점을 파악하고 개선하기 어려울 수 있죠. 기업들은 이익을 추구하는 집단이기 때문에 잘못을 순수하게 인정할 수도 없을 것입니다.
예시
- 자율 주행 자동차 사고 시 인공지능 알고리즘 설계가 어떤 방식으로 되어 있는지 알 수 없기 때문에 책임소재를 가르기가 어렵습니다.
- 인공지능 챗봇의 잘못된 정보로 인해 피해가 발생했을 경우 알고리즘 판단 과정을 모르기 때문에 개선 자체가 어렵습니다. 이미 피해는 고스란히 입고 있는데 말이죠.
책임 소재의 불분명
인공지능 자체적으로 알고리즘 문제가 발생하면 피해자는 발생하지만 규정자체가 없기 때문에 책임 소재가 불분명할 수 있습니다.
예시
- 자동 생성 뉴스 기사가 악용되어 허위 뉴스를 만들고 배포하게 되면, 피해자가 발생할 수 있습니다. 하지만 누구에게 책임을 물어야 되는지 여부를 판단할 수 없습니다. 자동생성 인공지능 개발자가 책임을 물어야 되는지, 플랫폼 관리자가 책임을 물어야 되는지, 사용자가 책임을 물어야 되는지 전혀 명확하지 않습니다.
- 인공지능 로봇이 공장에서 작업을 하는 도중 사회적인 문제를 일으키면 그 책임은 사용한 기업에게 있는지 인공지능 로봇 기업에 있는지 아니면 로봇 관리자에게 있는지 전혀 구분할 수 없습니다.
직업의 감소
인공지능 기술 발전으로 인해 생산성이 폭발적으로 증가될 것으로 알려져 있습니다. 그러면 사람들의 직업을 대체하게 될 것이며, 그로 인해 많은 수의 일자리가 감소되어 사회적 불안을 조장할 수 있습니다. 결국 소득의 양극화가 더 벌어질 수 있습니다.
예시
- 특히, 인공지능 기술은 데이터 패턴 분석, 데이터 구분 등이 대표적인 기술이기 때문에 제조업의 경우 공정 자동화, 품질 자동화 등의 일자리가 감소할 것으로 알려져 있습니다.
- 인공지능 기술 발전으로 인해 새로운 일자리도 생길 것으로 보고 있으나, 일자리 감소 속도가 더욱 빠를 것으로 예상하고 있기 때문에 우려섞인 목소리가 많은 것은 사실입니다.
통제 불가능 상황
최근 메타나 OpenAI 회사가 AGI라는 범용인공지능 기술 개발을 시작했다고 공식적으로 발표했습니다. 아직은 기술 자체의 실체가 없기 때문에 정확하게 알 수 없지만 사람의 의식 수준 정도가 될 것으로 추측하고 있습니다.
만약, AGI란 기술이 사람과 유사한 의식이 있다면 통제 여부가 불확실할 수 있습니다. 통제가 어려우면 인간 중심사회 자체가 위협받을 수 있기 때문입니다.
예시
- 인공지능이 미션을 달성하기 위해 편향된 정보로 인간의 감정을 조작하거나 의사결정에 영향을 미치면 큰 혼란이 야기될 수도 있습니다.
- 인공지능 자율 주행 드론이 잘못된 정보로 작동이 된다면 무고한 사람들에게 위협이 될 수도 있습니다.
인공지능 윤리 문제 해결 방안(미국의 행정명령)
AI 문제점들에 대한 해결방안은 다양하게 연구되고 있습니다. 다만 인공지능의 윤리적 문제에 대한 해결 방안은 2023년 11월에 미국에서 발표한 행정명령에 고스란히 담겨 있죠.
미래세대의 인공지능 기술 개발의 방향성을 제시하고 안전한 도구로 사용하기 위한 가이드라인과 같습니다.
행정명령의 내용을 정리하면 아래와 같이 6가지 정도로 구분할 수 있습니다.
AI의 안전성 평가 의무화
AI를 개발하고 시중에 배포하기 전에 안전성 평가를 의무적으로 실시해야 한다는 내용입니다. 어떤 취약점과 어떤 오류가 있을지 모르기 때문이죠.
AI의 안전성 표준 마련
AI를 개발할 때에는 설계, 운영, 평가 등의 단계를 구분하고 각 단계마다 안전성 표준을 마련하여 이 표준을 준수해야 할 의무의 내용을 담고 있습니다.
AI의 콘텐츠 인증 표준 수립
인공지능이 만든 콘텐츠를 구분하자는 내용입니다. AI가 만든 콘텐츠가 정확한지, 객관성이 있는지 등을 표준화하는 내용을 담고 있습니다.
개인정보 보호 강화
인공지능은 기존 데이터를 기반으로 학습하기 때문에 수집하는 과정에서 무분별한 개인정보 침해가 있을 수 있습니다. 이를 방지하기 위한 조치가 필요하다는 내용이죠.
AI윤리 교육 및 연구지원
이미 언급한 것처럼 인간 중심 사회에 필요한 윤리적 가치를 보존하고 확보하기 위해 AI 개발 과정과 활용 과정에서 윤리 교육에 대한 연구지원을 한다는 내용입니다.
국제 협력 강화
이렇게 예상되는 문제점들을 국제 협력과 공동 연구를 통해 AI기술이 보다 안전하고 편리하게 활용될 수 있도록 국제사회와 협력하자는 내용입니다.