생성형 AI는 기존의 데이터 분석을 넘어 텍스트, 이미지, 음악 등 다양한 콘텐츠를 새롭게 만들 수 있는 강력한 기술이며, 예술, 디자인, 영상 콘텐츠 등 다양한 분야에 활용되고 있습니다. 다만 동시에 아래와 같은 문제점도 가지고 있는 것이 현실이죠.
콘텐츠의 편향 가능성의 문제
생성형 AI는 학습 데이터를 분석하여 새로운 콘텐츠를 만들어 낼 수 있지만, 반면에 데이터 결과가 편향성이 생길 수 있는 원리를 가지고 있죠. 데이터 자체가 한쪽으로 치우쳐 있으면 그 데이터를 반영하여 결과물을 생성하기 때문에 결과 자체가 편향이 발생할 수 있으며, 사용자는 그 정보를 그대로 받아들여 편향적인 의사결정을 할 수 있습니다.
예를 들면, 알고리즘의 추천 데이터가 대표적입니다. 생성형 AI 알고리즘 자체가 편향될 수 있으며, 더욱 심화시킬 수 있죠. 또한 특정 인종과 성별 등에 대한 편향된 데이터로 학습된다면 그 집단에게 불리한 텍스트나 콘텐츠를 생성할 수 있기 때문에 사회적 문제로 발전할 수 있습니다.
해결방안
- 생성형 AI 모델 학습에 사용되는 데이터 세트는 다양하고 충분한 학습 데이터 세트 사용해야 하며, 다양한 인종, 성별, 사회적 배경 등을 포함해야 합니다. 특히 사회적으로 민감한 데이터일수록 더욱더 다양한 데이터 세트를 사용해야 합니다.
- 개발자는 알고리즘 검증 및 편향적 데이터 추출 및 제거함으로써 편향된 결과물을 생성하지 않는지 확인하고 검토해야 합니다.
- 정부와 기업들은 생성형 AI 개발 및 사용에 대한 규제를 위해 공정성 및 책임성 기준 마련 및 강화를 해야 합니다.
의도적 오용 및 악용 가능성의 문제
생성형 AI 기술은 품질이 높은 새로운 콘텐츠를 만들어 낼 수 있기 때문에 쉽게 가짜 뉴스 기사나 의도적인 선전 콘텐츠를 만들 수 있습니다. 따라서 악용하게 될 경우 사회적 혼란을 야기할 수 있죠.
특히 딥페이크 기술이 문제가 될 수 있습니다. 생성형 AI의 경우 상당한 품질의 영상이나 이미지를 만들어 낼 수 있기 때문에, 악용을 하게 될 경우 개인의 명예나 불안을 조장할 수 있죠. 따라서 개발자와 사용자는 충분한 책임감을 가지고 사용해야 합니다.
또한 사이버 공격의 문제가 있을 수 있습니다. 생성형 AI를 이용하여 악성 코드를 만들어 배포하는 경우 충분히 문제가 될 수 있죠.
해결방안
- 가짜인지 진짜인지 판단할 수 있는 생성형 AI 기술 개발을 통해 가짜 뉴스나 딥페이크를 쉽게 식별할 수 있게 해야 합니다.
- 가짜 정보의 악용을 막기 위해 정부차원의 법적 규제 마련도 필요합니다.
- 생성형 AI 기술에 대한 개발자와 사용자의 사용 가이드라인 마련이 필요합니다.
책임 소재 및 결과물에 대한 해석 불가능 문제
현재의 생성형 AI 기술의 로직은 공개되어 있지 않으며, 어떤 과정을 거쳐 결과를 도출하는지 알 수 없습니다. 즉 문제가 발생하면 어떻게 발생했는지 알 수 없는 노릇이죠. 따라서 이미 문제는 발생했고 책임소재에 대한 문제도 불분명합니다.
즉, 문제가 발생하면 생성형 AI 개발자의 문제인지 회사의 문제인지 사용자의 문제인지 불분명 하죠.
예를 들면 특정 이미지를 생성했을 때 어떤 분석 모델을 가지고 어떤 기준으로 사용했으며, 어떻게 결과적 이미지가 나오는지 전혀 알 수 없죠.
해결 방안
- 모델 설명에 대한 해석 기술을 개발하여 어떤 모델을 사용하여 어떻게 결과를 도출했는지 알 수 있어야 합니다.
- 생성형 AI 모델 개발 및 사용에 대한 책임 소재를 명확히 해야 합니다.
- 생성형 AI 모델의 한계와 책임소재에 대해 개발자, 사용자의 윤리적 교육이 필요합니다.
일자리 감소 우려 문제
생성형 AI 기술로 인해 일자리 감소에 대한 문제가 발생할 수 있습니다. 즉, 인간이 반복적으로 수행하던 업무를 충분히 자동화할 수 있는 내용들은 많은 언론에 의해 이미 알려져 있죠. 대표적으로 자동 뉴스 기사 작성, 이미지 편집, 광고 제작, 음악 편곡 등이 자동화될 수 있습니다. 특히 제조업, 서비스업, 사무직 등의 인력이 대체되는 현상이 발생할 수 있습니다.
다만, 그로 인해 생산성은 폭발적으로 증가하여 경제성 측면에서는 도움이 될 수 있습니다. 이러한 과정이 결국 일자리 감소로 이어질 수 있죠.
해결방안
- 산업 환경에 적응할 수 있도록 사람들에게 정부차원에서 재교육 프로그램과 같은 기회가 확대해야 합니다.
- 또한 사라지는 일자리에 대한 사회적 안정망을 강화하여 사회적 불안을 완화시킬 수 있는 시스템을 갖추어야 합니다. 결국 큰 그림에서는 사회적 합의가 필요한 부분이죠.
- 생성형 AI 기술로 기존 직업의 형태가 변화되고 있습니다. AI 콘텐츠 제작자, 큐레이터, AI 시스템 개발자, 교육 및 컨설팅 전문가 등의 직업들이 새롭게 만들어질 것으로 예상되고 있기 때문에 교육 프로그램 등이 활성화 되어야 합니다.