인공지능(AI, Artificial Intelligence)은 지난 수세기 동안 인간의 상상력을 자극했으며, 1950년대부터 본격적인 연구가 시작되었으며, 현재는 단순한 자동화를 넘어 일정 분야에서는 인간의 지능을 뛰어넘는 수준으로 알려져 있습니다.
인공지능의 시작
앨런 튜링의 “생각할 수 있는 기계”라는 질문에서 시작되었습니다. 앨런 튜링은 영국 출신의 수학자, 암호해독, 컴퓨터 과학자였으며, 후대에 인공지능의 아버지로 평가받고 있습니다.
우리가 사용하고 있는 컴퓨터의 시초인 튜링머신을 이미 1930년대 제안했던 인물입니다.

1950년대 – 인공지능 이론적 증명
1956년 다트머스 대학에서 열린 학술 대회에서 인공지능이 학문 분야에서는 처음으로 언급되었습니다. 이때 컴퓨터 과학자이자 인지 심리학자인 존 매카시에 의해 처음으로 “인공두뇌”라는 단어가 처음 사용되었습니다.
다트머스 회의에서 논의된 주된 내용은 인공두뇌를 기계적으로 구현하여 만들 수 있는 가능성을 논의했으며, 논리적 추론, 게임 플레이, 언어 학습 등 인간 두뇌 기능에 대한 가능성 연구 방향을 제시했습니다.
또한 앨링 튜링은 틱택토(오목과 유사한 게임) 게임을 본인의 프로그램을 사용하여 게임을 완벽하게 플레이할 수 있다는 것을 증명했죠.
인간의 신경망을 유사하게 만들어 간단한 논리 연산을 할 수 있는 퍼셉트론이란 인공지능 모델을 제시하였습니다.
1960년대 – 인공지능의 실증적 증명
오목 게임을 위한 인공지능이 게임 플레이를 할 수 있다는 것을 증명하였으며, 이점은 그때 당시에 인공지능 역사상 중요한 성과였습니다. 사람이 아닌 컴퓨터가 게임 플레이를 할 수 있다는 것만으로도 대단한 성공이었습니다.
또한 1967년 아서 새뮤얼은 채커(보드게임 종류) 프로그램을 개발하였으며, 이 프로그램은 자기 학습 알고리즘을 사용하여 인간을 이길 수 있는 수준의 모델이였습니다.
1970년대 – 인공지능 연구 침체
퍼셉트론 모델을 실증하면서 한계가 드러나기 시작하였습니다. 퍼셉트론은 XOR과 같은 두 개의 입력값을 출력하는 방식인데, 이 특정 문제를 해결할 수 없는 것이 증명되면서 인공지능의 침체기를 맞았습니다.
그때 당시에는 딥러닝과 같은 기술이 없었을뿐더러 하드웨어 적으로 컴퓨팅 파워, 데이터 부족, 데이터 저장 등 인공지능 이론 이외에 외적으로 산업 환경이 갖추어지지 않았기 때문에, 인공지능 연구개발과 사회적 관심 또한 줄어드는 시기였습니다.
1980년대 – 딥러닝 등장, 그리고 인공지능 태동
1980년대는 인공지능 개발이 빠르게 변화하는 시기였습니다.
퍼셉트론 모델의 한계에 부딪히면서, 딥러닝이란 새로운 모델이 개발되었습니다. 따라서 빅데이터 확보, 컴퓨팅 기술 발전 등 외적인 부분의 기술발전과 더불어 인공지능 연구도 다시 사회적 관심을 받기 시작했죠.
1982년 제프리 힌튼(딥러닝 선구자)이 제안한 볼츠만 머신이 딥러닝 기술의 시초가 되었으며, 1986년 데이비드 루멜하트가 제안한 백프로퍼게이션(Backpropagation) 알고리즘이 개발되면서 팁러닝 모델 학습을 가능하게 했습니다.
이렇게 딥러닝에 대한 머신과 알고리즘이 등장하면서 자연스럽게 특정 분야의 전문 코딩들 또한 빠르게 발전하였습니다. 이때부터 번역, 이미지 인식 기술 개발 등이 시작되면서 자연어 처리, 컴퓨터 비전 분야의 전진이 있었습니다.
다만, 여전히 컴퓨팅 성능 부족으로 인해 이미 학문적, 이론적으로는 완성이 되었지만 하드웨어적으로 구현할 수 없었으며, 데이터 부족, 전문가 부족, 투자 부족 등의 한계가 있었던 시기입니다.
결과론적으로 1980년대에는 인공지능 개발을 위한 밑거름이 되었던 시기였기도 합니다.
인공지능 발전의 토대
1990년대 – 인공지능 발전의 토대
인공지능의 연구가 본격적으로 되었던 시기입니다. 역사상 최초로 인터넷이 등장하면서 새로운 가능성을 열었으며, 이 시기에 대표적으로 IBM 딥블루(체스 인공지능 컴퓨터)가 세계 체스 챔피언 카스라포프를 이김으로써 대중들에게 세계적인 관심을 모았습니다.
이때 당시에는 인터넷이 최초로 등장했으며, 야후, 구글과 같은 검색 엔진이 새롭게 등장했습니다. 인터넷이 등장하면서 거대한 데이터를 어디에서나 시스템 접근이 가능했으며, 이로 인해 컴퓨팅 분야의 잠재력으로 인해 투자, 연구가 확대되던 시기였습니다.
따라서 인공지능 분야에서도 딥러닝 모델 성능을 향상하는 단계였으며, 여러 분야에 초기 딥러닝 모델을 적용하던 시기였기도 합니다.
2000년대 – 인공지능의 급격한 발전
인터넷이 등장하면서 빅데이터 시대와 클라우드 컴퓨팅 개념이 등장하였습니다. 따라서 IT 관련 기업들은 빅데이터 활용에 대한 관심과 중요성이 인식되던 시기였습니다.
2007년 ImageNet 대회가 시작되면서 딥러닝 기술을 이용한 이미지 인식 모델 성능이 획기적으로 발전하였습니다. 이 ImageNet 대회는 140만 개 이상의 이미지와 20000만 개 이상의 데이터를 사용하여 이미지 인식 기술 성능을 평가하는 대회로, 이때 당시 활동들이 이미지 인식 기술의 정확도를 크게 향상시켰다고 알려졌습니다.
이 대회에는 인공지능 연구기관, 기업, 개인등이 참가하면서 연구개발이 확대되었고, 결국 자율주행, 의료 영상 분석 등의 분야의 기술 발전에 토대가 되었습니다.
또한 딥러닝 모델에 필수인 빅데이터 확보의 중요성이 증가되었으며, 클라우드 컴퓨팅 등장으로 관련 컴퓨팅 자원을 확보하고 사용하는 점에서 편리해졌죠.
따라서 사회적 관심과 더불어 인공지능 연구가 활성화되면서, 관련 논문들이 쏟아지고 인공지능 스타트업들이 등장하여 새로운 인공지능 개발이 확대되면서 관련 사업비용도 절감되던 시기였습니다.
이때 인공지능에 대한 윤리적 문제에 대해서 논의가 시작되던 시기이기도 하였습니다.
인공지능의 폭발적 발전
2010년~ – 인공지능의 폭발적 성장, GPU의 재발견
방대한 데이터 확보와 컴퓨팅 성능 향상에 따라 인공지능 기술이 급진적으로 발전하였습니다. 대표적으로 딥러닝 기술이 발전하였으며, 이미지 인식, 자연어 처리, 음성 인식 등 다양한 분야에 적용될 만큼 많은 발전을 이루었습니다.
빅데이터 시대 개막되었으며, 거대한 클라우드 컴퓨팅 생태계 도래 등이 되면서 인공지능 기반 서비스 및 제품이 의료, 금융, 교육 등의 분야에서 상용화가 되고 출시가 되었습니다.
인공지능 성능이 폭발적으로 증가한 이면에는 GPU(그래픽 처리 장치)의 재발견이 중요했다는 의견들이 있습니다.
완벽한 인공지능은 이론적으로는 가능하나 실제 상용화하기에는 투자비용도 문제지만 거대한 데이터 저장소, 빠른 연산이 가능한 반도체가 뒷받침할 수 있어야 이론적 성능 구현이 가능한 분야입니다.
과거에는 당연히 CPU를 사용하는 방법으로 개발이 되면서 투자비용, 속도 등이 문제가 되었습니다. 하지만 일부 기관에서 GPU(그래픽 처리 장치)를 사용하여 알고리즘을 개발하면서 인공지능 성능을 놀라울 정도로 성능을 향상시켰습니다. 이렇게 GPU를 이용한 인공지능 딥러닝 기술이 이제는 일반화 되었습니다.
GPU는 CPU보다 수많은 코어를 가지고 있기 때문에 병렬 처리가 강력해서 빠른 속도로 연산 처리가 가능한 특징이 있습니다. 더 핵심적인 사항은 컴퓨팅 파워를 올리려면 GPU를 10개, 1000개, 1000만 개 처럼 추가로 연결만 하면 된다는 점이죠.
이러한 점으로 인공지능 기술이 놀라운 성능을 보여주고 있으며, 그 결과가 쳇 GPT 입니다.
인공지능 기술발전은 오늘도 계속되고 있지만, 기술발전 이외에 “인공지능의 윤리적인 문제”는 인류가 마지막으로 풀어야 할 숙제로 남아 있습니다. 오늘도 여전히 인공지능 윤리적 문제에 대해 많은 논쟁이 있으며, 각 정부 혹은 대표기관들은 인공지능 개발 가이드라인이 필요하다는 점에서는 한 목소리를 내고 있습니다.
일부는 인류의 역사를 인공지능 전후로 나눠야 될 만큼 역사상 혁신적인 기술이라고 주장하고 있습니다.
따라서, 그만큼 인간과 더불어 안전하고 편리한 생활에 도움을 줄 수 있는 방향으로 개발이 되길 기대해 봅니다.