1. 1960년대 이전

 - 매커시에 의해 1958년 인공지능 구현을 위한 LISP 언어를 만들었고, 논리(logic)를 사용하여 지식을 표현하고 상식에 대해 추론하는 아이디어를 제안. 로젠블랫(Frank Rosenblatt, 1928-1971)은 1958년 Perceptron 이라는 최초의 신경망 모델을 제안. 학습기능을 가진 기계로 주목을 받으면서 신경망 연구의 첫번째 Boom.... 신경망의 황금기로서 그는 최초의 성공적인 Neuro-Computer를 개발하고 이를 패턴 인식 분야에 적용함. 그러나 Single layer perceptron은 선형적으로 분리가 가능한 패턴은 인식할 수 있지만, 복잡한 패턴은 2개 혹은 그 이상의 layer를 갖는 신경망에서 가능하다는 것이 1969년 Minsky에 의해 증명됨

오늘날 perceptron은 한 쪽 혹은 다른 부분의 결정을 위한 binary classifier에 대한 지도 학습 알고리즘의 개념으로 사용됨

또한 Minsky교수는 perceptron으로는 XOR을 학습할 수 없다는 XOR problem을 밝히고 결국 이것은 신경망에 대한 관심이 멀어지게 만드는 계기가 됨

 

 

 

[신경망과 Perceptron]

 

 

2. 1970~80년

1960년대의 연구는 주로 다양한 문제 해결에 적용될수 있는 범용 방법을 찾아보는 것에 집중하였으나, 규모가 큰 문제에 대한 적용이 어려운 점이 나타났고 1970년대에 이러한 범용 방법보다 특정 영역 문제를 효과적으로 해결하는 방법이 발달. 특정 영역문제에 대해 전문가 수준의 해답을 제공하는 전문가 시스템(Expert System)이 그 대표적인 사례. 당시 개발된 대표적인 전문가 시스템으로 미국 스탠포드 대학에서 개발한 "MYCIN" : 전염성 혈액 질환 환자를 진단하고 항생제를 처방하는데, 69%의 확률로 적합한 처방을 할 수 있음. 80% 정도의 정확도를 보인 세균 감염 전문의보다는 뒤떨어지지만 일반 의사들보다는 높은 확률이 나타남..

긴 침묵기로서 연구비 지원이 줄고 관심이 줄어들어 개별적으로 신경망에 대한 연구가 지속되며 몇몇 혁명적인 연구자에 의해 독자적으로 신경망에 대한패러다임이 발전..

 

3. 1980 중반~90년

신경망은 두뇌 신경세포와 이들의 연결구조를 모방한 계산 모델인데 1958년 페셉트론이 개발되어 큰 관심을 모았지만 아래 그림과 같은 단순한 XOR문제도 해결할 수 없다는 것이 알려지면서 신경망 연구는 한동안 침체기를 맞는다. 퍼셉트론을 여러층으로 연결하여 구성한 다층 퍼셉트론(multi-layer Perceptron, MLP)이 XOR 문제를 해결할 수 있다는 사실을 알았지만, 1980년대 초반까지 이러한 다층 퍼셉트론을 학습시키는 방법이 없었다. 그러다 1980년대 중반에 다층 퍼셉트론을 학습시키는 에러 역전파(Error backpropagation) 알고리즘이 알려지면서, 1980년대 중반부터 신경망 연구의 부흥기를 맞음. 신경망은 데이터만 주어지면 학습할수 있다는 점에서 많은 관심을 일으켰고 다양한 분야에 적용이 시도됨

※ 1986년 Rumelhart와 Hinton에 의해 back-propagation 알고리즘을 발표

 

4. 1990년대

그래프 이론과 확률론을 결합한 여러 확률 그래프 모델(probabilistic graphical model)이 본격적으로 발전하였고, 컴퓨터 비전, 로보틱스, 자연어처리, 진단 분야 등에서 중요한 기술로 자리잡기 시작. 1990년대 이후 지식을 기호로 표현하여 지능을 구현하는 기호적 인공지능(symbolic AI) 기술보다 수치계산 위주의 비기호적 인공지능(subsymbolic AI) 기술이 점차 발전. 1990년 후반에는 기계학습 모델의 하나인 서포트 벡터 머신(Support Vector Machine, SVM)이 개발되어 많은 관심을 모음

※ 1995년 LeCun과 Bengio는 CNN(Convolutional Neural Network)을 발표.

 

 

5. 2000년대 이후

위임받은 일을 자율적으로 처리하는 에이전트(agent) 기술에 관한 연구가 활발히 진행되면서 인터넷 기반의 다양한 서비스가 시도됨. 웹상의 자원(웹페이지, 파일, 서비스, 데이터)에 대한 정보와 자원 사이의 관계 등을 메타데이터로 추가해 두어서 컴퓨터가 웹상의 자원을 이해하여 필요한 서비스를 지능적으로 제공할 수 있도록 하는 시맨틱웹(semantic web)에 관한 연구가 진행.

기계학습과 통계학적 기법을 대규모 데이터에 적용하여 의미 있는 유용한 은닉 정보를 추출하는 데이터 마이닝기술이 발전하고, 여러 가지 데이터 마이닝 도구가 개발되고 있다. 이러한 도구들 덕분에, 알고리즘을 구현 할 수 없는 일반인들도 데이터 마이닝 기술을 쉽게 활용할 수 있게 됨.

한편, 빅데이터의 출현과 함께 이를 처리할 수 있는 인공지능 기술에 관한 연구가 2000년대 후반부터 활발히 진행됨.

SVM에 의해 신경망에 관한 연구가 다소 줄었으나 딥러닝(Deep Learning) 기술이 우수한 적용 사례를 만들어가면서 2000년대 후반부터 신경망이 다시 큰 관심을 모음. 애플Siri, 구글Now와 같은 스마트폰의 음성인식 서비스의 대중화, 구글의 자율주행 자동차와 자동번역기, IBM의 왓슨(Wstson), 군사용 로봇 빅독(Big Dog)을 비롯한 지능로봇 등 눈에 띄는 인공지능 기술을 적용한 제품과 서비스들이 출현함. 지능뿐만 아니라 감정을 이해하는 기술을 통한 서비스 기술(emotion computing)에 관한 연구도 활발히 진행. 2014년 6월 유진구츠만(Eugene Goostman)이란 챗봇(chatboot, 대화하는 소프트웨어 로봇)이 인류역사상 최초로 튜링테스틀를 통과.

 

※ 유진 구츠만은 러시아 출신 베셀로프와 울라센, 우크라이나 출신 템첸코가 2001년부터 개발해온 13세인 우크라이나 소년 캐릭터를 갖는 챗봇. 튜링사망 60주년을 기념하여 진행한 이벤트에서 30명의 검사지가 이 챗봇과 5분간 대화를 하여 33%가 사람으로 판정함. 통과기준을 30%로 설정한것은 문제로 지적됨. 튜링테스트 대회인 뢰브너 상이라는 행사는 1990년 이후 매년 개최됨

 

 

'2. 인공지능 > 2-2. 역사' 카테고리의 다른 글

2-2-2. 주요 응용분야  (0) 2018.01.07

- 1940년대 초 노버트 위너(Norbert Wiener)는 ‘피드백을 통한 통제’라는 인간을 흉내낼수 있는 기계의 메커니즘을 주창.

- 2차 세계대전이 끝나고 위너를 중심으로 “Macy Conference"를 조직하였고, 이 학회에 참여한 폰노이만(John von Neumann)은 튜링의 계산 기계를 발전시켜 스스로를 복제 할 수 있는 가상적 기계인 오토마타(automata)를 연구

- 위너의 학생이었던 올리버 셀프리지(Oliver Selfridge)는 기계에 의한 패턴 인식을 연구하기 시작했는데, 이는 지금의 머신 러닝(machine learning)의 시작점이 됨

- 존 맥카시(John McCarthy)는 학교에서 개최된 뇌과학에 대한 힉슨 심포지엄(Hixon Symposium)에서 오토마타에 대한 폰노이만의 발표와 신경망 이론에 대한 맥컬럭의 발표를 듣고 생각을 하는 기계를 만드는 문제를 고민하기 시작

- 맥카시는 록펠러 재단 연구비로 자신이 막 자리잡은 다트머스 대학교(Dartmough College)에서 “인공 지능”을 주제로 1956년 여름 두 달 동안 학회를 진행. 이것이 전설적인 다트머스 회의. 민스키, 섀넌, 그리고 IBM에서 704 컴퓨터를 만들었던 로체스터(N. Rochester)가 공동 주최자로 참여.
- 맥카시는 박사과정을 밟던 프린스턴 대학교의 수학과에서 평생 같은 주제를 연구하게 된 마빈 민스키(Marvin Minsky)라는 동료를 만나고, 맥카시와 같은 나이에 역시 수학을 전공하던 민스키는 대형 컴퓨터가 작동하는 것을 직접 목도한 뒤에 사람처럼 생각하는 컴퓨터를 모사(simulate)하는 문제를 연구하기 시작

- 민스키는 대학원 학생일 때 시행착오를 통해 학습할 수 있는 신경망 기계인 SNARC를 만들었을 정도로, 생각하는 기계에 대한 고민을 발전시킴.

- 이들은 모두 1952년 여름에 벨연구소(벨랩)에 고용되어 잠깐 연구를 했는데, 이때 맥카시는 여기서 정보 이론을 발전시킨 섀넌을 만나서 자신의 관심에 대해서 논의할 기회를 얻었고 그의 총명함을 간파한 섀넌은 그에게 당시 가장 첨단 분야인 오토마타에 대한 책을 한 권 함께 편집하자고 제안

- 컴퓨터가 처음 만들어진 1940년대에 인공지능이란 개념이 형성되기 시작했으며 최초의 컴퓨터를 설계한 앨랜튜링이었다. 그는 지능은 추상적인 개념으로 구체적인 정의가 어렵다고 생각하여 조작적 정의(Operational Definition)를 사용하여 지능의 유무를 판단하는 역사적인 Turing Test를 만듬

 

 

※ Turing Test : 튜링은 포괄적 논리만 제시하였을 뿐 구체적인 실험 방법과 판별 기준을 제시한 것은 아님. 현재 통용되는 테스트는 서로 보이지 않는 공간에서 질의자가 인간과 컴퓨터를 대상으로 정해진 시간 안에 대화를 나누는 방식으로 이루어지는데, 대화를 통하여 인간과 컴퓨터를 구별해 내지 못하거나 컴퓨터를 인간으로 간주하게 된다면 해당 기계는 인간처럼 사고할 수 있는 것으로 봄
2014년 6월 영국왕립학회가 실시한 튜링 테스트에서 영국의 레딩대학교가 개발한 컴퓨터 프로그램 '유진 구스트만(Eugene Goostman)'이 처음으로 테스트를 통과. 이 테스트에서 우크라이나 국적의 13세 소년으로 설정된 '유진'과 대화를 나눈 심사위원 25명 가운데 33%가 진짜  인간이라고 판단함. 하지만 '유진'은 대화 도중에 엉뚱한 대답을 한 경우도 많아서 진정한 인공지능으로 인정하기 어렵다는 주장도 제기되었으며, 더 나아가 1950년에 제안된 오래된 개념의 '튜링 테스트'는 사람처럼 종합적으로 생각할 수 있는 진정한 인공지능을 판별하는 기준이 될 수 없다는 주장도 있음    [네이버 지식백과]Turing test (두산백과)

 

1956년 전설적인 다트머스 회의 개최 : 매커시( John McCarthy, 1927~2011) 교수가 미국 다트머스 대학에서 당시 컴퓨터 지능 관련 연구 분야를 Artificial Intelligence(AI)로 부르자고 제안하면서 인공지능이라는 용어가 널리 사용됨. 이 회의가 인공지능 연구의 출발점이라고도 봄.

 

강한인공지능 - 인간과 유사한 지능. 인간처럼 마음으로 느끼며 지능적으로 행동하는 기계 지능이다. 추론, 문제해결, 판단, 계획, 의사소통, 자아의식, 감정, 지혜, 신념등 인간의 모든 지능적 요소를 포함함. 그러나 이러한 개체가 나온다면 인간역사의 중요한 변곡점이 될것이며 이들의 권리와 지위에 대한 재정립이 필요함

약한 인공지능 - 특수한 문제에 대해서만 해결할수 있는 수준의 지능. 인간의 부분적 지능적인 행동을 흉내 내는 수준으로서, 대부분의 인공지능 연구에서 지금까지 진행된 부분.   "중국인 방 실험"- 방문은 닫혀있고 방안에는 중국어를 전혀 모르는 사람이 있다. 방안에는 중국어 질문에 대한 대답이 적혀 있는 책이 있다. 문밖에 중국인이 와서 중국어로 질문을 쪽지에 적어 문 믿으로 밀어 넣는다. 방안의 중국어를 모르는 사람은 책에서 중국어 질문과 일치하는 글자들이 있는 부분을 찾아 대답에 해당하는 굴자들을 쪽지에 복사해서 문 밑으로 내보낸다. 문밖의 사람이 질문에 맞는 답변 쪽지를 받는다면 방 안의 사람이 중국어를 하는 사람이고 생각할 것이다. 이 처럼 내용을 전혀 이해하지 못한 채, 기계적으로 행동하더라도 지능적으로 보일수 있다. 이러한 흉내내는 수준의 인공지능을 말함.

+ Recent posts