1. 전문가 시스템

 - 특정문제 영역에 대해 전문가 수준의 해법을 제공하는 것으로, 간단한 제어슷템에서부터 복잡한 계산과 추론을 요구하는 의료진단 및 고장 진단 시스템에 사용되고 있다. 지식을 표현하는 부분과 추론을 하는 부분이 분리되어 있고, 지식은 데이터 형태로 관리된다. 그러므로, 데이터로 주어지는 지식을 바꾸면 추론 결과도 바꿀수 있다. 비즈니스분야에서는 전문가 시스템의 이러한 특성을 이용하여 작업 상황, 정책, 방법의 변화에 쉽게 대응하기도 한다

 

2. 데이터마이닝

 - 메모리에 적재할 수 없을 만큼 큰 데이터에 대해서 잠재적으로 유용할 것 같은 숨겨져 있는 지식을 추출하는 것을 말한다. 기계학습 방법은 기본적으로 데이터가 메모리에 적재될 수 있다고 전제하고 알고리즘을 개발한다. 반면, 데이터 마이닝은 디스크에 있는 데이터를 다루어야 하므로, CPU 처리시간보다 디스크 접근 횟수를 최소화하면서 패턴을 찾는 것에 관심이 있다. 데이터 마이닝을 통해서 추출하려는 지식의 형태는 기본적으로 기계학습이나 통계학에서 관심을 두는 것이기 때문에 이분야들의 이론이 많이 적용된다. 특정알고리즘을 데이터에 적용해서 바로 원하는 결과를 얻을 수 있는 것이 아니라, 데이터의 선정 및 전처리, 알고리즘의 선택과 적용, 결과의 평가 등과 같은 일련의 과정을 통해 의미있는 분석 결과를 찾는다

 

3. 패턴인식

 -  주어진 입력을 미리 정해진 부류로 분류하는 것을 말한다. 대표적인 인식 대상으로 문자, 음성, 영상을 들 수 있다. 문자인식에는 인쇄된 문자뿐만 아니라 필기체 문자를 인식하고, 필기체의 경우 이미 쓰여진 문자와 온라인으로 작성되는 문자를 인식하는 것이 있다. 이미 문자인식은 상용화되어 많이 쓰이고 있으며 스마트 폰에서는 기본적으로 필기문자 인식기능이 탑재되어 있다. 음성인식기술이 발전하여 스마트폰의 인터페이스의 하나로 음성인식이 활용되고 있다. 전화ARS서비스, 학습지원시스템을 비롯한 다양한 응용분야에서 사용되고 있다. 영상인식은 사진과 같은 정지영상이나 움직이는 동영상을 대상으로 하며 영상인식은 많은 발전을 해왔음에도 불구하고 아직 해결할 문제가 많이 남아있다. 패턴인식은 일반데이터에도 적용이 되고 있는데, 데이터에 내재한 패턴 찾기, 일반적인 패턴에서 벗어나는 이상치(Outlier)찾기와 같은 다양한 방법들이 연구되고 있다

 

4. 자연어 처리

 - 사람이 사용하는 일반언어로 작성된 문서를 처리하는 분야이다. 문서에 있는 문장을 분석하여 의미를 파악할 수 있다면 다양한 서비스를 할 수 있다. 매일 수없이 많이 생산되는 문서들을 사람이 직접 읽지 않고 프로그램이 알아서 읽고 요약정보를 제공하거나, 주제를 찾아서 주제별로 분류하고 새로이 출현하는 주제를 식별하여 알려주고, 질문에 대해서는 자동으로 답변할 수도 있게 된다

 

5. 컴퓨터비전

 - 컴퓨터를 이용하여 시각 기능을 갖는 기계장치를 만들려는 분야이다. 컴퓨터 비전의 처리 과정은 보통 세 단계로 나누어진다. 첫번째 단계는 전처리 단계로서 카메라를 통해서 들어온 원래 영상을 입력받아 사용 목적에 맞게 가공하는 단계다. 이 과정을 영상처리(image processing)라고도 한다. 두번째 단계는 특징 추출 단계로서 영상에서 에지, 선분, 코너, 원, 텍스쳐와 같은 특징이나, SIFT나 SURF와 같은 개선된 지역특징을 추출한다. 마지막은 해석 단계로서 추출한 특징 정보를 분석하고 목적에 맞게 해석하게 된다. 정지 영상인지 동영상인지에 따라 작업의 특성이 다르고, 목적에 맞게 해석하게 된다. 정지영상인지 동영상인지에 따라 작업의 특징이 다르고, 목적에 따라 처리 방법과 알고리즘이 달라진다. 예를 들면, 사람의 이동 정보가 필요한 경우와 사람을 식별해야 하는 경우는 다른 처리 방법과 과정이 사용될 수 있다. 컴퓨터 비전은 다양한 응용분야가 있고, 많은 수요가 있으므로 이에 관한 연구가 상당히 진행됐다. 사람도 착시나 착각때문에 상황을 잘못 이해할 수 있는 만큼 컴퓨터 비전은 본질적으로 어려운 문제이다. 그럼에도 불구하고 적용 환경에 제약을 가해서 효과적을 서비스하고 다양한 서비스들이 개발되어 운영되고 있다. 최근에는 딥러닝 기술이 컴퓨터 비전에 적용되면서, 기존 방식의 전처리 과정과 특징 추출 과정을 별도로 거치지 않으면서 훨씬 좋은 성능을 보이는 방법들이 개발되어 많은 관심을 끌고 있다.

 

6. 음성인식

 - 음성인식기술은 컴퓨터가 마이크와 같은 소리 센서를 통해 얻은 음향학적 신호(acoustic speech signal)를 단어나 문장으로 변환시키는 기술을 말한다. 동일한 문장을 말할때, 사람마다 음색이 다르고, 발음 속도가 다르고, 심지어 발음도 다르기 때문에, 음성인식 문제는 쉬운 문제가 아니다. 이런 어려움에도 불구하고, 음성인식 분야는 오랜 역사를 가지고 있다. 1952년에 이미 미국 벨연구소에서 숫자음을 인식하는 오드리(Audrey)라는 시스템을 개발했다. 1970년 초반에는 미국 카네기멜론 대학에서 1,011개 단어를 인식하는 하피(Harpy)라는 시스템을 개발하기도 했다. 1980년대에는 음성 길이 차이의 문제를 해결할 수 있는 활률모델인 HMM(Hidden Markov Model)이 개발되면서, 음성인식에 새로운 전환점을 맞게 되었다. 1990년대에는 휴대폰 등 제품에 전화번호 찾기등을 위한 음성인식 서비스가 탑재되었다. 당시 음성인식 기술은 1분에 100단어 정도를 처리할 수 있는 수준이었다. 2000년대에 접어들면서 매우 많은 어휘를 인식할 수 있는 시스템들이 개발되었고, 애플의 시리(SIRI)가 2011년 아이폰에 탑재되면서 음성인식이 일상적인 서비스로 각인되기 시작했다. 2010년대에 접어들어 딥러닝 기술이 본격적으로 도입되면서, 기존 HMM 방식에 비하면 높은 성능을 보이는 음성 인식 서비스들이 개발되고 있다. 이제는 음성인식 기능이 스마트폰과 검색 엔진 등에서 기본 서비스로 탑재되고 있으며, 음성인식 기능을 제공하는 다양한 개인 비서 서비스 및 가전 제품이 이미 시장에 나와 있다.

 

7. 로보틱스

 - 로봇과 관련된 기술로서 기게, 센서, 마이크로일렉트로닉스, 인공지능 기술을 종합적으로 활용한다. 로봇을 깊이 들여다 보면, 결국 하드웨어와 소프트웨어로 구성되어 있다. 로봇은 위임받을 일을 알아서 수행하는 하나의 에이전트로 볼 수 있다. 지능적인 로봇이 되기 위해서는 인공지능 기술이 종합적으로 필요하다. 인지를 위해서 컴퓨터 비전 기술이 필요하고, 판단하기 위한 추론 기능, 어떤 행동을 어떻게 할지 결정하기 위한 계획수립 기술, 친근한 인터페이스를 위한 자연어 처리 기능, 사용하면서 더 똑똑해지도록 만들기 위한 학습 기능을 비롯한 다양한 인공지능 기술이 사용되어야 한다.

 

8. 에이젼트

 - 사용자로부터 위임받은 일을 자율적으로 수행하는 시스템을 말한다. 지능적인 서비스를 하는 시스템을 에이전트로 간주하고, 이러한 에이전트를 만들려는 연구가 진행되고 있다. 에이전트의 형태는 단순히 입력에 대해서 정해진 반응만을 하는 반응형 에이전트(Reactive agent)에서부터, 자신의 지식을 활용하여 목표를 달성하기 위해 계획을 수립하는 숙고형 에이전트(deliberate agent), 경험(즉, 행동과 그 결과)이 누적됨에 따라 점점 똑똑해지도록 학습을 하는 학습 에이전트가 있다. 에이전트를 순수하게 소프트웨어로 되어 있는 소프트웨어 에이전트와 지능 로봇으로 대표되는 물리적 에이전트로 분류하기도 한다.

 

'2. 인공지능 > 2-2. 역사' 카테고리의 다른 글

2-2-1. 인공지능의 역사  (0) 2018.01.04

1. 1960년대 이전

 - 매커시에 의해 1958년 인공지능 구현을 위한 LISP 언어를 만들었고, 논리(logic)를 사용하여 지식을 표현하고 상식에 대해 추론하는 아이디어를 제안. 로젠블랫(Frank Rosenblatt, 1928-1971)은 1958년 Perceptron 이라는 최초의 신경망 모델을 제안. 학습기능을 가진 기계로 주목을 받으면서 신경망 연구의 첫번째 Boom.... 신경망의 황금기로서 그는 최초의 성공적인 Neuro-Computer를 개발하고 이를 패턴 인식 분야에 적용함. 그러나 Single layer perceptron은 선형적으로 분리가 가능한 패턴은 인식할 수 있지만, 복잡한 패턴은 2개 혹은 그 이상의 layer를 갖는 신경망에서 가능하다는 것이 1969년 Minsky에 의해 증명됨

오늘날 perceptron은 한 쪽 혹은 다른 부분의 결정을 위한 binary classifier에 대한 지도 학습 알고리즘의 개념으로 사용됨

또한 Minsky교수는 perceptron으로는 XOR을 학습할 수 없다는 XOR problem을 밝히고 결국 이것은 신경망에 대한 관심이 멀어지게 만드는 계기가 됨

 

 

 

[신경망과 Perceptron]

 

 

2. 1970~80년

1960년대의 연구는 주로 다양한 문제 해결에 적용될수 있는 범용 방법을 찾아보는 것에 집중하였으나, 규모가 큰 문제에 대한 적용이 어려운 점이 나타났고 1970년대에 이러한 범용 방법보다 특정 영역 문제를 효과적으로 해결하는 방법이 발달. 특정 영역문제에 대해 전문가 수준의 해답을 제공하는 전문가 시스템(Expert System)이 그 대표적인 사례. 당시 개발된 대표적인 전문가 시스템으로 미국 스탠포드 대학에서 개발한 "MYCIN" : 전염성 혈액 질환 환자를 진단하고 항생제를 처방하는데, 69%의 확률로 적합한 처방을 할 수 있음. 80% 정도의 정확도를 보인 세균 감염 전문의보다는 뒤떨어지지만 일반 의사들보다는 높은 확률이 나타남..

긴 침묵기로서 연구비 지원이 줄고 관심이 줄어들어 개별적으로 신경망에 대한 연구가 지속되며 몇몇 혁명적인 연구자에 의해 독자적으로 신경망에 대한패러다임이 발전..

 

3. 1980 중반~90년

신경망은 두뇌 신경세포와 이들의 연결구조를 모방한 계산 모델인데 1958년 페셉트론이 개발되어 큰 관심을 모았지만 아래 그림과 같은 단순한 XOR문제도 해결할 수 없다는 것이 알려지면서 신경망 연구는 한동안 침체기를 맞는다. 퍼셉트론을 여러층으로 연결하여 구성한 다층 퍼셉트론(multi-layer Perceptron, MLP)이 XOR 문제를 해결할 수 있다는 사실을 알았지만, 1980년대 초반까지 이러한 다층 퍼셉트론을 학습시키는 방법이 없었다. 그러다 1980년대 중반에 다층 퍼셉트론을 학습시키는 에러 역전파(Error backpropagation) 알고리즘이 알려지면서, 1980년대 중반부터 신경망 연구의 부흥기를 맞음. 신경망은 데이터만 주어지면 학습할수 있다는 점에서 많은 관심을 일으켰고 다양한 분야에 적용이 시도됨

※ 1986년 Rumelhart와 Hinton에 의해 back-propagation 알고리즘을 발표

 

4. 1990년대

그래프 이론과 확률론을 결합한 여러 확률 그래프 모델(probabilistic graphical model)이 본격적으로 발전하였고, 컴퓨터 비전, 로보틱스, 자연어처리, 진단 분야 등에서 중요한 기술로 자리잡기 시작. 1990년대 이후 지식을 기호로 표현하여 지능을 구현하는 기호적 인공지능(symbolic AI) 기술보다 수치계산 위주의 비기호적 인공지능(subsymbolic AI) 기술이 점차 발전. 1990년 후반에는 기계학습 모델의 하나인 서포트 벡터 머신(Support Vector Machine, SVM)이 개발되어 많은 관심을 모음

※ 1995년 LeCun과 Bengio는 CNN(Convolutional Neural Network)을 발표.

 

 

5. 2000년대 이후

위임받은 일을 자율적으로 처리하는 에이전트(agent) 기술에 관한 연구가 활발히 진행되면서 인터넷 기반의 다양한 서비스가 시도됨. 웹상의 자원(웹페이지, 파일, 서비스, 데이터)에 대한 정보와 자원 사이의 관계 등을 메타데이터로 추가해 두어서 컴퓨터가 웹상의 자원을 이해하여 필요한 서비스를 지능적으로 제공할 수 있도록 하는 시맨틱웹(semantic web)에 관한 연구가 진행.

기계학습과 통계학적 기법을 대규모 데이터에 적용하여 의미 있는 유용한 은닉 정보를 추출하는 데이터 마이닝기술이 발전하고, 여러 가지 데이터 마이닝 도구가 개발되고 있다. 이러한 도구들 덕분에, 알고리즘을 구현 할 수 없는 일반인들도 데이터 마이닝 기술을 쉽게 활용할 수 있게 됨.

한편, 빅데이터의 출현과 함께 이를 처리할 수 있는 인공지능 기술에 관한 연구가 2000년대 후반부터 활발히 진행됨.

SVM에 의해 신경망에 관한 연구가 다소 줄었으나 딥러닝(Deep Learning) 기술이 우수한 적용 사례를 만들어가면서 2000년대 후반부터 신경망이 다시 큰 관심을 모음. 애플Siri, 구글Now와 같은 스마트폰의 음성인식 서비스의 대중화, 구글의 자율주행 자동차와 자동번역기, IBM의 왓슨(Wstson), 군사용 로봇 빅독(Big Dog)을 비롯한 지능로봇 등 눈에 띄는 인공지능 기술을 적용한 제품과 서비스들이 출현함. 지능뿐만 아니라 감정을 이해하는 기술을 통한 서비스 기술(emotion computing)에 관한 연구도 활발히 진행. 2014년 6월 유진구츠만(Eugene Goostman)이란 챗봇(chatboot, 대화하는 소프트웨어 로봇)이 인류역사상 최초로 튜링테스틀를 통과.

 

※ 유진 구츠만은 러시아 출신 베셀로프와 울라센, 우크라이나 출신 템첸코가 2001년부터 개발해온 13세인 우크라이나 소년 캐릭터를 갖는 챗봇. 튜링사망 60주년을 기념하여 진행한 이벤트에서 30명의 검사지가 이 챗봇과 5분간 대화를 하여 33%가 사람으로 판정함. 통과기준을 30%로 설정한것은 문제로 지적됨. 튜링테스트 대회인 뢰브너 상이라는 행사는 1990년 이후 매년 개최됨

 

 

'2. 인공지능 > 2-2. 역사' 카테고리의 다른 글

2-2-2. 주요 응용분야  (0) 2018.01.07

+ Recent posts