기호 인공지능

최종 수정 2026.03.25

인공지능에서 기호 인공지능(symbolic artificial intelligence, 고전적 인공지능 또는 논리 기반 인공지능이라고도 함)[^10][^11]은 문제, 논리, 탐색의 고수준 기호적(사람이 읽을 수 있는) 표현에 기반한 인공지능 연구의 모든 방법론을 총칭하는 용어이다.[^12] 기호 인공지능은 논리 프로그래밍, 생성 규칙, 의미망 및 프레임과 같은 도구를 사용하였으며, 지식 기반 시스템(특히 전문가 시스템), 기호 수학, 자동 정리 증명기, 온톨로지, 시맨틱 웹, 자동 계획 및 스케줄링 시스템 등의 응용 분야를 발전시켰다. 기호 인공지능 패러다임은 탐색, 기호 프로그래밍 언어, 에이전트, 다중 에이전트 시스템, 시맨틱 웹, 그리고 형식적 지식 및 추론 시스템의 강점과 한계에 관한 중요한 아이디어를 이끌어냈다.

기호 인공지능은 1950년대 중반부터 1990년대 중반까지 인공지능 연구의 지배적인 패러다임이었다. 1960년대와 1970년대의 연구자들은 기호적 접근법이 궁극적으로 인공 일반 지능을 갖춘 기계를 만드는 데 성공할 것이라고 확신했으며, 이를 자신들의 분야의 궁극적인 목표로 여겼다.[^13] 논리 이론가(Logic Theorist)와 새뮤얼의 체커 게임 프로그램 등 초기 성공을 거둔 첫 번째 붐은 비현실적인 기대와 약속으로 이어졌고, 자금이 고갈되면서 첫 번째 AI 겨울이 뒤따랐다. 두 번째 붐(1969~1986년)은 전문가 시스템의 부상, 기업 전문 지식을 포착할 수 있다는 약속, 그리고 기업의 열정적인 수용과 함께 일어났다. 이 붐과 DEC에서의 XCON 등 일부 초기 성공은 다시 이후의 실망으로 이어졌다. 지식 획득의 어려움, 대규모 지식 베이스 유지 관리, 그리고 도메인 외 문제 처리에서의 취약성 등의 문제가 발생했다. 또 다른 두 번째 AI 겨울(1988~2011년)이 뒤따랐다. 이후 인공지능 연구자들은 불확실성 처리와 지식 획득의 근본적인 문제를 해결하는 데 집중했다. 불확실성은 은닉 마르코프 모델, 베이지안 추론, 통계적 관계 학습과 같은 형식적 방법으로 다루어졌다. 기호 기계 학습은 버전 공간(Version Space), 밸리언트의 PAC 학습, 퀸란의 ID3 결정 트리 학습, 사례 기반 학습, 그리고 관계를 학습하기 위한 귀납 논리 프로그래밍 등의 기여를 통해 지식 획득 문제를 해결하였다.

하위 기호적 접근법인 신경망은 초기부터 연구되어 왔으며 2012년에 강력하게 재등장하였다. 초기 사례로는 로젠블랫의 퍼셉트론 학습 연구, 루멜하트, 힌턴, 윌리엄스의 역전파 연구,[^14] 그리고 1989년 르쿤 등의 합성곱 신경망 연구가 있다.[^15] 그러나 신경망은 약 2012년까지는 성공적이라고 여겨지지 않았다: "빅데이터가 보편화되기 전까지, AI 커뮤니티의 일반적인 합의는 소위 신경망 접근법이 가망이 없다는 것이었다. 시스템이 다른 방법에 비해 그다지 잘 작동하지 않았다. ... 2012년에 혁명이 일어났는데, 힌턴과 함께 연구하는 팀을 포함한 여러 사람들이 GPU의 성능을 활용하여 신경망의 성능을 엄청나게 향상시키는 방법을 알아냈다." 이후 몇 년간 딥러닝은 시각, 음성 인식, 음성 합성, 이미지 생성, 기계 번역 처리에서 눈부신 성공을 거두었지만, 기호적 접근법은 컴퓨터 대수 시스템과 증명 보조기 등 일부 영역에서 여전히 유용하게 쓰이고 있다.

그러나 지능 자체의 본질적인 복잡성을 고려할 때, 기호 인공지능이 연결주의 인공지능에 의해 완전히 대체될 것인지, 아니면 기호 인공지능이 다시 부흥을 경험할 수 있을 것인지는 여전히 열린 질문으로 남아 있다. 보다 최근에는 Zhang 의 연구가 적어도 이론적 수준에서는 서로 다른 기술 패러다임 간에 명확한 우위가 없다고 주장하였다.[^16]

역사

현재까지의 기호 AI의 간략한 역사는 아래와 같다. 시대 구분과 제목은 헨리 카우츠(Henry Kautz)의 2020년 AAAI 로버트 S. 엥글모어 기념 강연과 더 긴 위키백과의 AI의 역사 문서에서 가져왔으며, 명확성을 높이기 위해 날짜와 제목을 약간 수정하였다.

첫 번째 AI의 여름: 비이성적 열광, 1948–1966

AI 초기 시도의 성공은 인공 신경망, 지식 표현, 휴리스틱 탐색이라는 세 가지 주요 분야에서 이루어졌으며, 이는 높은 기대감에 기여했다. 이 절은 카우츠가 정리한 초기 AI 역사를 요약한 것이다.

인간 또는 동물의 인지나 행동에서 영감을 받은 접근법

인공두뇌학적 접근법은 동물과 환경 사이의 피드백 루프를 복제하려 시도했다. 사전 프로그래밍된 신경망을 기반으로 센서, 구동 및 조향용 모터, 그리고 제어를 위한 7개의 진공관을 갖춘 로봇 거북이가 1948년에 이미 제작되었다. 이 연구는 이후 신경망, 강화 학습, 상황 기반 로봇 공학 분야의 초기 선구자로 볼 수 있다.

중요한 초기 기호 AI 프로그램은 1955–56년에 앨런 뉴웰(Allen Newell), 허버트 사이먼(Herbert Simon), 클리프 쇼(Cliff Shaw)가 작성한 논리 이론가(Logic Theorist)였으며, 이 프로그램은 화이트헤드(Whitehead)와 러셀(Russell)의 *수학 원리(Principia Mathematica)*에서 38개의 기본 정리를 증명할 수 있었다. 뉴웰, 사이먼, 쇼는 이후 이 연구를 일반화하여 영역 독립적 문제 해결기인 GPS(일반 문제 해결기, General Problem Solver)를 만들었다. GPS는 수단-목적 분석을 사용한 상태 공간 탐색을 통해 형식 연산자로 표현된 문제를 해결했다.

1960년대에 기호적 접근법은 게임 플레이, 기호 수학, 정리 증명과 같은 구조화된 환경에서 지능적 행동을 시뮬레이션하는 데 큰 성공을 거두었다. 1960년대 AI 연구는 카네기 멜론 대학교, 스탠퍼드, MIT, 그리고 (나중에) 에든버러 대학교의 네 기관에 집중되었다. 각 기관은 고유한 연구 스타일을 발전시켰다. 인공두뇌학이나 인공 신경망에 기반한 초기 접근법들은 포기되거나 배경으로 밀려났다.

허버트 사이먼과 앨런 뉴웰은 인간의 문제 해결 능력을 연구하고 이를 형식화하려 시도했으며, 그들의 연구는 인공지능 분야뿐만 아니라 인지 과학, 운영 연구, 경영 과학의 기초를 놓았다. 그들의 연구팀은 심리학 실험 결과를 활용하여 사람들이 문제를 해결하는 데 사용하는 기법을 시뮬레이션하는 프로그램을 개발했다. 카네기 멜론 대학교를 중심으로 한 이 전통은 결국 1980년대 중반 Soar 아키텍처의 개발로 절정에 달했다.

휴리스틱 탐색

이후 전문가 시스템에서 사용되는 고도로 전문화된 영역 특화 지식 외에도, 초기 기호 AI 연구자들은 지식의 또 다른 보다 일반적인 응용을 발견했다. 이것은 휴리스틱, 즉 유망한 방향으로 탐색을 안내하는 경험 법칙이라 불렸다: "기저 문제가 지수적으로 어려울 때 비열거적 탐색이 어떻게 실용적일 수 있는가? 사이먼과 뉴웰이 옹호하는 접근법은 휴리스틱을 사용하는 것이다: 일부 입력에서 실패하거나 차선의 해를 출력할 수 있는 빠른 알고리즘이다." 또 다른 중요한 진보는 휴리스틱의 간헐적인 오류 가능성에도 불구하고 해가 존재한다면 반드시 찾을 수 있도록 보장하는 휴리스틱 적용 방법을 찾은 것이었다: "A* 알고리즘은 완전하고 최적인 휴리스틱 유도 탐색을 위한 일반적인 프레임워크를 제공했다. A*는 오늘날 거의 모든 AI 알고리즘에서 서브루틴으로 사용되지만 여전히 만능 해결책은 아니다; 완전성의 보장은 최악의 경우 지수적 시간이라는 대가를 치러야 한다.

지식 표현과 추론에 대한 초기 연구

초기 연구는 1차 논리를 강조하는 형식 추론의 응용과 덜 형식적인 방식으로 상식 추론을 다루려는 시도를 모두 포함했다.

논리로 형식 추론 모델링: "깔끔파(neats)"

사이먼과 뉴웰과 달리, 존 매카시(John McCarthy)는 기계가 인간 사고의 정확한 메커니즘을 시뮬레이션할 필요가 없으며, 대신 사람들이 같은 알고리즘을 사용하는지 여부와 관계없이 논리를 통해 추상적 추론과 문제 해결의 본질을 찾을 수 있다고 느꼈다. 스탠퍼드에 있는 그의 연구실(SAIL)은 지식 표현, 계획, 학습을 포함한 다양한 문제를 해결하기 위해 형식 논리를 사용하는 데 집중했다. 논리는 또한 에든버러 대학교와 유럽 다른 곳의 연구 초점이었으며, 이는 프로그래밍 언어 Prolog와 논리 프로그래밍 과학의 발전으로 이어졌다.

프레임과 스크립트로 암묵적 상식 지식 모델링: "지저분파(scruffies)"

MIT의 연구자들(마빈 민스키(Marvin Minsky)와 시모어 패퍼트(Seymour Papert) 등)은 시각 및 자연어 처리의 어려운 문제를 해결하려면 임시적 해결책이 필요하다는 것을 발견했다—그들은 (논리와 같은) 단순하고 일반적인 원리로는 지능적 행동의 모든 측면을 포착할 수 없다고 주장했다. 로저 섕크(Roger Schank)는 그들의 "반논리적" 접근법을 (CMU와 스탠퍼드의 "깔끔한(neat)" 패러다임에 대비하여) "지저분한(scruffy)"이라고 묘사했다. 상식 지식 베이스(더그 레나트(Doug Lenat)의 Cyc 등)는 "지저분한" AI의 한 예인데, 복잡한 개념을 하나하나 수작업으로 구축해야 하기 때문이다.

첫 번째 AI의 겨울: 무너진 꿈, 1967–1977

첫 번째 AI의 겨울은 충격이었다:

두 번째 AI의 여름: 지식이 곧 힘이다, 1978–1987

지식 기반 시스템

약한 영역 독립적 방법의 한계가 점점 더 명확해지자, 세 전통 모두의 연구자들이 AI 응용 프로그램에 지식을 구축하기 시작했다. 지식 혁명은 고성능의 영역 특화 AI 응용 프로그램의 기반에 지식이 있다는 인식에 의해 추진되었다.

에드워드 파이겐바움(Edward Feigenbaum)은 다음과 같이 말했다:

  • "지식 안에 힘이 있다."[^1] 이는 특정 영역에서의 높은 성능이 일반적 지식과 고도로 영역 특화된 지식 모두를 필요로 한다는 것을 설명하기 위함이었다. 에드 파이겐바움과 더그 레나트는 이를 지식 원리라 불렀다:

전문가 시스템의 성공

이 "지식 혁명"은 (에드워드 파이겐바움이 도입한) 전문가 시스템의 개발과 배치로 이어졌으며, 이는 AI 소프트웨어의 첫 번째 상업적 성공 사례였다.

주요 전문가 시스템은 다음과 같다:

  • DENDRAL: 화학식과 질량 분석기 판독값으로부터 유기 분자의 구조를 찾았다.
  • MYCIN: 실험실 결과, 환자 병력, 의사 관찰을 해석하여 균혈증을 진단하고—필요시 추가 실험실 검사를 제안했다. "약 450개의 규칙으로 MYCIN은 일부 전문가만큼 잘 수행할 수 있었고, 초보 의사보다는 상당히 우수했다."
  • INTERNIST와 CADUCEUS: 내과 진단을 다루었다. Internist는 피츠버그 대학교 의과대학 내과 학과장의 전문 지식을 포착하려 시도했으며, CADUCEUS는 결국 최대 1000가지 다른 질병을 진단할 수 있었다.
  • GUIDON: 전문가 문제 해결을 위해 구축된 지식 베이스를 교육용으로 재활용할 수 있음을 보여주었다.
  • XCON: 당시 최대 90일이 걸릴 수 있는 힘든 과정이었던 VAX 컴퓨터 구성 작업을 수행했다. XCON은 그 시간을 약 90분으로 줄였다.

DENDRAL은 지식 집약적 문제 해결에 의존한 최초의 전문가 시스템으로 간주된다. 아래는 에드 파이겐바움이 Communications of the ACM 인터뷰에서 설명한 내용이다, 에드 파이겐바움과의 인터뷰:

위에서 언급된 다른 전문가 시스템들은 DENDRAL 이후에 나왔다. MYCIN은 불확실성을 처리하기 위한 확신도 사용을 포함하여, 규칙의 지식 베이스와 기호 추론 메커니즘이 결합된 고전적 전문가 시스템 아키텍처를 잘 보여준다. GUIDON은 명시적 지식 베이스가 두 번째 응용인 교육용으로 재활용될 수 있음을 보여주며, 지식 기반 응용의 특수한 유형인 지능형 교육 시스템의 한 예이다. 클랜시(Clancey)는 교육에 MYCIN의 규칙만을 사용하는 것으로는 충분하지 않으며, 대화 관리와 학생 모델링을 위한 규칙도 추가해야 한다는 것을 보여주었다. XCON은 DEC에 수백만 달러를 절약해 주었기 때문에 의미가 있으며, 이는 미국의 거의 모든 주요 기업이 기업 전문 지식을 포착하고, 보존하고, 자동화하기 위한 전문가 시스템 그룹을 갖게 된 전문가 시스템 붐을 촉발했다:

체스 전문 지식은 딥 블루에 인코딩되었다. 1996년, 이를 통해 IBM의 딥 블루는 기호 AI의 도움으로 당시 세계 챔피언이었던 가리 카스파로프(Garry Kasparov)와의 체스 경기에서 승리할 수 있었다.[^17]

지식 기반 및 전문가 시스템의 아키텍처

모든 전문가 시스템의 시스템 아키텍처에서 핵심 구성 요소는 문제 해결을 위한 사실과 규칙을 저장하는 지식 베이스이다. 전문가 시스템 지식 베이스의 가장 단순한 접근법은 프로덕션 규칙의 모음 또는 네트워크이다. 프로덕션 규칙은 If-Then 문과 유사한 관계로 기호를 연결한다. 전문가 시스템은 규칙을 처리하여 추론을 수행하고 어떤 추가 정보가 필요한지, 즉 인간이 읽을 수 있는 기호를 사용하여 어떤 질문을 할지를 결정한다. 예를 들어, OPS5, CLIPS 및 그 후속인 Jess와 Drools는 이러한 방식으로 작동한다.

전문가 시스템은 전방 연쇄(증거에서 결론으로) 또는 후방 연쇄(목표에서 필요한 데이터와 전제 조건으로) 방식으로 작동할 수 있다. Soar와 같은 더 발전된 지식 기반 시스템은 메타 수준 추론, 즉 문제 해결 방법을 결정하고 문제 해결 전략의 성공을 모니터링하는 측면에서 자신의 추론에 대해 추론하는 것도 수행할 수 있다.

블랙보드 시스템은 지식 기반 또는 전문가 시스템 아키텍처의 두 번째 유형이다. 이는 전문가 공동체가 가능한 곳에서 점진적으로 기여하여 문제를 해결하는 것을 모델링한다. 문제는 여러 수준의 추상화 또는 대안적 관점으로 표현된다. 전문가(지식 소스)는 기여할 수 있다고 인식할 때마다 자발적으로 서비스를 제공한다. 잠재적 문제 해결 행동은 문제 상황이 변할 때 갱신되는 안건에 표시된다. 제어기는 각 기여가 얼마나 유용한지, 누가 다음 문제 해결 행동을 해야 하는지를 결정한다. 한 예로, BB1 블랙보드 아키텍처[^2]는 원래 인간이 여행에서 여러 작업을 수행하기 위해 계획하는 방법에 대한 연구에서 영감을 받았다.[^3] BB1의 혁신은 제어 문제를 해결하는 데 동일한 블랙보드 모델을 적용한 것이었다. 즉, 제어기는 계획이나 문제 해결이 얼마나 잘 진행되고 있는지 모니터링하고 목표나 시간 같은 조건이 변할 때 한 전략에서 다른 전략으로 전환할 수 있는 지식 소스를 사용하여 메타 수준 추론을 수행했다. BB1은 건설 현장 계획, 지능형 교육 시스템, 실시간 환자 모니터링 등 여러 영역에 적용되었다.

두 번째 AI의 겨울, 1988–1993

AI 붐의 정점에서 Symbolics, LMI, Texas Instruments와 같은 회사들은 AI 응용 프로그램과 연구의 개발을 가속화하기 위해 특별히 설계된 LISP 머신을 판매하고 있었다. 또한 Teknowledge와 Inference Corporation 같은 여러 인공지능 회사들이 기업에 전문가 시스템 셸, 교육, 컨설팅을 판매하고 있었다.

불행히도 AI 붐은 지속되지 않았으며, 카우츠는 그 뒤를 이은 두 번째 AI의 겨울을 가장 잘 설명한다:

더 엄격한 기초의 추가, 1993–2011

불확실 추론

통계적 접근법과 논리의 확장 모두 시도되었다.

하나의 통계적 접근법인 은닉 마르코프 모델은 이미 1980년대에 음성 인식 연구에서 대중화되었다. 이후 1988년에 주디아 펄(Judea Pearl)은 저서 *지능 시스템에서의 확률적 추론: 개연적 추론 네트워크(Probabilistic Reasoning in Intelligent Systems: Networks of Plausible Inference)*를 출판하여 베이즈 네트워크를 불확실 추론을 처리하는 건전하면서도 효율적인 방법으로 대중화했으며, 베이즈 접근법은 전문가 시스템에 성공적으로 적용되었다. 더 나중인 1990년대에는 확률과 논리 공식을 결합하는 접근법인 통계적 관계 학습이 등장하여, 마르코프 논리 네트워크나 확률적 소프트 논리를 통해 확률을 1차 논리와 결합할 수 있게 되었다.

불확실성을 지원하기 위한 다른 비확률적 1차 논리 확장도 시도되었다. 예를 들어, 비단조 추론은 진리 유지 시스템과 함께 사용될 수 있었다. 진리 유지 시스템은 모든 추론에 대한 가정과 정당화를 추적했다. 가정이 틀린 것으로 밝혀지거나 모순이 도출되었을 때 추론을 철회할 수 있게 했다. 추론에 대한 설명은 그것을 생성하기 위해 어떤 규칙이 적용되었는지 설명한 다음, 근본 가정까지 기저 추론과 규칙을 계속 추적하여 제공할 수 있었다. 로트피 자데(Lotfi Zadeh)는 모호함의 표현을 처리하기 위한 다른 종류의 확장을 도입했다. 예를 들어, 사람이 얼마나 "무거운지" 또는 "키가 큰지"를 결정할 때, 명확한 "예" 또는 "아니오" 답이 없는 경우가 많으며, 무거움이나 키 큼에 대한 술어는 대신 0과 1 사이의 값을 반환한다. 그 값들은 술어가 어느 정도 참인지를 나타냈다. 그의 퍼지 논리는 또한 이러한 값들의 조합을 논리 공식을 통해 전파하는 수단을 제공했다.

기계 학습

기호적 기계 학습 접근법은 지식 획득 병목 현상을 해결하기 위해 연구되었다. 가장 초기의 것 중 하나가 Meta-DENDRAL이다. Meta-DENDRAL은 스펙트럼에 대해 검증할 타당한 규칙 가설을 생성하기 위해 생성-검증 기법을 사용했다. 영역 및 작업 지식은 테스트되는 후보의 수를 관리 가능한 크기로 줄였다. 파이겐바움은 Meta-DENDRAL을 다음과 같이 설명했다:

Meta-DENDRAL의 지식 집약적 접근법과 대조적으로, 로스 퀸란(Ross Quinlan)은 영역 독립적인 통계적 분류 접근법인 결정 트리 학습을 발명했으며, 처음에 ID3[^18]로 시작한 후 나중에 그 기능을 C4.5[^19]로 확장했다. 생성된 결정 트리는 인간이 해석할 수 있는 분류 규칙을 가진 유리 상자형의 해석 가능한 분류기이다.

기계 학습 이론의 이해에도 진보가 이루어졌다. 톰 미첼(Tom Mitchell)은 학습을 가설 공간에서의 탐색으로 묘사하는 버전 공간 학습을 도입했으며, 여기서 상위의 더 일반적인 경계와 하위의 더 구체적인 경계가 지금까지 본 예제와 일치하는 모든 가능한 가설을 포함한다.[^20] 보다 형식적으로, 밸리언트(Valiant)는 기계 학습의 수학적 분석을 위한 프레임워크인 아마도 대략적으로 올바른 학습(PAC Learning)을 도입했다.[^21]

기호적 기계 학습은 예제를 통한 학습 이상을 포함했다. 예를 들어, 존 앤더슨(John Anderson)은 기술 연습이 선언적 형식에서 절차적 형식으로의 규칙 컴파일을 초래하는 인간 학습의 인지 모델을 그의 ACT-R 인지 아키텍처를 통해 제공했다. 예를 들어, 학생은 "보각은 합이 180도인 두 각이다"를 여러 다른 절차적 규칙으로 학습할 수 있다. 예컨대, 한 규칙은 X와 Y가 보각이고 X를 알고 있다면 Y는 180 - X가 된다고 말할 수 있다. 그는 자신의 접근법을 "지식 컴파일"이라 불렀다. ACT-R은 학습과 기억과 같은 인간 인지의 측면을 모델링하는 데 성공적으로 사용되었다. ACT-R은 또한 인지 튜터라 불리는 지능형 교육 시스템에서 학교 아이들에게 기하학, 컴퓨터 프로그래밍, 대수학을 성공적으로 가르치는 데 사용된다.

귀납적 논리 프로그래밍은 입출력 예제로부터 논리 프로그램을 합성할 수 있게 하는 또 다른 학습 접근법이었다. 예를 들어, 에후드 샤피로(Ehud Shapiro)의 MIS(모델 추론 시스템)는 예제로부터 Prolog 프로그램을 합성할 수 있었다.[^22] 존 R. 코자(John R. Koza)는 유전 알고리즘을 프로그램 합성에 적용하여 유전 프로그래밍을 만들었으며, 이를 LISP 프로그램 합성에 사용했다. 마지막으로, 조하르 만나(Zohar Manna)와 리차드 왈딩거(Richard Waldinger)는 사양이 올바른 것을 증명하는 과정에서 함수형 프로그램을 합성하는 보다 일반적인 프로그램 합성 접근법을 제공했다.[^23]

논리의 대안으로, 로저 섕크는 사례 기반 추론(CBR)을 도입했다. 그의 저서 동적 기억(Dynamic Memory)[^4]에서 설명된 CBR 접근법은 먼저 향후 사용을 위해 핵심 문제 해결 사례를 기억하고 적절한 경우 이를 일반화하는 데 초점을 맞춘다. 새로운 문제에 직면하면 CBR은 가장 유사한 이전 사례를 검색하여 현재 문제의 구체적 상황에 맞게 조정한다.[^24] 논리의 또 다른 대안인 유전 알고리즘과 유전 프로그래밍은 진화적 학습 모델에 기반하며, 규칙 집합이 개체군으로 인코딩되고, 규칙이 개체의 행동을 지배하며, 여러 세대에 걸쳐 적합한 자의 선택이 부적합한 규칙 집합을 제거한다.[^25]

기호적 기계 학습은 개념, 규칙, 휴리스틱, 문제 해결의 학습에 적용되었다. 위에서 언급된 것 외의 접근법은 다음을 포함한다:

  1. 지시 또는 조언으로부터의 학습—즉, 조언으로 제시된 인간의 지시를 받아 특정 상황에서 이를 운용화하는 방법을 결정하는 것. 예를 들어, 하트 게임에서 "점수를 받지 않도록" 패를 정확히 어떻게 플레이할지 학습하는 것.[^26]
  2. 예시로부터의 학습—훈련 중 주제 전문가(SME)의 피드백을 받아 성능을 향상시키는 것. 문제 해결이 실패하면, 전문가에게 질의하여 문제 해결을 위한 새로운 예시를 학습하거나, 한 예시가 다른 예시보다 왜 더 관련이 있는지에 대한 새로운 설명을 학습한다. 예를 들어, Protos 프로그램은 청각학자와 상호작용하며 이명 사례를 진단하는 방법을 학습했다.[^27]
  3. 유추에 의한 학습—과거에 본 유사한 문제를 기반으로 문제 해결책을 구성한 다음, 새로운 상황이나 영역에 맞게 해결책을 수정하는 것.[^28][^29]
  4. 도제 학습 시스템—인간의 문제 해결을 관찰하여 문제에 대한 새로운 해결책을 학습하는 것. 영역 지식은 새로운 해결책이 왜 올바른지, 그리고 해결책이 어떻게 일반화될 수 있는지를 설명한다. LEAP는 인간 설계자를 관찰하여 VLSI 회로를 설계하는 방법을 학습했다.[^30]
  5. 발견에 의한 학습—즉, 실험을 수행할 과제를 만든 다음 결과로부터 학습하는 것. 예를 들어, 더그 레나트의 Eurisko는 2년 연속 트래블러(Traveller) 롤플레잉 게임에서 인간 플레이어를 이기기 위한 휴리스틱을 학습했다.[^31]
  6. 매크로 연산자 학습—즉, 기본 문제 해결 행동의 시퀀스에서 학습할 유용한 매크로 연산자를 탐색하는 것. 좋은 매크로 연산자는 더 추상적인 수준에서 문제를 해결할 수 있게 하여 문제 해결을 단순화한다.[^32]

딥러닝과 신경-기호 AI 2011–현재

딥러닝의 부상과 함께, 기호 AI 접근법은 딥러닝과 상호 보완적인 것으로 비교되어 왔다. "...AI 연구자들이 카너먼의 인간 추론과 의사결정에 관한 연구—그의 저서 *생각에 관한 생각(Thinking, Fast and Slow)*에 반영된—와 이른바 'AI 시스템 1과 2' 사이의 유사성을 여러 차례 지적해 왔으며, 이는 원칙적으로 각각 딥러닝과 기호 추론에 의해 모델링될 것이다." 이 관점에서 기호 추론은 숙고적 추론, 계획, 설명에 더 적합하고, 딥러닝은 잡음이 있는 데이터를 가진 지각 응용 분야에서의 빠른 패턴 인식에 더 적합하다.[^5][^6]

신경-기호 AI: 신경 및 기호 접근법의 통합

신경-기호 AI는 추론, 학습, 인지 모델링을 지원할 수 있는 강건한 AI를 지원하기 위해, 각각의 강점과 약점을 상호 보완적으로 해결하는 방식으로 신경 아키텍처와 기호 아키텍처를 통합하려 시도한다. 밸리언트와 많은 다른 연구자들이 주장하듯이, 풍부한 계산적 인지 모델의 효과적인 구축은 건전한 기호 추론과 효율적인 (기계) 학습 모델의 결합을 요구한다. 게리 마커스(Gary Marcus)도 유사하게 다음과 같이 주장한다: "하이브리드 아키텍처, 풍부한 사전 지식, 정교한 추론 기법의 삼위일체 없이는 적절하고 자동화된 방식으로 풍부한 인지 모델을 구축할 수 없다." 그리고 특히: "AI에 대한 강건하고 지식 주도적인 접근법을 구축하려면 우리의 도구 상자에 기호 조작의 기구가 있어야 한다. 유용한 지식의 너무 많은 부분이 추상적이어서 추상을 표현하고 조작하는 도구 없이는 해결할 수 없으며, 현재까지 그러한 추상적 지식을 신뢰성 있게 조작할 수 있는 것으로 알려진 유일한 기구는 기호 조작의 장치이다."

헨리 카우츠, 프란체스카 로시(Francesca Rossi), 바트 셀만(Bart Selman)도 종합을 주장해 왔다. 그들의 주장은 다니엘 카너먼(Daniel Kahneman)의 저서 *생각에 관한 생각(Thinking, Fast and Slow)*에서 논의된 두 종류의 사고를 해결할 필요에 기반한다. 카너먼은 인간의 사고를 시스템 1과 시스템 2의 두 구성 요소로 묘사한다. 시스템 1은 빠르고, 자동적이며, 직관적이고 무의식적이다. 시스템 2는 더 느리고, 단계적이며, 명시적이다. 시스템 1은 패턴 인식에 사용되는 종류이고, 시스템 2는 계획, 연역, 숙고적 사고에 훨씬 더 적합하다. 이 관점에서 딥러닝은 첫 번째 종류의 사고를 가장 잘 모델링하고, 기호 추론은 두 번째 종류를 가장 잘 모델링하며, 둘 다 필요하다.

가르세즈(Garcez)와 램(Lamb)은 이 분야의 연구가 그들의 2002년 신경기호 학습 시스템에 관한 저서에서부터 시작하여 최소 지난 20년간 진행되어 왔다고 설명한다. 신경-기호 추론에 관한 일련의 워크숍이 2005년부터 매년 개최되어 왔다.^33

가르세즈 등은 2015년 논문 *신경-기호 학습과 추론: 기여와 도전(Neural-Symbolic Learning and Reasoning: Contributions and Challenges)*에서 다음과 같이 주장한다:

통합을 위한 접근법은 다양하다. 헨리 카우츠의 신경-기호 아키텍처 분류와 몇 가지 예는 다음과 같다:

  • 기호 신경 기호(Symbolic Neural symbolic)—자연어 처리에서 많은 신경 모델의 현재 접근법으로, 단어나 하위 단어 토큰이 대규모 언어 모델의 궁극적인 입력이자 출력이 된다. 예로는 BERT, RoBERTa, GPT-3가 있다.
  • 기호신경—AlphaGo에서 예시되며, 기호적 기법이 신경 기법을 호출하는 데 사용된다. 이 경우 기호적 접근법은 몬테카를로 트리 탐색이며, 신경 기법은 게임 위치를 평가하는 방법을 학습한다.
  • 신경|기호(Neural|Symbolic)—신경 아키텍처를 사용하여 지각 데이터를 기호와 관계로 해석한 후, 이에 대해 기호적으로 추론한다.
  • 신경:기호 → 신경(Neural:Symbolic → Neural)—기호 추론을 사용하여 훈련 데이터를 생성하거나 레이블링한 후, 이를 딥러닝 모델이 학습한다. 예를 들어, Macsyma와 유사한 기호 수학 시스템을 사용하여 예제를 생성하거나 레이블링함으로써 기호 계산을 위한 신경 모델을 훈련시키는 것이다.
  • 신경_{기호}(Neural_{Symbolic})—기호 규칙에서 생성된 신경망을 사용한다. 한 예는 신경 정리 증명기(Neural Theorem Prover)[^34]로, 지식 베이스 규칙과 항에서 생성된 AND-OR 증명 트리로부터 신경망을 구성한다. 논리 텐서 네트워크(Logic Tensor Networks)[^35]도 이 범주에 속한다.
  • 신경기호—신경 모델이 기호 추론 엔진을 직접 호출할 수 있게 한다. 예를 들어, 행동을 수행하거나 상태를 평가하기 위해서이다.

많은 핵심 연구 질문이 남아 있으며, 예를 들면:

  • 신경 아키텍처와 기호 아키텍처를 통합하는 최선의 방법은 무엇인가?[^7]
  • 기호 구조는 신경망 내에서 어떻게 표현되고 추출되어야 하는가?
  • 상식 지식은 어떻게 학습되고 추론되어야 하는가?
  • 논리적으로 인코딩하기 어려운 추상적 지식은 어떻게 처리할 수 있는가?

기법과 기여

이 섹션에서는 위키백과의 다른 많은 상세 문서들로 이어지는 전반적인 맥락에서 기법과 기여에 대한 개요를 제공한다. 기계 학습과 불확실한 추론에 관한 섹션은 역사 섹션에서 앞서 다루고 있다.

AI 프로그래밍 언어

미국에서 마지막 기호 AI 붐 시기의 핵심 AI 프로그래밍 언어는 LISP였다. LISP는 FORTRAN에 이어 두 번째로 오래된 프로그래밍 언어로, 1958년 John McCarthy가 만들었다. LISP는 신속한 프로그램 개발을 지원하기 위한 최초의 읽기-평가-출력 루프(read-eval-print loop)를 제공했다. 컴파일된 함수와 인터프리트된 함수를 자유롭게 혼합할 수 있었다. 프로그램 추적, 단계 실행, 중단점 기능도 제공되었으며, 중단점이나 오류 발생 시 값이나 함수를 변경하고 계속 실행할 수 있는 기능도 함께 제공되었다. LISP는 최초의 자체 호스팅 컴파일러를 가졌는데, 이는 컴파일러 자체가 원래 LISP로 작성된 후 인터프리터 방식으로 실행되어 컴파일러 코드를 컴파일했음을 의미한다.

LISP가 개척하여 다른 프로그래밍 언어로 확산된 주요 혁신들은 다음과 같다:

  • 가비지 컬렉션
  • 동적 타이핑
  • 고차 함수
  • 재귀
  • 조건문 프로그램 자체가 다른 프로그램이 조작할 수 있는 데이터 구조였기 때문에, 상위 수준 언어의 정의가 용이했다.

미국과 대조적으로, 유럽에서 같은 시기의 핵심 AI 프로그래밍 언어는 Prolog였다. Prolog는 읽기-평가-출력 루프로 질의할 수 있는 사실과 절의 내장 저장소를 제공했다. 이 저장소는 지식 기반으로 기능할 수 있었고, 절은 규칙이나 제한된 형태의 논리로 기능할 수 있었다. 일차 논리의 부분 집합으로서 Prolog는 폐쇄 세계 가정—알려지지 않은 사실은 모두 거짓으로 간주—과 원시 항에 대한 고유 이름 가정—예를 들어, 식별자 barack_obama는 정확히 하나의 객체를 지칭하는 것으로 간주—을 가진 혼 절에 기반했다. 역추적과 단일화는 Prolog에 내장되어 있다.

Alain Colmerauer와 Philippe Roussel은 Prolog의 발명자로 인정받는다. Prolog는 Robert Kowalski가 발명한 논리 프로그래밍의 한 형태이다. 그 역사는 패턴 지향 메서드 호출을 갖춘 단언 데이터베이스인 Carl Hewitt의 PLANNER에도 영향을 받았다. 더 자세한 내용은 PLANNER 문서의 Prolog 기원 섹션을 참조하라.

Prolog는 또한 일종의 선언형 프로그래밍이기도 하다. 프로그램을 기술하는 논리 절이 직접 해석되어 지정된 프로그램을 실행한다. 명령형 프로그래밍 언어의 경우처럼 명시적인 일련의 동작이 필요하지 않다.

일본은 제5세대 프로젝트에서 Prolog를 지지하며 고성능을 위한 특수 하드웨어를 구축하고자 했다. 마찬가지로 LISP 머신도 LISP 실행을 위해 제작되었지만, 제2차 AI 붐이 침체로 전환되면서 이 회사들은 LISP나 Prolog를 비슷한 속도로 네이티브 실행할 수 있는 새로운 워크스테이션과 경쟁할 수 없었다. 더 자세한 내용은 역사 섹션을 참조하라.

Smalltalk도 영향력 있는 AI 프로그래밍 언어였다. 예를 들어, Smalltalk는 메타클래스를 도입했으며, Flavors 및 CommonLoops와 함께 현재 표준 Lisp 방언인 Common Lisp의 일부인 Common Lisp 객체 시스템, 즉 CLOS에 영향을 미쳤다. CLOS는 다중 상속을 허용하는 Lisp 기반 객체 지향 시스템으로, 클래스와 메타클래스 모두에 대한 점진적 확장도 지원하여 런타임 메타객체 프로토콜을 제공한다.

다른 AI 프로그래밍 언어에 대해서는 이 인공지능용 프로그래밍 언어 목록을 참조하라. 현재 다중 패러다임 프로그래밍 언어인 Python이 가장 인기 있는 프로그래밍 언어인데, 이는 부분적으로 데이터 과학, 자연어 처리, 딥러닝을 지원하는 광범위한 패키지 라이브러리 덕분이다. Python은 읽기-평가-출력 루프, 고차 함수와 같은 함수형 요소, 그리고 메타클래스를 포함하는 객체 지향 프로그래밍을 포함한다.

탐색

탐색은 계획 수립, 제약 조건 충족, 체커, 체스, 바둑과 같은 게임 플레이를 포함한 많은 종류의 문제 해결에서 발생한다. 가장 잘 알려진 AI 탐색 트리 탐색 알고리즘은 너비 우선 탐색, 깊이 우선 탐색, A*, 몬테카를로 탐색이다. 부울 충족 가능성을 위한 핵심 탐색 알고리즘은 WalkSAT, 충돌 주도 절 학습, DPLL 알고리즘이다. 게임 플레이 시 적대적 탐색을 위해서는 알파-베타 가지치기, 분기 한정법, 미니맥스가 초기 기여였다.

지식 표현과 추론

지식을 표현하고 그 표현을 이용하여 추론하는 여러 가지 접근법이 연구되어 왔다. 아래는 지식 표현과 자동 추론에 대한 접근법의 간략한 개요이다.

지식 표현

의미 네트워크, 개념 그래프, 프레임, 논리는 모두 도메인 지식, 문제 해결 지식, 언어의 의미적 의미와 같은 지식을 모델링하기 위한 접근법이다. 온톨로지는 도메인에서 핵심 개념과 그 관계를 모델링한다. 온톨로지의 예로는 YAGO, WordNet, DOLCE가 있다. DOLCE는 모든 도메인에 사용할 수 있는 상위 온톨로지의 예이며, WordNet은 온톨로지로도 볼 수 있는 어휘 자원이다. YAGO는 위키백과에서 추출한 사실을 WordNet 동의어 집합과 정렬하기 위해 온톨로지의 일부로 WordNet을 통합한다. 질병 온톨로지는 현재 사용되고 있는 의학 온톨로지의 예이다.

서술 논리는 온톨로지의 자동 분류와 불일치하는 분류 데이터를 탐지하기 위한 논리이다. OWL은 서술 논리로 온톨로지를 표현하는 데 사용되는 언어이다. Protégé는 OWL 온톨로지를 읽어들인 후 HermiT과 같은 연역적 분류기로 일관성을 검증할 수 있는 온톨로지 편집기이다.[^8]

일차 논리는 서술 논리보다 더 일반적이다. 아래에서 논의되는 자동 정리 증명기는 일차 논리에서 정리를 증명할 수 있다. 혼 절 논리는 일차 논리보다 더 제한적이며, Prolog와 같은 논리 프로그래밍 언어에서 사용된다. 일차 논리의 확장으로는 시간을 다루는 시제 논리, 에이전트 지식에 대해 추론하는 인식 논리, 가능성과 필연성을 다루는 양상 논리, 논리와 확률을 함께 다루는 확률적 논리가 있다.

자동 정리 증명

일차 논리를 위한 자동 정리 증명기의 예는 다음과 같다:

  • Prover9
  • ACL2
  • Vampire Prover9는 Mace4 모델 검사기와 함께 사용할 수 있다. ACL2는 귀납법에 의한 증명을 처리할 수 있는 정리 증명기로, Nqthm으로도 알려진 Boyer-Moore 정리 증명기의 후속이다.

지식 기반 시스템에서의 추론

지식 기반 시스템은 도메인 간 재사용성을 높이기 위해 절차적 코드와 도메인 지식을 분리하는, 일반적으로 규칙으로 구성된 명시적 지식 기반을 갖는다. 별도의 추론 엔진이 규칙을 처리하고 지식 저장소를 추가, 삭제 또는 수정한다.

전방 연쇄 추론 엔진이 가장 일반적이며, CLIPS와 OPS5에서 볼 수 있다. 후방 연쇄는 더 제한된 논리 표현인 혼 절이 사용되는 Prolog에서 발생한다. 패턴 매칭, 특히 단일화는 Prolog에서 사용된다.

더 유연한 종류의 문제 해결은 단순히 사용 가능한 행동 중 하나를 선택하는 것이 아니라, 다음에 무엇을 해야 할지에 대한 추론이 이루어질 때 발생한다. 이러한 종류의 메타 수준 추론은 Soar와 BB1 블랙보드 아키텍처에서 사용된다.

ACT-R과 같은 인지 아키텍처는 자주 사용되는 지식을 상위 수준 청크로 컴파일하는 능력과 같은 추가적인 기능을 가질 수 있다.

상식 추론

Marvin Minsky는 사무실과 같은 일반적인 시각적 상황을 해석하는 방법으로 프레임을 처음 제안했으며, Roger Schank은 이 아이디어를 외식과 같은 일반적인 루틴에 대한 스크립트로 확장했다. Cyc는 유용한 상식 지식을 포착하려 시도했으며, 특정 종류의 도메인별 추론을 처리하기 위한 "마이크로 이론"을 갖추고 있다.

Benjamin Kuipers의 QSIM[^9]과 같은 정성적 시뮬레이션은 냄비에 액체를 넣고 가열할 때 어떤 일이 일어나는지와 같은, 소박한 물리학에 대한 인간의 추론을 근사한다. 우리는 온도, 끓는점, 대기압과 같은 세부 사항을 모르더라도 액체가 가열되어 끓어넘칠 수 있다고 예상한다.

마찬가지로, Allen의 시간 구간 대수는 시간에 대한 추론의 단순화이며, 영역 연결 미적분(Region Connection Calculus)은 공간적 관계에 대한 추론의 단순화이다. 둘 다 제약 조건 해결기로 풀 수 있다.

제약 조건과 제약 기반 추론

제약 조건 해결기는 일차 논리보다 더 제한된 종류의 추론을 수행한다. RCC나 시간 대수에 대한 것과 같은 시공간 제약 조건 집합을 단순화할 수 있으며, Wordle, 스도쿠, 복면산 문제 등과 같은 다른 종류의 퍼즐 문제도 풀 수 있다. 제약 논리 프로그래밍은 예를 들어 제약 처리 규칙(CHR)을 사용하여 스케줄링 문제를 풀 수 있다.

자동 계획 수립

일반 문제 해결기(GPS)는 계획 수립을 문제 해결로 보고 수단-목적 분석을 사용하여 계획을 생성했다. STRIPS는 다른 접근법을 취하여 계획 수립을 정리 증명으로 보았다. Graphplan은 초기 상태에서 전방으로, 또는 목표 상태에서 후방으로 순차적으로 행동을 선택하는 것이 아니라, 최소 결정 접근법을 계획 수립에 적용한다. Satplan은 계획 수립 문제를 부울 충족 가능성 문제로 환원하는 계획 수립 접근법이다.

자연어 처리

자연어 처리는 의도된 의미를 반드시 이해하지 않고도 주제 식별과 같은 작업을 수행하기 위해 언어를 데이터로 취급하는 데 초점을 맞춘다. 이에 반해, 자연어 이해는 의미 표현을 구성하고 이를 질문 답변과 같은 추가 처리에 사용한다.

구문 분석, 토큰화, 맞춤법 교정, 품사 태깅, 명사구 및 동사구 청킹은 모두 오랫동안 기호 AI가 처리해 온 자연어 처리의 측면이지만, 이후 딥러닝 접근법에 의해 개선되었다. 기호 AI에서는 담화 표현 이론과 일차 논리가 문장 의미를 표현하는 데 사용되었다. 잠재 의미 분석(LSA)과 명시적 의미 분석도 문서의 벡터 표현을 제공했다. 후자의 경우, 벡터 구성 요소는 위키백과 문서로 명명된 개념으로 해석 가능하다.

Transformer 모델에 기반한 새로운 딥러닝 접근법은 이제 이러한 초기 기호 AI 접근법을 넘어서 자연어 처리에서 최첨단 성능을 달성했다. 그러나 Transformer 모델은 불투명하며 문장과 문서에 대해 인간이 해석 가능한 의미 표현을 아직 생성하지 못한다. 대신, 벡터 구성 요소의 의미가 불투명한 과제별 벡터를 생성한다.

에이전트와 다중 에이전트 시스템

에이전트는 어떤 의미에서 환경에 내장되어 이를 인지하고 행동하는 자율 시스템이다. Russell과 Norvig의 인공지능 표준 교과서는 점점 더 정교해지는 에이전트 아키텍처를 반영하도록 구성되어 있다. 에이전트의 정교함은 단순한 반응형 에이전트에서부터 세계 모델과 자동 계획 수립 능력을 갖춘 에이전트, 가능하면 BDI 에이전트—즉, 믿음, 욕구, 의도를 갖춘 에이전트—또는 대안적으로 시간에 걸쳐 행동을 선택하도록 학습된 강화 학습 모델, 나아가 인지를 위한 딥러닝을 포함하는 신경-기호 아키텍처[^7]와 같은 대안적 아키텍처의 조합[^36]에 이르기까지 다양하다.

이와 대조적으로, 다중 에이전트 시스템은 지식 질의 및 조작 언어(KQML)와 같은 에이전트 간 통신 언어를 통해 서로 소통하는 다수의 에이전트로 구성된다. 에이전트들이 모두 동일한 내부 아키텍처를 가질 필요는 없다. 다중 에이전트 시스템의 장점으로는 에이전트 간 작업 분배 능력과 에이전트 손실 시 내결함성 향상이 있다. 연구 문제에는 에이전트가 합의에 도달하는 방법, 분산 문제 해결, 다중 에이전트 학습, 다중 에이전트 계획 수립, 분산 제약 최적화가 포함된다.

논쟁

기호주의 AI에서는 초기부터 논쟁이 발생했다. 이는 분야 내부에서—예를 들어 논리주의자(논리를 옹호하는 "정돈파(neats)")와 비논리주의자(논리를 반대하는 "난잡파(scruffies)") 사이—그리고 AI를 수용하면서도 기호주의적 접근을 거부하는 이들—주로 연결주의자—과 분야 외부의 비판자들 사이에서 모두 일어났다. 분야 외부에서의 비판은 주로 철학자들로부터 지적 근거에 기반하여 이루어졌으나, 특히 두 번의 AI 겨울 동안에는 자금 지원 기관으로부터도 제기되었다.

프레임 문제: 일차 논리를 위한 지식 표현의 과제

동적 영역에 대해 추론하기 위해 단순한 일차 논리를 사용하는 것에서 한계가 발견되었다. 행동이 성공하기 위한 전제 조건을 열거하는 것과 행동이 수행된 후 변하지 않는 것에 대한 공리를 제공하는 것 모두에서 문제가 발견되었다.

매카시와 헤이즈는 1969년 "인공지능의 관점에서 본 몇 가지 철학적 문제(Some Philosophical Problems from the Standpoint of Artificial Intelligence)"라는 논문에서 프레임 문제를 도입했다. 간단한 예로 "한 사람이 다른 사람과 대화를 시작할 수 있음을 증명"하는 경우가 있는데, 연역을 성공시키려면 "한 사람이 전화기를 가지고 있다면 전화번호부에서 번호를 찾은 후에도 여전히 그것을 가지고 있다"는 공리가 필요하다. 다른 영역의 행동에 대해서도 무엇이 변하지 않았는지를 명시하기 위해 유사한 공리가 필요할 것이다.

한정 문제(Qualification Problem)라 불리는 유사한 문제는 행동이 성공하기 위한 전제 조건을 열거하려 할 때 발생한다. 무한히 많은 병리적 조건이 상상될 수 있는데, 예를 들어 배기관에 바나나가 끼어 있으면 자동차가 제대로 작동하지 않을 수 있다.

프레임 문제를 해결하기 위한 매카시의 접근법은 한정법(circumscription)이었는데, 이는 비단조 논리의 일종으로, 변할 것만 명시하면 되고 변하지 않을 모든 것을 명시적으로 기술할 필요 없이 행동으로부터 연역을 수행할 수 있는 방법이었다. 다른 비단조 논리들은 모순으로 이어지는 믿음을 수정하는 진리 유지 시스템을 제공했다.

더 개방적인 영역을 다루는 다른 방법에는 확률적 추론 시스템과 새로운 개념 및 규칙을 학습하기 위한 기계 학습이 포함되었다. 매카시의 조언 수용기(Advice Taker)는 이에 대한 영감으로 볼 수 있는데, 이는 인간이 주장이나 규칙의 형태로 제공한 새로운 지식을 통합할 수 있었기 때문이다. 예를 들어, 실험적 기호주의 기계 학습 시스템은 고수준의 자연어 조언을 받아들여 이를 영역 특화된 실행 가능한 규칙으로 해석하는 능력을 탐구했다.

동적 영역을 다루는 문제와 유사하게, 상식적 추론도 형식적 추론으로 포착하기 어렵다. 상식적 추론의 예로는 사람들이 어떻게 생각하는지에 대한 암묵적 추론이나 일상적인 사건, 사물, 생물에 대한 일반적인 지식이 포함된다. 이러한 종류의 지식은 당연하게 여겨지며 주목할 만한 것으로 간주되지 않는다. 상식적 추론은 기호주의 시스템(예: Cyc는 10년 이상에 걸쳐 이 지식의 핵심 부분을 포착하려 시도해 왔다)과 신경망 시스템(예: 콘을 향해 돌진하지 말아야 한다거나 자전거를 끌고 가는 보행자를 치지 말아야 한다는 것을 모르는 자율주행차) 모두에게 열린 연구 영역이자 도전적인 과제이다.

매카시는 자신의 조언 수용기가 상식을 갖추고 있다고 보았지만, 그의 상식 정의는 위의 것과 달랐다. 그는 프로그램이 상식을 가진다는 것을 "전달받은 것과 이미 알고 있는 것으로부터 충분히 넓은 범주의 즉각적인 결론을 자동으로 도출할 수 있는 경우"라고 정의했다.

연결주의 AI: 철학적 도전과 사회학적 갈등

연결주의적 접근법에는 퍼셉트론과 같은 신경망에 대한 초기 연구, 대니 힐리스의 커넥션 머신과 얀 르쿤의 합성곱 신경망 발전 같은 80년대 중후반의 연구, 그리고 트랜스포머, GAN 및 기타 딥러닝의 더 진보된 오늘날의 접근법이 포함된다.

연결주의자들 사이에서 세 가지 철학적 입장이 제시되었다:

  1. 구현주의—연결주의 아키텍처가 기호 처리를 위한 능력을 구현한다는 입장,
  2. 급진적 연결주의—기호 처리를 완전히 거부하고, 연결주의 아키텍처가 지능의 기반이 되며 이를 설명하는 데 완전히 충분하다는 입장,
  3. 온건한 연결주의—기호 처리와 연결주의 아키텍처가 상호 보완적이며 지능을 위해 둘 다 필요하다는 입장.

올라사란은 신경망 커뮤니티 내 논쟁의 사회학적 역사에서 온건한 연결주의 관점을 본질적으로 현재의 신경-기호 하이브리드 연구와 양립 가능한 것으로 기술했다:> 여기서 검토하고자 하는 세 번째이자 마지막 입장은 내가 온건한 연결주의 관점이라 부르는 것으로, 연결주의와 기호주의 AI 사이의 현재 논쟁에 대한 보다 절충적인 관점이다. 이 입장을 가장 명확하게 발전시킨 연구자 중 한 명은 서섹스 대학교(영국 브라이턴) 인지 및 컴퓨팅 과학대학의 철학자인 앤디 클라크이다. 클라크는 하이브리드(부분적으로 기호주의적이고 부분적으로 연결주의적인) 시스템을 옹호했다. 그는 인지를 연구하고 모델링하기 위해 (적어도) 두 종류의 이론이 필요하다고 주장했다. 한편으로, 일부 정보 처리 과제(패턴 인식 등)에서 연결주의는 기호주의 모델에 비해 장점이 있다. 그러나 다른 한편으로, 다른 인지 과정(순차적, 연역적 추론 및 생성적 기호 조작 과정 등)에서는 기호주의 패러다임이 적절한 모델을 제공하며, 단순한 "근사"가 아니다(급진적 연결주의자들이 주장하는 것과는 반대로).

게리 마커스는 딥러닝 커뮤니티에서 기호주의적 접근에 대한 현재의 적대감이 철학적이라기보다는 사회학적일 수 있다고 주장했다:> 기호 조작을 단순히 포기할 수 있다고 생각하는 것은 불신을 유보하는 것이다.

...

그 이후로 그의 반기호주의 캠페인은 강도만 더해졌다. 2016년에 얀 르쿤, 벤지오, 그리고 힌튼은 과학에서 가장 중요한 저널 중 하나인 네이처에 딥러닝을 위한 선언문을 발표했다. 그것은 기호 조작에 대한 직접적인 공격으로 마무리되었으며, 화해가 아닌 완전한 대체를 요구했다. 이후 힌튼은 유럽연합 지도자들 모임에서 기호 조작 접근법에 더 이상 자금을 투자하는 것은 "거대한 실수"이며, 전기차 시대에 내연기관에 투자하는 것과 같다고 말했다.

이러한 논쟁의 일부는 불명확한 용어에 기인할 수 있다:

튜링상 수상자 주디아 펄은 기계 학습에 대한 비판을 제시하는데, 안타깝게도 기계 학습과 딥러닝이라는 용어를 혼동하고 있다. 마찬가지로, 제프리 힌튼이 기호주의 AI를 언급할 때, 그 용어의 함의는 학습 능력이 전혀 없는 전문가 시스템을 가리키는 경향이 있다. 용어 사용에는 명확화가 필요하다. 기계 학습은 연관 규칙 마이닝에 국한되지 않는다. 기호주의 기계 학습과 관계형 학습에 대한 연구 전체를 참조하라(딥러닝과의 차이점은 표현의 선택—분산적이 아닌 지역적이고 논리적인—과 경사도 기반 학습 알고리즘을 사용하지 않는 것이다). 마찬가지로, 기호주의 AI는 수작업으로 작성된 생성 규칙만을 의미하지 않는다. AI의 적절한 정의는 지식 표현과 추론, 자율 다중 에이전트 시스템, 계획 및 논증, 그리고 학습을 포함한다.이론적 관점에서 볼 때, 연결주의 AI와 기호주의 AI 사이의 장점의 경계가 보이는 것만큼 명확하지 않을 수 있다는 점은 주목할 가치가 있다. 예를 들어, 헝 장(Heng Zhang)과 그의 동료들은 주류 지식 표현 형식체계들이 보편적이거나 동등한 표현력을 가질 경우 재귀적으로 동형임을 증명했다.[^37] 이 발견은 인공 일반 지능(AGI)의 실현을 위해 기호주의적 또는 연결주의적 지식 표현 형식체계를 사용하는 것 사이에 근본적인 구별이 없음을 시사한다. 또한, 재귀적 동형의 존재는 서로 다른 기술적 접근법이 상호 통찰을 얻을 수 있음을 시사한다. 이러한 관점에서, 어떤 단일 기술 학파의 장점을 지나치게 강조하는 것은 불필요해 보이며, 오히려 상호 학습과 통합이 AGI 실현을 위한 가장 유망한 경로를 제시할 수 있다.

상황 로봇공학: 모델로서의 세계

기호주의 AI에 대한 또 다른 비판은 체화된 인지 접근법이다:

로드니 브룩스는 체화된 인지에 대한 한 가지 접근법인 행동 기반 로봇공학을 발명했다. 이 접근법의 또 다른 이름인 누벨 AI(Nouvelle AI)는 기호주의 AI와 연결주의 AI 모두에 대한 대안으로 간주된다. 그의 접근법은 기호적이든 분산적이든 표현 자체를 불필요할 뿐만 아니라 해로운 것으로 거부했다. 대신, 그는 체화된 에이전트를 위한 계층적 아키텍처인 포섭 아키텍처(subsumption architecture)를 만들었다. 각 계층은 서로 다른 목적을 달성하며 현실 세계에서 기능해야 한다. 예를 들어, 그가 *표현 없는 지능(Intelligence Without Representation)*에서 기술하는 첫 번째 로봇은 세 개의 계층을 가진다. 최하위 계층은 물체를 피하기 위해 소나 센서를 해석한다. 중간 계층은 장애물이 없을 때 로봇이 돌아다니게 한다. 최상위 계층은 추가 탐험을 위해 더 먼 곳으로 이동하게 한다. 각 계층은 하위 계층을 일시적으로 억제하거나 억압할 수 있다. 그는 AI 연구자들이 자신들의 시스템을 위해 AI 문제를 정의하는 것을 비판했는데: "현실 세계에서 인식(추상화)과 추론 사이에는 깔끔한 구분이 없다." 그는 자신의 로봇을 "피조물(Creatures)"이라 불렀고, 각 계층은 "고정된 토폴로지의 단순한 유한 상태 기계 네트워크로 구성"되었다. 누벨 AI 접근법에서, "첫째로, 우리가 만드는 피조물을 현실 세계에서, 즉 우리 인간이 살고 있는 바로 그 세계에서 테스트하는 것이 매우 중요하다. 나중에 비단순화된 세계로 활동을 이전하겠다는 최선의 의도를 가지고 있더라도, 먼저 단순화된 세계에서 테스트하는 유혹에 빠지는 것은 치명적이다." 현실 세계 테스트에 대한 그의 강조는 "AI의 초기 연구가 게임, 기하학적 문제, 기호 대수, 정리 증명 및 기타 형식적 시스템에 집중"했던 것과 SHRDLU와 같은 기호주의 AI 시스템에서의 블록 세계 사용과 대조되었다.

현재의 관점

각 접근법—기호주의, 연결주의, 행동 기반—은 장점이 있지만 다른 접근법들로부터 비판을 받아왔다. 기호주의 AI는 비체화적이고, 한정 문제에 취약하며, 딥러닝이 뛰어난 지각 문제 처리에 약하다는 비판을 받아왔다. 반면, 연결주의 AI는 심사숙고적인 단계별 문제 해결, 지식 통합, 계획 처리에 부적합하다는 비판을 받아왔다. 마지막으로, 누벨 AI는 반응적이고 현실 세계 로봇공학 영역에서 뛰어나지만 학습과 지식 통합의 어려움에 대해 비판을 받아왔다.

이러한 접근법 중 하나 이상을 통합하는 하이브리드 AI가 현재 발전의 경로로 간주되고 있다. 러셀과 노빅은 다음과 같이 결론짓는다:> 전체적으로, 드레이퍼스는 AI가 완전한 답을 가지고 있지 않은 영역을 발견하고 그래서 AI는 불가능하다고 말했다; 이제 우리는 이와 동일한 영역들 중 다수가 불가능성이 아닌 능력의 증대로 이어지는 지속적인 연구와 개발을 겪고 있음을 본다.

같이 보기

  • 인공지능
  • 자동 계획 및 스케줄링
  • 자동 정리 증명
  • 믿음 수정
  • 사례 기반 추론
  • 인지 아키텍처
  • 인지과학
  • 연결주의
  • 제약 프로그래밍
  • 딥러닝
  • 1차 논리
  • GOFAI
  • 인공지능의 역사
  • 귀납 논리 프로그래밍
  • 지식 기반 시스템
  • 지식 표현 및 추론
  • 논리 프로그래밍
  • 기계 학습
  • 모델 검사
  • 모델 기반 추론
  • 다중 에이전트 시스템
  • 자연어 처리
  • 신경-기호 AI
  • 온톨로지
  • 인공지능의 철학
  • 물리적 기호 시스템 가설
  • 시맨틱 웹
  • 순차 패턴 마이닝
  • 통계적 관계 학습
  • 기호 수학
  • YAGO 온톨로지
  • WordNet

주석

출처

      • .


참고 문헌

[^1]: Cite journal doi = 10.1145/1743546.1743564 issn = 0001-0782 volume = 53 issue = 6 pages = 41–45 last = Shustek first = Len title = Ed Feigenbaum과의 인터뷰 journal = Communications of

[^2]: Cite journal doi = 10.1016/0004-3702(85)90063-3 volume = 26 issue = 3 pages = 251–321 last = Hayes-Roth first = Barbara title = 제어를 위한 블랙보드 아키텍처 journal = Artificial Intel

[^3]: Cite conference publisher = RAND last = Hayes-Roth first = Barbara title = 인간의 계획 과정 date = 1980

[^4]: Cite book publisher = Cambridge University Press isbn = 978-0-521-27029-8 last = Schank first = Roger C. title = 동적 기억: 컴퓨터와 사람의 회상 및 학습 이론 locati

[^5]: Rossi, Francesca. AI에서의 빠른 사고와 느린 사고. AAAI

[^6]: Selman, Bart. AAAI 회장 연설: AI의 현황. AAAI

[^7]: Garcez, Artur d'Avila. 신경-기호 인지 추론. Springer

[^8]: Cite journal doi = 10.1613/jair.2811 doi-access = free issn = 1076-9757 volume = 36 pages = 165–228 last1 = Motik first1 = Boris last2 = Shearer first2 = Rob last3 = Horrocks first3 = Ian

[^9]: Cite book publisher = MIT Press isbn = 978-0-262-51540-5 last = Kuipers first = Benjamin title = 정성적 추론: 불완전한 지식을 이용한 모델링과 시뮬레이션 date = 1994

[^10]: Garnelo, Marta. 심층 학습과 기호적 인공지능의 조화: 객체와 관계의 표현. (2019년 10월)

[^11]: Thomason, Richmond. 논리 기반 인공지능. (2024년 2월 27일)

[^12]: Garnelo, Marta. 심층 학습과 기호적 인공지능의 조화: 객체와 관계의 표현. (2019-10-01)

[^13]: Newell, Allen. 경험적 탐구로서의 컴퓨터 과학: 기호와 탐색. (1976-03-01)

[^14]: cite journal doi = 10.1038/323533a0 issn = 1476-4687 volume = 323 issue = 6088 pages = 533–536 last1 = Rumelhart first1 = David E. last2 = Hinton first2 = Geoffrey E. last3 = Williams first

[^15]: Cite journal volume = 1 issue = 4 pages = 541–551 last1 = LeCun first1 = Y. last2 = Boser first2 = B. last3 = Denker first3 = I. last4 = Henderson first4 = D. last5 = Howard first5 = R.

[^16]: Zhang, Heng. 지식 표현을 위한 형식 체계 이론. (2025-04-11)

[^17]: AI의 매력: 인공지능이란 무엇인가?

[^18]: Quinlan, J. Ross

[^19]: Cite book edition = 1st publisher = Morgan Kaufmann isbn = 978-1-55860-238-0 last = Quinlan first = J. Ross title = C4.5: 기계 학습을 위한 프로그램 location = San Mateo, Calif date = 1992

[^20]: Mitchell, Tom M.

[^21]: Cite journal doi = 10.1145/1968.1972 issn = 0001-0782 volume = 27 issue = 11 pages = 1134–1142 last = Valiant first = L. G. title = 학습 가능성 이론 journal = Communications of the A

[^22]: Cite conference conference = IJCAI volume = 2 pages = 1064 last = Shapiro first = Ehud Y title = 모델 추론 시스템 book-title = 제7회 인공지능 국제 합동 학회 논문집

[^23]: Cite journal doi = 10.1145/357084.357090 volume = 2 pages = 90–121 last1 = Manna first1 = Zohar last2 = Waldinger first2 = Richard title = 프로그램 합성에 대한 연역적 접근 journal =

[^24]: Cite book publisher = Academic Press isbn = 978-0-12-322060-8 last = Hammond first = Kristian J. title = 사례 기반 계획: 계획을 기억 과제로 바라보기 location = Boston date = 1989-04-

[^25]: Cite book edition = 1st publisher = A Bradford Book isbn = 978-0-262-11170-6 last = Koza first = John R. title = 유전 프로그래밍: 자연 선택에 의한 컴퓨터 프로그래밍

[^26]: Mostow, David Jack

[^27]: Bareiss, Ray

[^28]: Carbonell, Jaime

[^29]: Carbonell, Jaime

[^30]: Mitchell, Tom

[^31]: Lenat, Douglas

[^32]: Cite book publisher = Pitman Publishing isbn = 0-273-08690-1 last = Korf first = Richard E. title = 매크로 연산자 탐색을 통한 문제 해결 학습 series = Research Notes in Artific

[^34]: Cite conference publisher = Association for Computational Linguistics doi = 10.18653/v1/W16-1309 pages = 45–50 last1 = Rocktäschel first1 = Tim last2 = Riedel first2 = Sebastian title = 학습

[^35]: Citation arxiv = 1606.04422 last1 = Serafini first1 = Luciano last2 = Garcez first2 = Artur d'Avila title = 논리 텐서 네트워크: 데이터와 지식으로부터의 심층 학습 및 논리적 추론 da

[^36]: Leo de Penning, Artur S. d'Avila Garcez, Luís C. Lamb, John-Jules Ch. Meyer: "온라인 학습 및 추론을 위한 신경-기호 인지 에이전트." IJCAI 2011: 1653-1658

[^37]: Zhang, Heng. 지식 표현을 위한 형식 체계 이론. (2025-04-11)