인공지능(AI)은 학습, 추론, 문제 해결, 인식, 의사결정 등 일반적으로 인간 지능과 관련된 과제를 수행하는 컴퓨팅 시스템의 능력이다. 인공지능은 공학, 수학, 컴퓨터 과학 분야의 연구 영역으로, 기계가 주변 환경을 인식하고 학습과 지능을 활용하여 정의된 목표 달성 가능성을 최대화하는 행동을 취할 수 있게 하는 방법과 소프트웨어를 개발하고 연구한다.

인공지능의 상징적 표현 출처: Wikimedia Commons, Public domain

인공지능의 대표적인 응용 사례로는 고급 웹 검색 엔진, 챗봇, 가상 비서, 자율주행차, 전략 게임(예: 체스, 바둑)에서의 플레이 및 분석 등이 있다. 2020년대 이후 생성형 AI가 널리 보급되어 텍스트 프롬프트로부터 이미지, 오디오, 비디오를 생성할 수 있게 되었다.

AI 연구의 전통적인 목표에는 학습, 추론, 지식 표현, 계획 수립, 자연어 처리, 인식이 포함되며, 로봇 공학에 대한 지원도 포함된다. 이러한 목표를 달성하기 위해 AI 연구자들은 상태 공간 탐색 및 수학적 최적화, 형식 논리, 인공 신경망, 그리고 통계학, 운영 연구, 경제학에 기반한 방법 등의 기법을 사용해 왔다. AI는 또한 심리학, 언어학, 철학, 신경과학 및 기타 분야에서도 지식을 차용한다. OpenAI, 구글 딥마인드, 메타 등 일부 기업은 인간만큼 또는 그 이상으로 거의 모든 인지 과제를 수행할 수 있는 AI인 범용 인공지능(AGI) 개발을 목표로 하고 있다.

인공지능은 1956년 학술 분야로 설립되었으며, 그 역사를 통해 여러 차례의 낙관론 주기를 거쳤고, 그 뒤에는 실망과 자금 손실의 시기가 이어졌는데 이를 AI 겨울이라 한다. 2012년 이후 그래픽 처리 장치(GPU)가 신경망 가속에 사용되기 시작하고, 딥러닝이 이전 AI 기술을 능가하면서 자금과 관심이 크게 증가했다. 이러한 성장은 2017년 트랜스포머 아키텍처의 등장 이후 더욱 가속화되었다. 2020년대에는 미디어의 생성과 수정을 가능하게 한 생성형 AI의 발전과 함께 AI 붐이 일어났다. AI 안전성, 의도하지 않은 결과 및 AI 사용으로 인한 피해 외에도, 윤리적 우려, AI의 장기적 영향, 잠재적 실존적 위험이 AI 규제에 대한 논의를 촉발시켰다.

목표

지능을 시뮬레이션(또는 창조)하는 일반적인 문제는 여러 하위 문제로 분류되어 왔다. 이는 연구자들이 지능형 시스템에서 보여주기를 기대하는 특정 특성이나 능력으로 구성된다. 아래에 설명된 특성들은 가장 많은 관심을 받아왔으며 AI 연구의 범위를 포괄한다.

추론과 문제 해결

초기 연구자들은 인간이 퍼즐을 풀거나 논리적 추론을 할 때 사용하는 단계별 추론을 모방하는 알고리즘을 개발했다. 1980년대 후반과 1990년대에는 확률과 경제학의 개념을 활용하여 불확실하거나 불완전한 정보를 다루는 방법이 개발되었다.

이러한 알고리즘의 상당수는 대규모 추론 문제를 해결하기에 불충분한데, '조합 폭발'이 발생하기 때문이다. 즉, 문제가 커질수록 기하급수적으로 느려진다. 심지어 인간조차도 초기 AI 연구가 모델링할 수 있었던 단계별 추론을 거의 사용하지 않는다. 인간은 대부분의 문제를 빠르고 직관적인 판단으로 해결한다. 정확하고 효율적인 추론은 여전히 미해결 문제이다.

지식 표현

지식 표현과 지식 공학은 AI 프로그램이 질문에 지능적으로 답하고 실세계 사실에 대한 추론을 할 수 있게 한다. 형식적 지식 표현은 내용 기반 색인 및 검색, 장면 해석, 임상 의사결정 지원, 지식 발견(대규모 데이터베이스에서 "흥미롭고" 실행 가능한 추론을 추출하는 것) 및 기타 영역에서 사용된다.

지식 기반은 프로그램이 사용할 수 있는 형태로 표현된 지식의 집합체이다. 온톨로지는 특정 지식 영역에서 사용되는 객체, 관계, 개념, 속성의 집합이다. 지식 기반은 객체, 속성, 범주, 객체 간의 관계, 상황, 사건, 상태 및 시간, 원인과 결과, 지식에 대한 지식(다른 사람들이 무엇을 알고 있는지에 대해 우리가 아는 것), 기본 추론(인간이 달리 말하기 전까지 참이라고 가정하며 다른 사실이 변해도 여전히 참인 것들), 그리고 지식의 다른 많은 측면과 영역을 표현할 수 있어야 한다.

지식 표현에서 가장 어려운 문제 중에는 상식적 지식의 방대함(보통 사람이 아는 원자적 사실의 집합은 엄청나게 크다)과 대부분의 상식적 지식의 하위 상징적 형태(사람들이 아는 것의 상당 부분은 그들이 언어로 표현할 수 있는 "사실"이나 "진술"로 표현되지 않는다)가 있다. 또한 지식 획득의 어려움, 즉 AI 응용을 위한 지식을 얻는 문제도 있다.

계획 수립과 의사결정

"에이전트"는 세계를 인식하고 행동을 취하는 모든 주체(인공적이든 아니든)를 말한다. 합리적 에이전트는 목표나 선호를 가지고 이를 실현하기 위해 행동을 취한다. 자동 계획 수립에서 에이전트는 특정 목표를 가진다. 자동 의사결정에서 에이전트는 선호를 가진다 — 선호하는 상황이 있고, 피하려는 상황이 있다. 의사결정 에이전트는 각 상황에 에이전트가 얼마나 그것을 선호하는지를 측정하는 숫자("효용"이라 불림)를 부여한다. 각 가능한 행동에 대해 "기대 효용"을 계산할 수 있다. 이는 행동의 모든 가능한 결과의 효용에 그 결과가 발생할 확률을 가중한 값이다. 그런 다음 기대 효용이 최대인 행동을 선택할 수 있다.

고전적 계획 수립에서 에이전트는 어떤 행동의 효과가 무엇인지 정확히 안다. 그러나 대부분의 현실 세계 문제에서 에이전트는 자신이 처한 상황에 대해 확신하지 못할 수 있고("알 수 없는" 또는 "관측 불가능한" 상태), 각 가능한 행동 후에 무엇이 일어날지 확실히 알지 못할 수 있다("결정론적"이지 않다). 에이전트는 확률적 추측을 통해 행동을 선택한 후, 상황을 재평가하여 행동이 효과가 있었는지 확인해야 한다.

이전 결정에 기반한 철저한 테스트 및 개선과 함께, 에이전트가 특정 결정을 내린 이유에 대한 설명을 갖추는 것은 신뢰를 구축하는 방법이며, 특히 그 결정에 의존해야 할 때 중요하다.

일부 문제에서는 에이전트의 선호가 불확실할 수 있는데, 특히 다른 에이전트나 인간이 관여하는 경우 그러하다. 이러한 선호는 학습될 수 있으며(예: 역강화학습을 통해), 또는 에이전트가 선호를 개선하기 위해 정보를 탐색할 수 있다. 정보 가치 이론은 탐색적 또는 실험적 행동의 가치를 평가하는 데 사용될 수 있다. 가능한 미래 행동과 상황의 공간은 일반적으로 다루기 어려울 정도로 크므로, 에이전트는 결과가 어떻게 될지 불확실한 상태에서 행동을 취하고 상황을 평가해야 한다.

마르코프 결정 과정은 특정 행동이 특정 방식으로 상태를 변경할 확률을 설명하는 전이 모델과 각 상태의 효용 및 각 행동의 비용을 제공하는 보상 함수를 가진다. 정책은 각 가능한 상태에 대한 결정을 연결한다. 정책은 계산될 수 있고(예: 반복을 통해), 휴리스틱일 수 있으며, 학습될 수도 있다.

게임 이론은 여러 상호작용하는 에이전트의 합리적 행동을 설명하며, 다른 에이전트가 관여하는 의사결정을 하는 AI 프로그램에서 사용된다.

학습

지도 학습과 비지도 학습의 차이 출처: Wikimedia Commons, CC BY-SA 4.0

기계 학습은 주어진 과제에서 자동으로 성능을 향상시킬 수 있는 프로그램에 대한 연구이다. 이는 처음부터 AI의 일부였다.

기계 학습에는 여러 종류가 있다. 비지도 학습은 데이터 스트림을 분석하여 다른 안내 없이 패턴을 찾고 예측을 한다. 지도 학습은 훈련 데이터에 예상 답을 레이블링해야 하며, 두 가지 주요 유형이 있다: 분류(프로그램이 입력이 어떤 범주에 속하는지 예측하는 법을 배워야 하는 것)와 회귀(프로그램이 수치적 함수를 추론해야 하는 것)이다.