패턴 인식

최종 수정 2026.03.25

패턴 인식은 데이터에서 추출된 패턴을 기반으로 관측값에 클래스를 할당하는 작업이다. 유사하지만, 패턴 인식(PR)은 패턴 머신(PM)과 혼동해서는 안 된다. 패턴 머신은 패턴 인식 기능을 갖출 수 있지만, 그 주요 기능은 창발적 패턴을 구별하고 생성하는 것이다. 패턴 인식은 통계 데이터 분석, 신호 처리, 이미지 분석, 정보 검색, 생물정보학, 데이터 압축, 컴퓨터 그래픽스 및 기계 학습에 응용된다. 패턴 인식은 통계학과 공학에서 기원하였으며, 패턴 인식에 대한 일부 현대적 접근 방식에는 빅데이터의 가용성 증가와 새로운 처리 능력의 풍부함으로 인해 기계 학습의 사용이 포함된다.

패턴 인식 시스템은 일반적으로 레이블이 지정된 "훈련" 데이터로부터 훈련된다. 레이블이 지정된 데이터가 없는 경우, 다른 알고리즘을 사용하여 이전에 알려지지 않은 패턴을 발견할 수 있다. KDD와 데이터 마이닝은 비지도 방법에 더 큰 초점을 두며 비즈니스 활용과 더 강한 연관성을 갖는다. 패턴 인식은 신호에 더 초점을 맞추며 데이터 획득과 신호 처리도 고려한다. 이 분야는 공학에서 기원하였으며, 이 용어는 컴퓨터 비전의 맥락에서 널리 사용된다. 대표적인 컴퓨터 비전 학회의 이름이 컴퓨터 비전 및 패턴 인식 학회(Conference on Computer Vision and Pattern Recognition)이다.

기계 학습에서 패턴 인식은 주어진 입력값에 레이블을 할당하는 것이다. 통계학에서는 같은 목적으로 1936년에 판별 분석이 도입되었다. 패턴 인식의 한 예로 분류가 있는데, 이는 각 입력값을 주어진 클래스 집합 중 하나에 할당하려는 시도이다(예를 들어, 주어진 이메일이 "스팸"인지 판별하는 것). 패턴 인식은 다른 유형의 출력도 포괄하는 더 일반적인 문제이다. 다른 예로는 각 입력에 실수값 출력을 할당하는 회귀 분석,[^3] 값의 시퀀스에서 각 구성원에 클래스를 할당하는 시퀀스 레이블링[^4](예를 들어, 입력 문장의 각 단어에 품사를 할당하는 품사 태깅), 그리고 입력 문장에 구문 트리를 할당하여 문장의 통사적 구조를 기술하는 구문 분석이 있다.[^5]

패턴 인식 알고리즘은 일반적으로 모든 가능한 입력에 대해 합리적인 답을 제공하고, 통계적 변동을 고려하여 입력의 "가장 가능성 높은" 매칭을 수행하는 것을 목표로 한다. 이는 기존 패턴과 입력의 정확한 일치를 찾는 패턴 매칭 알고리즘과 대조된다. 패턴 매칭 알고리즘의 일반적인 예로는 정규 표현식 매칭이 있는데, 이는 텍스트 데이터에서 주어진 종류의 패턴을 찾으며 많은 텍스트 편집기와 워드 프로세서의 검색 기능에 포함되어 있다.

개요

패턴 인식의 현대적 정의는 다음과 같다:

패턴 인식은 일반적으로 출력값을 생성하는 데 사용되는 학습 절차의 유형에 따라 분류된다. 지도 학습은 올바른 출력으로 수작업을 통해 적절하게 레이블이 지정된 인스턴스들의 집합으로 구성된 훈련 데이터 세트(훈련 집합)가 제공되었다고 가정한다. 그런 다음 학습 절차는 때로 상충하는 두 가지 목표를 충족하려는 모델을 생성한다: 훈련 데이터에 대해 가능한 한 우수한 성능을 발휘하는 것과, 새로운 데이터에 대해 가능한 한 잘 일반화하는 것이다(일반적으로 이는 아래에서 논의하는 오컴의 면도날에 따라, "단순함"에 대한 특정 기술적 정의에 기반하여 가능한 한 단순해야 함을 의미한다). 반면에 비지도 학습은 수작업으로 레이블이 지정되지 않은 훈련 데이터를 가정하며, 새로운 데이터 인스턴스에 대한 올바른 출력값을 결정하는 데 사용할 수 있는 데이터 내의 본질적인 패턴을 찾으려고 시도한다.[^6] 이 두 가지를 결합하여 탐구된 것이 준지도 학습으로, 레이블이 지정된 데이터와 레이블이 지정되지 않은 데이터의 조합(일반적으로 소량의 레이블 데이터와 대량의 비레이블 데이터의 결합)을 사용한다. 비지도 학습의 경우, 훈련 데이터가 전혀 없을 수도 있다.

때로는 동일한 유형의 출력에 대해 해당하는 지도 학습 및 비지도 학습 절차를 설명하기 위해 서로 다른 용어가 사용된다. 분류의 비지도 학습 등가물은 일반적으로 군집화로 알려져 있는데, 이는 해당 과제가 특별히 언급할 만한 훈련 데이터가 없으며, 각 입력 인스턴스를 사전 정의된 클래스 집합 중 하나에 할당하는 것이 아니라 어떤 본질적인 유사성 측정(예: 다차원 벡터 공간에서 벡터로 간주되는 인스턴스 간의 거리)에 기반하여 입력 데이터를 군집으로 그룹화하는 것이라는 일반적인 인식에 근거한다. 일부 분야에서는 용어가 다르다. 군집 생태학에서는 일반적으로 "군집화"로 알려진 것을 지칭하기 위해 분류라는 용어가 사용된다.

출력값이 생성되는 입력 데이터 조각은 공식적으로 인스턴스라고 불린다. 인스턴스는 공식적으로 특징 벡터에 의해 기술되며, 이 특징 벡터들은 함께 인스턴스의 알려진 모든 특성에 대한 설명을 구성한다. 이러한 특징 벡터는 적절한 다차원 공간에서 점을 정의하는 것으로 볼 수 있으며, 벡터 공간에서 벡터를 조작하는 방법들이 이에 상응하게 적용될 수 있는데, 예를 들어 내적을 계산하거나 두 벡터 사이의 각도를 계산하는 것 등이 있다. 특징은 일반적으로 범주형(명목형이라고도 하며, 순서가 없는 항목들의 집합 중 하나로 구성됨, 예를 들어 "남성" 또는 "여성"의 성별, 또는 "A", "B", "AB", "O"의 혈액형), 순서형(순서가 있는 항목들의 집합 중 하나로 구성됨, 예를 들어 "대", "중", "소"), 정수값(예를 들어 이메일에서 특정 단어의 출현 횟수), 또는 실수값(예를 들어 혈압 측정값) 중 하나이다. 흔히 범주형 데이터와 순서형 데이터는 함께 그룹화되며, 정수값 데이터와 실수값 데이터의 경우에도 마찬가지이다. 많은 알고리즘은 범주형 데이터에 대해서만 작동하며 실수값 또는 정수값 데이터를 그룹으로 이산화할 것을 요구한다(예: 5 미만, 5에서 10 사이, 또는 10 초과).

확률적 분류기

많은 일반적인 패턴 인식 알고리즘은 본질적으로 확률적이며, 주어진 인스턴스에 대해 최적의 레이블을 찾기 위해 통계적 추론을 사용한다. 단순히 "최적" 레이블을 출력하는 다른 알고리즘과 달리, 확률적 알고리즘은 주어진 레이블로 인스턴스가 설명될 확률도 함께 출력하는 경우가 많다. 또한 많은 확률적 알고리즘은 단순히 단일 최적 레이블만이 아니라, 특정 N값에 대해 연관된 확률과 함께 N-최적 레이블의 목록을 출력한다. 가능한 레이블의 수가 상당히 적을 때(예: 분류의 경우), N은 모든 가능한 레이블의 확률이 출력되도록 설정될 수 있다. 확률적 알고리즘은 비확률적 알고리즘에 비해 많은 장점을 가진다: *선택에 대한 신뢰도 값을 출력한다. (일부 다른 알고리즘도 신뢰도 값을 출력할 수 있지만, 일반적으로 확률적 알고리즘만이 확률 이론에 수학적으로 근거한 값을 제공한다. 비확률적 신뢰도 값은 일반적으로 특정한 의미를 부여할 수 없으며, 동일한 알고리즘이 출력한 다른 신뢰도 값과 비교하는 데만 사용할 수 있다.) *이에 상응하여, 특정 출력을 선택하는 신뢰도가 너무 낮을 때 판단을 보류할 수 있다. *확률 출력 덕분에, 확률적 패턴 인식 알고리즘은 오류 전파 문제를 부분적으로 또는 완전히 회피하는 방식으로 더 큰 기계 학습 작업에 더 효과적으로 통합될 수 있다.

중요한 특징 변수의 수

특징 선택 알고리즘은 중복되거나 관련 없는 특징을 직접 제거하려고 시도한다. 접근 방법과 과제를 요약한 특징 선택에 대한 일반적인 소개가 제시된 바 있다.^7 특징 선택의 복잡성은 그 비단조적 특성으로 인해 최적화 문제이며, 총 n개의 특징이 주어졌을 때 모든 2^n-1개의 특징 부분집합으로 구성된 멱집합을 탐색해야 한다. 분기 한정 알고리즘[^8]은 이 복잡성을 줄이지만, 사용 가능한 특징 수 n이 중간에서 큰 값일 경우 다루기 어렵다.

원시 특징 벡터를 변환하는 기법(** 특징 추출**)은 패턴 매칭 알고리즘을 적용하기 전에 때때로 사용된다. 특징 추출 알고리즘은 주성분 분석(PCA)과 같은 수학적 기법을 사용하여 높은 차원의 특징 벡터를 작업하기 쉽고 중복성이 적게 인코딩된 낮은 차원의 벡터로 축소하려고 시도한다. 특징 선택특징 추출의 차이점은, 특징 추출이 수행된 후의 결과 특징은 원래 특징과 다른 종류이며 쉽게 해석이 불가능할 수 있는 반면, 특징 선택 후에 남은 특징은 단순히 원래 특징의 부분집합이라는 점이다.

문제 정의

패턴 인식의 문제는 다음과 같이 기술할 수 있다: 입력 인스턴스 \boldsymbol{x} \in \mathcal{X}를 출력 레이블 y \in \mathcal{Y}로 매핑하는 미지의 함수 g:\mathcal{X}\rightarrow\mathcal{Y}(정답 함수)와, 이 매핑의 정확한 사례를 나타낸다고 가정되는 훈련 데이터 \mathbf{D} = {(\boldsymbol{x}_1,y_1),\dots,(\boldsymbol{x}_n, y_n)}가 주어졌을 때, 올바른 매핑 g를 가능한 한 근사하는 함수 h:\mathcal{X}\rightarrow\mathcal{Y}를 생성하는 것이다. (예를 들어, 스팸 필터링 문제에서 \boldsymbol{x}_i는 이메일의 어떤 표현이고, y는 "스팸" 또는 "비스팸"이다.) 이것이 잘 정의된 문제가 되려면, "가능한 한 근사한다"는 것이 엄밀하게 정의되어야 한다. 결정 이론에서는 잘못된 레이블을 생성함으로써 발생하는 "손실"에 특정 값을 부여하는 손실 함수 또는 비용 함수를 명시하여 이를 정의한다. 그러면 목표는 \mathcal{X}의 확률 분포에 대한 기댓값으로 취한 기대 손실을 최소화하는 것이 된다. 실제로는 \mathcal{X}의 분포도, 정답 함수 g:\mathcal{X}\rightarrow\mathcal{Y}도 정확히 알려져 있지 않으며, \mathcal{X}의 대량 표본을 수집하고 올바른 \mathcal{Y} 값을 사용하여 수작업으로 레이블링해야만 경험적으로 계산할 수 있다(이 과정은 시간이 많이 소요되며, 일반적으로 이러한 종류의 데이터 수집량을 제한하는 요인이 된다). 특정 손실 함수는 예측하는 레이블의 유형에 따라 달라진다. 예를 들어, 분류의 경우 단순한 영-일 손실 함수로 충분한 경우가 많다. 이는 잘못된 레이블링에 1의 손실을 부여하는 것에 해당하며, 최적 분류기가 독립적인 테스트 데이터에서의 오류율을 최소화함을 의미한다(즉, 학습된 함수 h:\mathcal{X}\rightarrow\mathcal{Y}가 잘못 레이블링하는 인스턴스의 비율을 세는 것이며, 이는 올바르게 분류된 인스턴스의 수를 최대화하는 것과 동치이다). 학습 절차의 목표는 "전형적인" 테스트 세트에서의 오류율을 최소화(정확도를 최대화)하는 것이다.

확률적 패턴 인식기의 경우, 문제는 특정 입력 인스턴스가 주어졌을 때 가능한 각 출력 레이블의 확률을 추정하는 것, 즉 다음과 같은 형태의 함수를 추정하는 것으로 바뀐다: p({\rm label}|\boldsymbol{x},\boldsymbol\theta) = f\left(\boldsymbol{x};\boldsymbol{\theta}\right) 여기서 특징 벡터 입력은 \boldsymbol{x}이고, 함수 f는 일반적으로 매개변수 \boldsymbol{\theta}에 의해 매개변수화된다.[^9] 문제에 대한 판별적 접근법에서는 f를 직접 추정한다. 그러나 생성적 접근법에서는 역확률 p({\boldsymbol{x}|\rm label})을 대신 추정하고, 다음과 같이 베이즈 정리를 사용하여 사전 확률 p({\rm label}|\boldsymbol\theta)와 결합한다: p({\rm label}|\boldsymbol{x},\boldsymbol\theta) = \frac{p({\boldsymbol{x}|\rm label,\boldsymbol\theta}) p({\rm label|\boldsymbol\theta})}{\sum_{L \in \text{all labels}} p(\boldsymbol{x}|L) p(L|\boldsymbol\theta)}.

레이블이 연속적으로 분포하는 경우(예: 회귀 분석), 분모는 합산 대신 적분을 포함한다:

p({\rm label}|\boldsymbol{x},\boldsymbol\theta) = \frac{p({\boldsymbol{x}|\rm label,\boldsymbol\theta}) p({\rm label|\boldsymbol\theta})}{\int_{L \in \text{all labels}} p(\boldsymbol{x}|L) p(L|\boldsymbol\theta) \operatorname{d}L}.

\boldsymbol\theta의 값은 일반적으로 최대 사후 확률(MAP) 추정을 사용하여 학습된다. 이는 두 가지 상충하는 목적을 동시에 충족하는 최적의 값을 찾는다: 훈련 데이터에서 가능한 한 좋은 성능(최소 오류율)을 달성하는 것과 가능한 한 단순한 모델을 찾는 것이다. 본질적으로 이는 최대 가능도 추정에 복잡한 모델보다 단순한 모델을 선호하는 정규화 절차를 결합한 것이다. 베이즈 맥락에서 정규화 절차는 \boldsymbol\theta의 다양한 값에 사전 확률 p(\boldsymbol\theta)를 부여하는 것으로 볼 수 있다. 수학적으로:

\boldsymbol\theta^* = \arg \max_{\boldsymbol\theta} p(\boldsymbol\theta|\mathbf{D})

여기서 \boldsymbol\theta^*는 후속 평가 절차에서 \boldsymbol\theta에 사용되는 값이며, \boldsymbol\theta의 사후 확률인 p(\boldsymbol\theta|\mathbf{D})는 다음과 같이 주어진다:

p(\boldsymbol\theta|\mathbf{D}) = \left[\prod_{i=1}^n p(y_i|\boldsymbol{x}_i,\boldsymbol\theta) \right] p(\boldsymbol\theta).

이 문제에 대한 베이즈 접근법에서는 단일 매개변수 벡터 \boldsymbol{\theta}^*를 선택하는 대신, 새로운 인스턴스 \boldsymbol{x}에 대한 주어진 레이블의 확률을 \boldsymbol\theta의 가능한 모든 값에 대해 사후 확률에 따라 가중치를 두어 적분하여 계산한다:

p({\rm label}|\boldsymbol{x}) = \int p({\rm label}|\boldsymbol{x},\boldsymbol\theta)p(\boldsymbol{\theta}|\mathbf{D}) \operatorname{d}\boldsymbol{\theta}.

패턴 인식에 대한 빈도주의 또는 베이즈 접근법

최초의 패턴 분류기인 피셔가 제시한 선형 판별 분석은 빈도주의 전통에서 개발되었다. 빈도주의 접근법은 모델 매개변수가 미지이지만 객관적인 것으로 간주하는 것을 수반한다. 그러면 매개변수는 수집된 데이터로부터 계산(추정)된다. 선형 판별 분석의 경우, 이러한 매개변수는 정확히 평균 벡터와 공분산 행렬이다. 또한 각 클래스의 확률 p({\rm label}|\boldsymbol\theta)도 수집된 데이터 세트로부터 추정된다. 패턴 분류기에서 '베이즈 정리'를 사용한다고 해서 분류 접근법이 베이즈주의가 되는 것은 아님에 유의하라.

베이즈 통계학은 '선험적(a priori)' 지식과 '후험적(a posteriori)' 지식 사이의 구분이 이미 이루어진 그리스 철학에 기원을 둔다. 이후 칸트는 관찰 이전에 선험적으로 알려진 것과 관찰로부터 얻은 경험적 지식 사이의 구분을 정의하였다. 베이즈 패턴 분류기에서 클래스 확률 p({\rm label}|\boldsymbol\theta)는 사용자가 선택할 수 있으며, 이는 선험적(a priori)인 것이 된다. 더 나아가, 선험적 매개변수 값으로 정량화된 경험은 베타(켤레 사전) 분포 및 디리클레 분포 등을 사용하여 경험적 관측치와 가중 결합될 수 있다. 베이즈 접근법은 주관적 확률 형태의 전문가 지식과 객관적 관측 사이의 원활한 혼합을 가능하게 한다.

확률적 패턴 분류기는 빈도주의 또는 베이즈 접근법에 따라 사용될 수 있다.

용도

![A face detected by [facial recognition software ]] 의료 과학 분야에서 패턴 인식은 컴퓨터 보조 진단(CAD) 시스템의 기반이 된다. CAD는 의사의 해석과 소견을 지원하는 절차를 말한다. 패턴 인식 기술의 다른 대표적인 응용 분야로는 자동 음성 인식, 화자 식별, 텍스트의 여러 범주 분류(예: 스팸 또는 비스팸 이메일 메시지), 우편 봉투의 필기체 자동 인식, 사람 얼굴 이미지의 자동 인식, 의료 양식에서의 필기 이미지 추출 등이 있다.[^10][^11] 마지막 두 가지 예시는 디지털 이미지를 패턴 인식 시스템의 입력으로 다루는 패턴 인식의 하위 주제인 이미지 분석에 해당한다.[^2][^12]

광학 문자 인식은 패턴 분류기 응용의 한 예이다. 서명 방식은 1990년부터 스타일러스와 오버레이를 사용하여 포착되기 시작했다. 획, 속도, 상대적 최솟값, 상대적 최댓값, 가속도 및 압력이 신원을 고유하게 식별하고 확인하는 데 사용된다. 은행들이 이 기술을 처음 제안받았으나, 은행 사기에 대해 FDIC로부터 보상받는 것에 만족했고 고객에게 불편을 주고 싶어 하지 않았다.

패턴 인식은 이미지 처리 분야에서 많은 실제 응용 사례가 있다. 몇 가지 예를 들면 다음과 같다:

  • 식별 및 인증: 예를 들어, 번호판 인식,^13 지문 분석, 얼굴 감지/검증,^14 음성 기반 인증.[^15]
  • 의료 진단: 예를 들어, 자궁경부암 선별검사(Papnet),^16 유방 종양 또는 심장 소리 분석;
  • 국방: 다양한 항법 및 유도 시스템, 표적 인식 시스템, 형상 인식 기술 등.
  • 모빌리티: 첨단 운전자 보조 시스템, 자율주행 차량 기술 등.[^17][^18][^19][^20][^21]

심리학에서 패턴 인식은 대상을 이해하고 식별하는 데 사용되며, 지각과 밀접하게 관련되어 있다. 이는 인간이 받아들이는 감각 입력이 어떻게 의미 있게 처리되는지를 설명한다. 패턴 인식은 두 가지 다른 방식으로 생각할 수 있다. 첫 번째는 템플릿 매칭에 관한 것이고 두 번째는 특징 검출에 관한 것이다. 템플릿은 동일한 비율의 항목을 생성하는 데 사용되는 패턴이다. 템플릿 매칭 가설은 들어오는 자극이 장기 기억 속의 템플릿과 비교된다고 제안한다. 일치하는 것이 있으면 자극이 식별된다. 글자를 분류하기 위한 판데모니엄 시스템(Selfridge, 1959)과 같은 특징 검출 모델은 자극이 식별을 위해 구성 요소로 분해된다고 제안한다. 한 가지 관찰 예로, 대문자 E는 세 개의 수평선과 한 개의 수직선으로 이루어져 있다는 것이다.[^22]

알고리즘

패턴 인식을 위한 알고리즘은 레이블 출력의 유형, 학습이 지도 학습인지 비지도 학습인지, 그리고 알고리즘이 통계적인지 비통계적인지에 따라 달라진다. 통계적 알고리즘은 생성 모델과 판별 모델로 더 세분화할 수 있다.

분류 방법 (범주형 레이블을 예측하는 방법)

모수적 방법:[^23] *선형 판별 분석 *이차 판별 분석 *최대 엔트로피 분류기 (로지스틱 회귀, 다항 로지스틱 회귀라고도 함): 로지스틱 회귀는 이름과 달리 분류를 위한 알고리즘이다. (이 이름은 로지스틱 회귀가 선형 회귀 모델의 확장을 사용하여 입력이 특정 클래스에 속할 확률을 모델링한다는 사실에서 유래한다.) 비모수적 방법:[^24] *결정 트리, 결정 목록 *커널 추정 및 K-최근접 이웃 알고리즘 *나이브 베이즈 분류기 *신경망 (다층 퍼셉트론) *퍼셉트론 *서포트 벡터 머신 *유전자 발현 프로그래밍

군집화 방법 (범주형 레이블을 분류하고 예측하는 방법)

*범주형 혼합 모델 *계층적 군집화 (응집형 또는 분할형) *K-평균 군집화 *상관 군집화 *커널 주성분 분석 (Kernel PCA)

앙상블 학습 알고리즘 (여러 학습 알고리즘을 결합하기 위한 지도 메타 알고리즘)

*부스팅 (메타 알고리즘) *부트스트랩 집계 ("배깅") *앙상블 평균화 *전문가 혼합, 계층적 전문가 혼합

임의 구조의 레이블 (집합)을 예측하기 위한 일반적 방법

*베이즈 네트워크 *마르코프 랜덤 필드

다중선형 부분공간 학습 알고리즘 (텐서 표현을 사용하여 다차원 데이터의 레이블을 예측)

비지도 학습: *다중선형 주성분 분석 (MPCA)

실수값 시퀀스 레이블링 방법 (실수값 레이블의 시퀀스를 예측)

*칼만 필터 *파티클 필터

회귀 방법 (실수값 레이블을 예측)

*가우시안 과정 회귀 (크리깅) *선형 회귀 및 확장 *독립 성분 분석 (ICA) *주성분 분석 (PCA)

시퀀스 레이블링 방법 (범주형 레이블의 시퀀스를 예측)

*조건부 랜덤 필드 (CRFs) *은닉 마르코프 모델 (HMMs) *최대 엔트로피 마르코프 모델 (MEMMs) *순환 신경망 (RNNs) *동적 시간 워핑 (DTW)

같이 보기


참고 문헌

[^1]: Bishop, Christopher M.. 패턴 인식과 기계 학습. Springer

[^2]: 패턴 분류. Wiley, New York

[^3]: Howard, W.R.. 패턴 인식과 기계 학습. (2007-02-20)

[^4]: 시퀀스 라벨링

[^5]: Ian., Chiswell. 수리 논리학, p. 34. Oxford University Press. (2007)

[^6]: 이진 영상 처리를 위한 최적 단순 골레이 마킹 변환 결정에 관하여

[^8]: Cite journal author1=Iman Foroutan author2=Jack Sklansky year=1987
title=비가우시안 데이터의 자동 분류를 위한 특징 선택 journal=IEEE Transactions on Systems, Man, and Cyber

[^9]: [[선형 판별 분석]]의 경우 매개변수 벡터 \boldsymbol\theta는 두 평균 벡터 \boldsymbol\mu_1과 \boldsymbol\mu_2 및 공통

[^10]: Milewski, Robert. 탄소 복사 의료 서식 이미지에서 필기 텍스트의 이진화 및 정리. (31 March 2008)

[^11]: Sarangi, Susanta. 자동 화자 인증을 위한 데이터 기반 필터뱅크 최적화. (September 2020)

[^12]: R. Brunelli, ''컴퓨터 비전에서의 템플릿 매칭 기법: 이론과 실제'', Wiley, ISBN 978-0-470-51706-2 , 2009

[^15]: Poddar, Arnab. 짧은 발화를 이용한 화자 인증: 과제, 동향 및 기회에 대한 리뷰. (March 2018)

[^17]: 단일 카메라와 심층 신경망을 이용한 자율주행 차량 제어 전략 개발 (2018-01-0035 기술 논문)- SAE Mobilus. (3 April 2018)

[^18]: Gerdes, J. Christian. 고성능 자율주행을 위한 신경망 차량 모델. (2019-03-27)

[^19]: Pickering, Chris. AI가 완전 자율주행 자동차의 길을 여는 방법. (2017-08-15)

[^20]: Ray, Baishakhi. DeepTest: 심층 신경망 기반 자율주행 자동차의 자동화된 테스트. (2017-08-28)

[^21]: Sinha, P. K.. 자율주행 차량 제어에서의 신경망. (1993-04-01)

[^22]: A-level 심리학 주의력 복습 - 패턴 인식 | S-cool, 복습 웹사이트. S-cool.co.uk

[^23]: [[가우시안 분포|가우시안]] 형태와 같이 클래스별 특징 분포의 분포 형태가 알려져 있다고 가정.

[^24]: 클래스별 특징 분포의 형태에 대한 분포 가정 없음.