주의!
- 인공지능을 공부하다보면 서로 의미는 비슷한데 표현이 달라서 헷갈리는 용어가 많다. 이 표는 초보자를 위한 참고 자료이다.
- 동의어라고 판단한 근거는 작성자의 주관적인 기준이다.
- 용어가 혼용되는 상황이라 구분이 모호하지만, 이해를 돕기 위하여 가능한 용어의 출처를 나누려고 했다.
- 분야별로, 알고리즘별로 엄밀한 정의가 다르므로 100% 같은 의미는 아닐 수 있다.
동의어 표
설명 | 기계학습 | 통계 | Data Science | ? | 정형데이터 | CNN |
---|---|---|---|---|---|---|
모든 데이터의 집합 | dataset데이터셋1 | table표4 | ||||
데이터 1개 (정답을 포함하기도 함) | sample표본 | Instance인스턴스 | data point데이터 포인트 example예 case사례 record기록 row행 |
|||
데이터 1개를 구성하는 개별 값 | observation관측치 | value값 | ||||
정답을 제외한 데이터의 속성을 지칭함 | feature특징 | independent variable독립변수 | attribute속성 | input입력 dimension차원 feature column특성 열 |
||
모델이 맞추려는 목표 | label2 class클래스2 : 분류문제에서 target목표2 |
dependent variable종속변수 | target column타겟 열 | |||
모델이 데이터를 학습하는 과정 / 기계가 파라미터를 찾는 과정 |
train학습 | fit적합 | parameter update파라미터 갱신 weight update가중치 갱신 |
|||
학습한 모델에 입력값을 주고 출력값을 얻는 행위 | predict예측 | inference추론 | ||||
학습한 모델에 입력값을 주었을 때 얻은 출력값 | prediction예측결과 | output출력 | ||||
모델이 학습으로 얻은 결과 | parameter매개변수 | weight가중치 : 선형모델에서, 딥러닝에서 | filter필터9 kernel커널9 |
|||
실제값과 예측값의 차이 | loss손실 cost비용 error오차 |
|||||
실제값과 예측값의 차이를 구하는 함수 | loss function손실 함수 cost function비용 함수 error function오차 함수 objective function목적 함수8 |
|||||
다차원 데이터의 차원 | dimension차원3 | feature map피쳐 맵3 | ||||
fc layer7 fully connected layer완전 연결층 dense layer밀집층5 perceptron퍼셉트론10 Linear11 head헤드6 |
부연 설명
- 1 : Dataset은 Instance의 묶음이며, Instance는 Attributes의 묶음이다.
- 2 : label / class / target 의 차이
- label라벨 : 데이터에 붙은 정답
- class클래스 : classification분류문제 에서, categorical label 집합에 속하는 값
- target목표 : 맞추려는 대상
- 3 : feature map == dimension
- filter를 이용해서 convolution 연산한 결과를 feature map이라고 한다. filter 1개당 feature map이 1개 얻어진다. Convolution layer는 filter 여러개로 여러개의 feature map을 얻어서 1개의 다차원 배열로 만든다. 이 때, 각 차원은 별개의 feature map이다. Conv Layer의 output 차원 크기는 filter 수와 동일하다.
- 4 : 정형데이터는 2차원으로 구성되어 있으며, 모든 데이터는 column과 row로 구성된 table표에 들어간다. pandas를 분석 툴로 많이 사용한다.
- 5 : fc 레이어를 그림으로 그리면 노드를 연결하는 선이 빽빽하게(dense) 그려지는 모습을 비유적으로 표현하였다. Keras에서는 이 레이어를 Dense라는 이름으로 구현했다.
- 6 : 전통적인 CNN 모델은 보통 feature를 추출하는 Convolution layer를 여러층 쌓고, 마지막에 classification 용도로 fc layer를 쌓는 형태였다. 레이어가 차곡차곡 쌓이는 모양을 그림으로 그리면 맨 위(=head)에 fc layer 놓이게 되는데, 이 마지막 레이어를 비유적으로 head라고 표현한다. 대표적으로 vgg 모델이 그러하다.
- 7 : fc는 fully connected의 줄임말이다.
- 8 : 기계학습의 목적은 오차함수를 최소화하는 해를 구하는 것과 같으므로 이 함수를 목적 함수라고 부르기도 한다.
- 9 : filter == kernel ==weights == parameter
- CNN에서는 업데이트해야할 대상이 필터, 커널이므로 DNN의 weights와 parameter와 같은 의미로 해석할 수 있다.
- 10 : perceptron
- 11 : activation function활성 함수를 거치지 않은 fc layer를 수식으로 표현하면 Linear Regression선형 회기와 모양이 같다. pytorch에서는 fc layer를 Linear라는 이름으로 구현해놓아서 동의어로 포함시켰다.
참고한 사이트
머신러닝 용어: Example, Sample & Data Point
데이터 과학 : 더 나은 의사결정을 위한 통찰의 도구
머신러닝 용어집 | Google Developers