클래시피케이션은 주어진 인풋 데이터셋을 바탕으로 데이터의 클래스를 예측하는 과정입니다.
디스크리미티드 메소드는 데이터의 경계를 설정하여 클래스를 구분하는 방법을 다룹니다.
KNN (K-Nearest Neighbors)
시작 시간 03:20
KNN은 주어진 데이터와 가장 가까운 K개의 이웃을 찾아 클래스를 결정하는 방법입니다.
베이즈 분류기는 주어진 데이터의 확률 분포를 기반으로 클래스를 예측하는 방법입니다.
확률 분포와 클래스 레이블
시작 시간 05:40
각 클래스에 대한 확률 분포를 계산하여 가장 높은 확률을 가진 클래스를 선택하는 과정을 설명합니다.
디시전 바운더리는 클래스를 구분하는 경계를 설정하는 방법으로, 데이터 분포에 따라 달라집니다.
가우시안 분포를 이용하여 각 클래스의 확률 분포를 모델링하는 방법을 설명합니다.
마할라노비스 거리는 데이터 간의 거리 측정 방법으로, 분포의 형태를 고려합니다.
오버피팅은 모델이 학습 데이터에 너무 맞춰져 새로운 데이터에 잘 일반화되지 않는 문제를 설명합니다.
KNN에서 K 값을 조정함으로써 모델의 복잡성을 조절하고 성능을 개선하는 방법을 설명합니다.