본문 바로가기

AI

분류 모델의 종류(classification model)

반응형

  1. 로지스틱 회귀 (Logistic Regression)
    • 개념: 선형 결정 경계를 통해 이진 분류를 수행하는 모델.
    • 목적: 데이터의 특성을 학습하여 새로운 데이터를 분류.
    • 원리: 선형 결정 경계를 찾아내기 위해 최적의 가중치 학습.
    • 필요한 함수: 시그모이드 함수, 손실 함수 (로지스틱 손실), 경사 하강법 등.
    • 장점: 단순하고 해석이 쉬움, 이진 분류에 효과적.
  2. 결정 트리 (Decision Tree)
    • 개념: 데이터의 특성에 따라 결정 경로를 나눠가며 분류 또는 회귀하는 모델.
    • 목적: 데이터의 특성을 기반으로 예측 및 분류.
    • 원리: 데이터를 최적으로 나눌 수 있는 특성을 선택해 결정 경로를 생성.
    • 필요한 함수: 분할 기준 (불순도, 지니 계수 등).
    • 장점: 해석력이 높음, 다양한 데이터 타입에 적용 가능.
  3. 랜덤 포레스트 (Random Forest)
    • 개념: 여러 개의 결정 트리를 앙상블하여 예측 성능을 향상시키는 모델.
    • 목적: 다수의 결정 트리를 조합해 더 강력한 예측 모델 구축.
    • 원리: 각 트리의 예측을 평균하거나 다수결 방식으로 결합.
    • 필요한 함수: 결정 트리의 분할 기준 및 앙상블 방식.
    • 장점: 과적합 방지, 안정적인 예측 성능.
  4. 서포트 벡터 머신 (Support Vector Machine, SVM)
    • 개념: 클래스 간의 최대 마진을 찾아내어 데이터를 분류하는 모델.
    • 목적: 클래스 간의 경계를 최대화하는 결정 경계 찾기.
    • 원리: 최적의 초평면(결정 경계)을 찾기 위해 서포트 벡터 선택.
    • 필요한 함수: 마진 계산, 손실 함수, 커널 함수 (비선형 분류에 사용).
    • 장점: 비선형 분류 가능, 이상치에 강건한 성능.
  5. 신경망 (Neural Networks)
    • 개념: 뇌의 신경 구조를 모방한 모델로, 여러 개의 층으로 구성되어 정보 처리.
    • 목적: 복잡한 패턴 학습 및 추출을 통한 예측 및 분류.
    • 원리: 입력 데이터를 여러 은닉층을 거쳐 특성을 추출하고 최종 예측.
    • 필요한 함수: 활성화 함수 (ReLU, 시그모이드 등), 손실 함수, 최적화 알고리즘 (SGD, Adam 등).
    • 장점: 복잡한 패턴 인식, 다양한 데이터 유형 처리 가능.
  6. 앙상블 모델 (Ensemble Models)
    • 개념: 다양한 기본 모델들을 결합하여 예측 성능을 향상시키는 모델.
    • 목적: 다양한 모델들의 예측을 조합하여 더 강력한 예측 모델 구축.
    • 원리: 보팅 (Voting), 배깅 (Bagging), 부스팅 (Boosting) 등의 앙상블

 

2024.01.15 - [AI] - 머신러닝 요약(ML Summary)

2024.01.15 - [AI] - Train Once, Test Anywhere : Zero-Shot Learning for Text Classification

 

 

반응형