일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- python
- 합성곱 신경망
- Design Pattern
- java
- NumPy
- cpp class
- 데이터 분석
- 넘파이 기초
- OOP
- ack
- 머신러닝
- 넘파이 배열
- 파이썬
- 코딩테스트실력진단
- 차원축소
- 넘파이
- c++
- 데이터 마이닝
- 네트워크 기초
- 기계학습
- 코테
- 클러스터링
- 자바
- 코딩테스트
- lambda
- cpp
- numpy 기초
- Machine Learning
- 코드트리
- 디자인 패턴
- Today
- Total
목록차원축소 (2)
준비하는 대학생
LDA란? LDA(Linear Discriminant Analysis)는 선형 판별 분석법으로 PCA와 비슷합니다. LDA는 입력데이터의 차원을 축소하는 것이 PCA와 비슷하지만 LDA는 지도학습의 분류에 사용하기 쉽게 개별 클래스를 분별할 수 있는 기준을 최대한 유지하면서 축소합니다. PCA는 데이터의 변동성이 가장 큰 축을 찾았다면 LDA는 데이터의 결정 클래스를 최대한으로 분리할 수 있는 축을 찾는 것입니다. LDA는 특정 공간 내 클래스를 최대로 분리할 수 있는 축을 찾기 위해 클래스간 분산과 클래스 내부 분산의 비율을 최대화 하는 방식으로 차원을 축소합니다. 즉, 같은 클래스 끼리는 뭉쳐있고, 다른 클래스와의 거리를 최대화 하게 하여 분류하기 쉬운 차원으로 축소하는 것입니다. LDA를 구하는 방..
PCA(주성분 분석) 개요 PCA는 다변량 데이터의 차원을 축소하면서 정보 손실을 최소화하는 방법으로, 데이터의 분산을 최대한 보존하는 새로운 축(주성분)을 찾아 원래 데이터를 이 주성분에 투영함으로써 차원을 축소합니다. 이를 통해 데이터의 중요한 정보를 유지하면서 차원을 줄이고, 시각화 및 기계 학습 알고리즘의 성능을 향상할 수 있습니다. PCA의 과정은 다음과 같습니다. 데이터 전처리: 데이터를 표준화(평균 0, 표준편차 1)하거나 정규화(최소값 0, 최댓값 1)하여 스케일을 조정합니다. 공분산 행렬 계산: 데이터의 공분산 행렬을 계산합니다. 공분산 행렬은 변수 간의 선형 관계를 나타내며, 이를 통해 데이터의 분포와 구조를 파악할 수 있습니다. 고윳값 및 고유벡터 계산: 공분산 행렬의 고윳값과 고유벡..