
PCA의 개념과 사용 목적 PCA는 Principal Components Analysis의 약자로, 주성분 분석은 차원 축소 기술입니다. 이 기술의 목적은 데이터의 중복을 줄이는 것입니다. PCA는 데이터에 대한 보다 의미 있는 기초 또는 좌표계를 찾기 위한 감독되지 않은 선형 차원 축소 알고리즘이며 공분산 행렬을 기반으로 작동하여 샘플의 경우 가장 강력한 특징을 찾습니다. 이 시나리오는 차원성의 저주라고 불립니다. PCA 또는 주성분 분석은 많은 독립 변수를 단일 차원으로 통합함으로써 차원의 수를 줄일 수 있습니다. 특히 형상이 다른 스케일(예: 무게, 길이, 면적, 속도, 전력, 온도, 부피, 시간, 셀 번호 등)을 가질 때 상황이 좋지 않습니다. 우리는 이것을 차원, 즉 특징을 줄임으로써 해결 가능..

상관분석과 선형회귀의 공통점 상관관계 분석과 선형 회귀 분석 모두 두 정량적 변수 사이에 선형 관계가 존재하는지 여부를 확인하고자 합니다. 그들은 한 변수의 변화가 다른 변수의 변화와 연관되는 정도를 정량화합니다. 두 결과는 -1부터 1까지의 척도로 측정되며, -1은 완벽한 음의 연관성을 나타내고 1은 완벽한 양의 연관성을 나타냅니다. 상관 계수 또는 회귀 계수가 0에 가까우면 변수 간의 연관성이 거의 없거나 아예 없음을 나타냅니다. 둘 다 동일한 공식과 계산 방법을 사용합니다. n개의 데이터 점 표본의 경우 변수 간 공분산을 표준 편차의 곱으로 나누어 상관관계/회귀 계수에 도달합니다. 상관 분석 결과의 상관 계수는 선형 회귀로부터의 회귀 계수와 동일한 모집단 모수(인구 회귀선의 기울기)를 나타냅니다. ..

베이지안 머신러닝 개념 베이지안 모델링은 데이터가 알려주는 것과는 무관하게 통계적 모델이 어떻게 보여야 하는지에 대한 이전의 믿음을 부호화할 수 있게 해 줍니다. 이것은 모델을 자신 있게 학습할 데이터가 많지 않을 때 특히 유용합니다. 또한 모델링하는 결과에 대한 불확실성을 표현할 수 있게 해 줍니다. 간단한 예는 뒤집힌 동전의 모형을 배우는 것입니다. 어떤 동전의 모형은 뒤집혔을 때 동전이 앞면에 착지할 확률을 예측합니다. 우리는 그 확률을 모형의 모수라고 부릅니다. 이 모형을 배우는 한 가지 방법은 동전을 10번 뒤집고, 그 모형의 모수를 앞면이 된 비율로 설정하는 것입니다. 따라서 만약 앞면이 5개, 뒷면이 5개이면, 모수는 50%이고, 뒷면이 7개이면, 모수는 70%입니다. 이 방법의 한 가지 문..

p-value 개념 p-value는 관측된 결과가 우연의 결과일 가능성을 결정하는 데 사용되는 통계적 측도입니다. 통계학에서 p-value은 귀무 가설이 정확하다고 가정할 때 관측된 통계 가설 검정 결과만큼이라도 극단적인 결과를 얻을 확률입니다. p-value은 귀무 가설이 기각되는 가장 작은 수준의 유의성을 제공하기 위해 기각점에 대한 대안의 역할을 합니다. p-value이 작을수록 대안 가설에 찬성하는 더 강력한 증거가 있음을 의미합니다. p-value은 귀무 가설이 참이라고 가정할 때 관측된 결과를 얻을 확률을 측정합니다. p-value이 작으면 관측된 차이의 통계적 유의성이 크다는 것을 알 수 있으며, p-value이 0.05 이하이면 일반적으로 통계적 유의성이 있는 것으로 간주됩니다. p-val..