기댓값(expected value)
•
분포의 기댓값은 확률 변수의 값과 확률을 곱한 것으로 다음과 같이 정의된다.
◦
확률 함수에 곱해지는 것이 확률 변수이고, 그것이 기대값이 된다.
•
이산 확률인 경우
•
연속 확률의 경우
•
기댓값은 선형이기 때문에 다음과 같이 연산이 가능하다.
•
두 기댓값의 덧셈은 다음과 같이 연산 가능하다.
•
두 기댓값의 곱셈은 다음과 같이 연산 가능하다.
•
만일 가 독립인 경우 이 되므로, 가 된다.
•
분산은 기대값으로 정의되는데 (아래 참조) 그 식을 잘 유도하면 다음과 같은 유용한 결과를 얻을 수 있다.
•
조건부 기대값의 정의를 이용하면 다음과 같은 식을 유도할 수 있는데, 이를 반복 기대의 법칙이라고 한다.
예시
•
일 때, 의 확률 밀도 함수는 다음과 같다.
•
이 때의 기대값은 다음과 같이 계산된다.
분산(variance)
•
분산은 다음과 같이 정의 되는데
•
이 식을 잘 유도하면 다음과 같은 결과를 유도할 수 있다.
◦
분산은 선형이 아니다.
•
분산의 합은 평균과 같이 유도 된다.
•
반면 분산의 곱은 평균과 같이 유도되지 않으며 결과는 다음과 같다.
•
두 분산의 덧셈은 다음과 같이 정의 된다.
•
기댓값의 곱셈과 유사하게 가 독립이라면 이 되므로, 가 된다.
•
기댓값과 달리 두 분산의 곱셈에 대해서는 의미를 두지 않고 대신 의 공분산에 의미를 두므로 생략.
예시
•
일 때, 의 분산은 다음과 같다.
◦
확률밀도함수는 위에서 구한 를 사용
◦
기대값은 위에서 구한 를 사용
공분산(Covariance)
•
공분산(Covariance)은 두 확률 변수 가 (선형적으로) 관련되는 정도를 나타내며 다음과 같이 정의 된다.
•
만일 가 D-차원 확률 벡터(random vector)인 경우 다음과 같이 공분산 행렬로 정의하고 로 표기한다.
◦
이 행렬은 양의 준정부호 대칭 행렬(positive semi definite matrix)이다.
•
이것을 유도하면 다음의 결과를 얻을 수 있다.
◦
여기서 는 벡터이므로 이다. 도 평균벡터가 됨.
◦
일반적으로 그냥 벡터라고 하면 열벡터를 의미하므로 는 외적(outer-product)이 되어서 결과는 행렬이 된다. 반면 는 내적(inner-product)이므로 스칼라가 됨.
•
공분산의 선형 변환은 다음과 같이 유도된다.
•
두 확률 벡터(random vector) 사이의 교차 공분산(cross-covariance)은 다음과 같이 정의된다.
상관(Correlation)
•
상관은 공분산을 정규화한 것으로 사이의 피어슨(Pearson) 상관 계수(correlation coefficient)는 로 표기하고 다음과 같이 정의한다.
•
이때 이다. 가 인 경우를 각각 다음과 같이 부른다. (강하지만 비선형 관계인 경우 상관 계수가 0일 수 있기 때문에, 상관 계수를 ‘선형성의 정도’로 보는 것이 바람직하다)
◦
: 완전 선형 상관관계
◦
: 무상관 (독립과는 다름)
◦
완전 선형 반상관관계
•
만일 어떤 매개변수 에 대해 가 성립하는 경우, (즉 사이에 선형 관계가 존재하는 경우) 이다.
•
연관된 확률 변수의 벡터 의 경우 상관 행렬(correlation matrix)는 다음과 같이 주어진다.
심슨의 역설(Simpson’s paradox)
•
Simpson의 역설은 여러 다른 데이터 그룹에 나타나는 통계적 추세나 관계가 이러한 그룹이 결합되면 사라지거나 부호가 반전되어 있음을 나타나는 것을 말한다. 따라서 통계적 의존성에 대한 주장을 인과관계로 잘못 해석하면 반직관적인 행동이 발생할 수 있다.
참고
•
•
•