Inner product space
(지난 강의 설명 생략)
•
일 때, 의 inner product는 다음과 같다.
◦
◦
(뒤에 곱해주는 벡터는 복소수 앞의 부호가 반전 됨을 주의(켤레). 벡터가 에 속할 때는 복소수가 없기 때문에 그냥 곱해줬던 것)
•
Ex 3)
◦
▪
(사이의 연속 함수들의 집합일 때)
▪
Def. Conjugate transpose
•
일 때 의 Conjugate transpose는 라 한다.
•
Conjugate transpose는 책마다 adjoint 라고도 하고 Hermitian이라고도 한다. (다 동일한 개념) 각각 기호는 다음과 같다.
◦
•
Conjugate transpose는 대각선 위치에 있는 원소들은 켤레 복소수로 만들고, 그 밖의 원소들은 켤레 복소수로 만들면서 위치를 tranpose 해준다.
◦
Def. Norm of x
•
inner product 가 있는 vector space를 inner product space라 한다.
•
Norm은 inner product가 있으면 자동적으로 파생된다.
•
벡터 의 norm은 다음과 같이 정의된다.
◦
▪
(자기 자신을 내적한 후에 루트를 씌운 것)
•
Ex 6)
◦
일 때
▪
Thm 6.2
•
•
인 경우는 인 경우 밖에 없다.
◦
inequality
•
Cauchy-Schwartz inequality
◦
◦
(두 벡터의 내적의 절대값이 각각의 norm의 곱보다 작다)
•
Triangular inequality (삼각 부등식)
◦
◦
(두 변의 길이의 합은 나머지 한 변의 길이 보다 항상 크다)
Def. orthogonal, orthonormal, nomalization
•
의 내적이 0이면 orthogonal이라고 한다. (일반적으로 두 벡터가 수직이다라고 표현하는 개념)
◦
•
벡터들의 집합 에 대해, 집합 내 벡터들 간의 내적이 orthogonal 할 때, 집합 는 orthogonal 하다고 한다.
•
벡터 의 norm이 1일 때 를 unit vector라고 한다.
◦
•
벡터들의 집합 에 대해 집합이 orthogonal하고 집합 내 모든 벡터가 unit vector일 때 orthonormal이라고 한다.
◦
◦
▪
(자기 자신과의 내적한 것이 1이고 (=norm), 다른 벡터와 내적은 0)
◦
이때 를 Kronecker delta function이라 한다.
•
벡터 의 normalization이란 방향은 같지만 크기가 인 벡터를 의미한다.
◦
◦
•
(계산 예제 생략 - 교재 참조)
6.2 Gram-Schmit orthonormalization
•
에서 표준기저 는 orthonormal basis가 된다.
•
는 에서 orthonormal basis가 된다.
•
Ex 3)
◦
가 orthonormal set이고
▪
◦
일때
◦
를 기저의 선형 결합으로 표현하고자 한다면
▪
◦
이때의 계수는 어떻게 구할 수 있는가
▪
◦
projection을 구하면 된다.
▪
▪
•
양변에 을 대입하면 끼리 곱하면 이 되므로 만 남고 orthonormal이므로 의 내적은 모두 0이 된다. 고로 만 남게 된다.
▪
▪
같은 식으로 에 대해서도 계산해 주면 된다.
Gram-Schmidt Process
•
inner product space의 선형독립인 부분집합 에서 orthonormal하고 인 부분집합 를 찾는 절차
1.
을 normalize한다
•
2.
에서 과 평행한 성분을 제거해서 와 수직인 성분만 남겨서 과 orthogonal한 를 구한다.
•
◦
을 하면 에서 과 평행한 성분이 나온다.
◦
그것을 에서 빼주면 결국 에서 과 의 수직인 성분만 남는다.
3.
는 과 수직이지만 길이가 이 아니기 때문에 normalize해서 를 만든다.
•
•
(이런 과정이 성립할 수 있는 이유는 애초에 이 선형독립이었기 때문)
•
위와 같은 것을 에서 찾는 방법 (벡터가 2개일 때와 개념은 동일하다)
1.
2.
3.
4.
5.
•
절차
1.
먼저 벡터 하나를 normalize 해서 orthonormal한 벡터를 만들고,
2.
normalize된 벡터를 이용해서 다음 벡터에서 처음 벡터와 평행한 성분을 제거하고
•
normalize된 벡터와 현재 벡터 사이의 내적에 다시 normalize된 벡터를 곱해서 뺀다
3.
제거한 벡터를 normalize해서 다음 orthonormal 벡터를 만들고
4.
모든 벡터에 대해 orthonormal 벡터를 찾을 때까지 2-3 반복
•
(Gram-Schmdit Process 예제 생략 - 교재 참조)