U E D R , A S I H C RSS

논문번역/2012년스터디/김태진 (rev. 1.2)

논문번역/2012년스터디/김태진

논문 번역


Linear Algebra and its applications


1.7 Linear Independence 선형 독립성

Section 1.5에서 동일한 등식은 등식을 벡터 방정식으로 쓰는 것으로 다른 관점으로 공부할 수 있었다. 이 방식으로, 초점을 Ax=0에 대한 알 수 없는 해답부터 벡터 방정식에서 나타나는 벡터들까지 바꿔보자.
예를들어, (1)의 등식이라고 하자.
이 방정식은 물론 x1=x2=x3=0이라는 자명한 해를 가지고 있다. Section 1.5에서와 같이, 주요 논점은 자명한 해가 오직 하나인지(아닌지)이다.
Definition
만약 벡터 방정식 ...가 오직 자명한 해를 가진다면 Rn에 있는 인덱싱된 벡터들의 집합을 선형적으로 독립적(linearly independent)이라고 말한다. 만약 (2)와 같은 0이 아닌 가중치가 존재한다면 그 집합은 선형 독립전이다고 한다.

등식 (2)는 가중치가 모두 0이 아닐 때 v1...vp사이에서 linear independence relation(선형 독립 관계)라고 한다. 그 인덱싱된 집합이 선형 독립 집합이면 그 집합은 선형독립임이 필요충분 조건이다. 간단히 말하기위해, 우리는 {v1,,,vp}가 선형독립 집합을 의미할때 v1...vp가 독립이라고 말할지도 모른다. 우리는 선형 독립 집합에게 유사한 용어들을 사용한다.

Linear Independence of Matrix Columns 행렬 행에 대한 선형 독립성
우리가 벡터들의 집합 대신에 A= 로 시작한다고 하자. 그 행렬 등식 Ax=0는 ...으로 쓰여질 수 있다. A의 행들 사이에 각각의 선형독립 관계는 Ax=0에서의 자명하지 않은 해와 일치한다. 그래서 우리는 그 중요한 사실을 따른다.
---
행렬 A의 행들이 선형적으로 독립이면 방정식 Ax=0는 오직 자명한 해만을 갖는 것이 필요충분조건이다. (3)
---

Set of One or Two Vectors
v라고 불리는 오직 한 벡터만을 가진 집합은 v가 0벡터가 아니면 선형 독립임이 필요충분조건이다. 이는 벡터방정식 x1v=0가 v=0이 아닐 때 오직 자명한 해만을 갖기 때문이다. 제로벡터는 x1*0=0는 수많은 자명하지 않은 해답들을 가지고 있기 때문에 선형 의존적이다.
다음 예시는 두 벡터들의 선형 의존적인 집합에서의 현상을 설명할 것이다. 예제 3에서의 주장들은 두 벡터의 집합이 선형 의존적일 때 우리가 항상 관찰로 결정함을 보여준다. Row operation은 불필요하다. 단순히 벡터들 중 하나에서 다른 scalar times(수치적인 횟수/곱셈?) 이다.
---
{v1, v2} 두 벡터들의 집합은 벡터들중 하나라도 다른 벡터의 곱이기만 하면 선형 의존적이다. 그 집합은 그 벡터들 중 어떤 것도 다른 것의 곱아닐때에만 선형 의존적이다.
---
기하학적인 용어로서, 두 벡터들은 그 두 벡터가 원점을 따라 같은 선상에 놓여있기만하면 선형 의존적이다. Figure 1은 예제 3번으로부터 벡터들을 보여준다.

Set of Two or More Vectors
두개거나 다중 벡터들의 집합
다음 이론의 증명은 예시 3번의 해답과 비슷하다. 상세한 것은 이 섹션의 마지막에 다룬다.

Theorem 7
Characterization of Linearly Dependent Sets
선형 의존적인 집합들의 특성
두개거나 다중 벡터들의 인덱싱 된 집합 S={v1...vp}은 S에 있는 벡터들 중 하나라도 다른 것의 선형결합이면 선형 의존적이다(필요충분). 사실, S가 선형 의존적이고 v1=0이 아니면 어떤 vj(j>1)는 앞서 나온 벡터들의 선형 결합이다.

주의: 이론 7은 선형 독립적인 집합에서 모든 벡터가 앞선 벡터들의 선형결합이라고 말하지 않았다. 선형 독립적인 집합에 있는 벡터는 다른 벡터들의 선형결합이 되는데 실패할지도 모른다. 연습문제 3번을 봐라. 예시4는 의 선형 의존적인 u와v를 R3(3차원)의 어떤 집합{u,v,w}로 일반화한다. 그 집합 {u,v,w}는 평면에서 w가 u와 v로 span(평면화)되면 선형 독립적이다(필요충분).
다음 두 이론들은 한 집합에 대한 선형 의존성이 자동적인 특별한 경우를 지칭한다. 더욱이, 이론8은 뒤 단원들에서의 동작을 초래하는 핵심일 것이다.

1.8 Linear Transformations

행렬 방정식 Ax=b와 associated(?) 벡터 방정식 x1a1+...+xnan=b는 단지 표기의 문제이다. 그런데, 행렬 방정식 Ax=b는 벡터들의 선형 결합으로 직접 연결되지 않은 방법에서 선형 대수학으로 생길 수 있다. 이것은 우리가 행렬 A를 Ax라고 불리는 새로운 벡터를 만들기위해 곱셈한 벡터 x로 "동작하는" 것으로 생각할 때 일어난다.
예를들어, 방정식 ...은 b로 x를 변환하고 제로 벡터로 u를 변환한 A로 곱셈한 것이다. Fig1을 봐라.
이 새로운 관점으로부터, 방정식 Ax=b를 푸는 것은 A의 곱으로 "동작하는" under R2에 있는 벡터 b로 변환시킨 R4에 있는 모든 벡터들 x를 찾는 것에 해당한다.
x와 Ax간의 관련성은 한 벡터들의 집합에서 다른 집합으로 가는 기능이다. 이 개념은 함수에 대한 일반적인 개념을 한 실수에서 다른 실수로 변환하는 규칙으로 일반화할 수 있다.
Rn에서 Rm으로 가는 변환 T는 각 Rm에 있는 벡터 T(x)를 Rn에서 벡터로 바꾸는 규칙이다. 집합 Rn은 T의 정의역이라 불리고, Rm은 T의 공역이라 불린다. 표기법 T: Rn -> Rm은 T의 정의역이 Rn이고 공역이 Rm임을 말한다. Rn에 있는 각 x에 대해, Rm에 있는 벡터 T(x)는 x의 상이라고 불린다. T(x)에 있는 모든 이미지들의 집합은 T의 치역이라 불린다.
이 섹션에 있는 새로운 용어는 행렬-벡터간 곱의 역동적인 관점이 선형대수학에서 몇몇 개념들을 이해하고 시간이 흐르면서 발전하는(that evolve over time) 물리적인 시스템들에 대한 수학적인 모델을 만드는 것의 핵심이기 때문에 중요하다. 이런 역동적인 시스템들은 Chapter5와 1.10, 4.8, 4.9 섹션에서 논의할 것이다.

Matrix Transformations 행렬 변환
이 섹션의 나머지 부분은 행렬 곱으로 연관된 대응시키기(사상)에 초점을 둔다. Rn에서 각각의 x에 대해, T(x)는 A가 m*n행렬일 때 Ax로 게샨된다. 쉽게말해서 우리는 이러한 행렬 변환을 x->Ax로 나타내기도 한다. T의 정의역이 A가 n개의 열을 가지고 있는 Rn이고, T의 공역이 A의 각각의 열이 m개의 행을 가지고 있는 Rm일때 임을 관찰해라. T의 범위는 행렬 A에 열들에 대한 모든 선형 결합된 것들의 집합인데, 각 상 T(x)가 Ax를 형성하기 때문이다.

Linear Transformations 선형 변환
섹션 1.4에 있는 이론 5는 A가 m*n이면 x->Ax로의 변형은 모든 스칼라양 c와 Rn에 있는 모든 u,v에서 A(u+v) = Au + Av 와 A(cu)=cAu 임을 보여준다. 이러한 성질들은 선형대수학에 있는 변환에서 가장 중요한 성질임을 확인한다.
Definition
변환 (or 사상) T 는 1,2를 만족하면 선형적이다.
(i) T의 정의역에서 모든 u,v에 대하여 T(u+v) = T(u) + T(v)
(ii) T의 공역에서 모든 스칼라 c와 모든 u에 대하여 T(cu) = cT(u)
모든 행렬 변환은 선형 변환이다. 행렬 변환이 아닌 선형 변환에 대한 좋은 예제들은 4,5장에서 논의할 것이다.
Valid XHTML 1.0! Valid CSS! powered by MoniWiki
last modified 2021-02-07 05:28:54
Processing time 0.0366 sec