2007년 4월 14일 토요일

Contravariant vs. Covariant vector

겨울방학때 텐서를 조금 이해하려고 마음 먹었었는데 생각보다 잘 안되었다.

하나 하나의 새로운 개념을 만나는 일이 생각보다 쉽게 넘어가지 못했기 때문이다.

책의 첫번째 chapter에서 아직도 헤매고 있으니, 이번 학기에 저 책을 다 보기는 쉽지 않을 듯 싶다. 책의 제목을 참고로 적어두면 Tensors, Differential Forms, and Variational Principles 이다.

처음 chapter를 읽다가 contravariant vector와 covariant vector의 정의를 보고 이해가 안되 한참 헤매다가 멋진 설명을 wikipedia에서 보고 여기 올려본다. 짤막하게 이해한 바에 따르면 contravariant vector는 우리가 기존에 이해하는 벡터의 의미(기하학적인 두점을 잇는 벡터)를 뜻하는 벡터인 것 같고, covariant vector는 조금 다른 의미의 벡터인 것 같다. 설명에 따르면 contravariant vector에 작용하여 좌표계의 선택에 무관한 scale invariance를 만들어 내는 선형함수(벡터에 작용하는 선형함수, 즉 f(v1+v2)=f(v1)+f(v2)인 f가 선형함수)들을 가리키는 듯하다. 넓은 의미에서 벡터는 벡터끼리의 합의 구조와 스칼라의 벡터에 대한 곱이 정의되는 집합을 벡터라 하므로 앞서 설명한 함수들의 집합도 벡터의 구조를 지니게 되고 그 원소들이 covariant vector가 되는 것 같다. 그리고 어떠한 벡터공간도 그에 대응하는 covariant vector공간을 만들수 있고, 이 covariant vector space가 dual space라는 구조를 만들어 내는 것 같다. 자세한 공부는 이번 학기에 계속해봐야 알게될 듯하다. 재밌는 구조인 듯하고, 수학의 세계가 조금은 더욱 넓어지는 계기가 될 듯하다. 자 이번학기도 힘좀 내볼까^^

밑의 설명에서 contravariant(역의 관계로 변하는 정도로 해석될 듯)와 covariant vector를 여행하는 중의 속도와 온도의 변화를 가지고 설명한 것은 정말 멋진 설명이다. 아무리 책을 봐도 이해가 안되던 부분을 한칼에 이해시키는 저런 능력은 어디서 오는 것일까? 암튼 강추다.

General relativity:Contravariant and Covariant Indices
From Wikibooks, the open-content textbooks collection
Jump to: navigation, search
< General relativity

Contents
[hide]
1 Rank and Dimension
2 Contravariant and Covariant Vectors
3 Scale Invariance
4 Vector Spaces and Basis Vectors



[edit]
Rank and Dimension
Now that we have talked about tensors, we need to figure out how to classify them. One import!ant characteristic is the rank of a tensor, which is the number of indices needed to specify the tensor. An ordinary matrix is a rank 2 tensor, a vector is a rank 1 tensor, and a scalar is rank 0. Tensors can, in general, have rank greater than 2, and often do.

Another characteristic of a tensor is the dimension of the tensor, which is the count of each index. For example, if we have a matrix consisting of 3 rows, with 4 elements in each row (columns), then the matrix is a tensor of dimension (3,4), or equivalently, dimension 12.

The import!ant thing about rank and dimension is that they are invariant to changes in the coordinate system. You can change the coordinate system all you want, and the rank and the dimensions don't change. This brings up the import!ant question of how tensors do change when you change the coordinate system. One thing we shall find when we look at the question is that in reality there are two different types of vectors.

[edit]
Contravariant and Covariant Vectors
Imagine that you are driving a car at 100 kilometers per hour toward the northwest. Lets call this vector v. Suddenly you realize that you are in a meter-ish mood and so we want to figure out how fast you are going using meters instead of kilometers. Quickly changing your coordinate system, you find that you are travelling 100 * 1000 meters per hour toward the northwest. No problem.

Now you are in the rolling countryside, and you notice the temperature changing. We then draw a map of how the temperature changes as we move across the countryside. We then travel along the path of steepest descent. We notice at a given point that the temperature is changing at 10 Celsius degrees per kilometer toward the southwest. Let's call this vector w. Again you go into a meter-ish mood. Doing a quick calculation you figure out that the gradient of the temperature change is downward at 10/1000 Celsius degrees per meter.

Did you notice something interesting?

Even though we are talking about two vectors we are treating them very differently when we change our coordinates. In the first case, the vector reacted to the coordinate change by a multiplication. In the second case, we did a division. The first case we were changing a vector that was distance per something, while in the second case, the vector was something per distance. These are two very different types of vectors.

The mathematical term for the first type of vector is called a contravariant vector. The second type of vector is called a covariant vector. Sometimes a covariant vector is called a one form.

Attempting a fuller explanation
It is easy to see why w is called covariant. Covariant simply means that the characteristic that w measures, change in temperature, increases in magnitude with an increase in displacement along the coordinate system. In other words, the further you travel from a fixed point, the more the temperature changes, or equivalently, change in termperature covaries with change in displacement.
Although it is a bit more difficult to see, v is called contravariant for precisely the opposite reason. Since v represents a velocity, or distance per unit time, we can think of v as the inverse of time per unit distance, meaning the amount of time that passes in traveling a certain fixed amount of distance. Time per unit distance is clearly covariant, because as you travel further and further from a fixed point, more and more time elapses. In other words, time covaries with displacement. Since velocity is the inverse of time per unit distance, than it follows that velocity must be contravariant.
The difference is also evident in the units of measure. The units of measure for v are meters per hour, whereas the units for w are degrees Celsius per meter. The coordinate system is position in space, measured in units of meters. So again, we see that the coordinate system appears in the numerator of v, which suggests that v is contravariant (with inverse time in this case), wherease the coordinate system appears in the denominator of w, which indicates that w is covariant (with change in temperature).

These are, of course, just fancy mathematical names. As we can see contravariant vectors and covariant vectors are very different from each other and we want to avoid confusing them with each other. To do this mathematicians have come up with a clever notation. The components of a contravariant vector are represented by superscripts, while the components of a covariant vector are represented by subscripts. So the components of vector v are v1 and v2 while the components of vector w are w1 and w2. Now we can draw two pictures that schematically illustrate the difference between contravariant vectors (figure 1) and covariant vectors (figure 2).

[edit]
Scale Invariance
Now that we have contravariant vectors and covariant vectors, we can do something very interesting and combine them. We have a contravariant vector that describes the direction and speed at which we are going. We have covariant vector that describes the rate and direction at which the temperature changes. If we combine them using the dot product


we get the rate at which the temperature changes, f, as we move in a certain direction, with units of degrees Celsius per second. The interesting thing about the units of f is that they do not include any units of distance, such as meters or kilometers. So now suppose we change the coordinate system from meters to kilometers. How does f change? It doesn't. We call this characteristic scale invariance, and we say that f is a scale invariant quantity. The value of f is invariant with changes in the scale of the coordinate system.

Now so far we have been treating w as if it were just an odd type of vector. But there is a another more powerful way of thinking about w. Look at what we just did. We took v, combined it with w and got something that doesn't change when you change the coordinate system. Now one way of thinking about it is to say that w is a function, that takes v and converts it into a scale invariant value, f.




[edit]
Vector Spaces and Basis Vectors
This section is a bit heavy on mathematical jargon. Perhaps someone can rewrite it so that it is a bit more accessible to the mathematically challenged (like me).
Let V be a vector space. Recall that the dual space V * of V is defined as the set of all linear functionals on V. Also recall that V * is a vector space in its own right. Vectors in V are called contravariant vectors, and vectors in V * are called covariant vectors (note: covariant vectors are sometimes called "1-forms").


Components of contravariant vectors are written with superscript ("upper") indices. If the set {} is a basis for V, then is written as the linear combination ( we are using Einstein summation notation, see the next section).


Before moving on to covariant vectors, we must define the notion of a dual basis. Remember that elements of V * are linear functionals on V. So we can "apply" covariant vectors to contravariant vectors to get a scalar. For example, if and , then returns a scalar. Now, the dual basis is defined as follows: if {} is a basis for V, then the dual basis is a basis {} for V * which satisfies (where is the Kronecker delta) for every μ and ν. Note that the dual basis for the canonical basis is usually written as {}, for reasons we will not go into in this section.


Now, the components of covariant vectors are written with subscript ("lower") indices. As {} is a basis for V * , we can write a covariant vector as .


We can now eval!uate any functional (covariant vector) applied to any vector (contravariant vector). If and , then by linearity . Finally, if we define , we see that .

Retrieved from "http://en.wikibooks.org/wiki/General_relativity:Contravariant_and_Covariant_Indices

리그룹(Lie group)과 리알져브라(Lie algebra)에 관하여

Lie group이 왜 이 이름을 가지게 되었느냐하면 이 이론을 처음으로 발견하고 엄청나게 많은 것을 파헤쳐놓은 사람이 노르웨이 수학자 Sophus Lie 라는 사람이었기 때문이다. Lie는 대략 1900근처에 살았던 사람이고, 그 시기에는 리만, 포엥카레 이런 현대 수학의 거장들이 함께 살고 있었다. 1800-1900대의 엄청난 수학의 황금기는 저런 너무나 매력적인 수학을 사랑했던 열정적인 사람들이 있었기에 그 시절이 아름다웠지 않나 싶다. 나중에 세계대전으로 많은 혼란의 시기를 거치지만, 그런 척박한 환경들 속에서 그들이, 동시대의 수학자들이 열정을 지니고 매진할 수 있었음은 정말 존경스러운 일이다. 지금 대학을 진학하는 한국의 많은 어린 학생들이 자신들이 추구하는 열정을 쫓아 대학의 학과로 진학하는 것이 아니라 사회적 분위기에 휩쓸려 수학이나 물리학에 뛰어난 재능과 가능성(재능은 실제 더 깊고 넓은 공부를 하고난 후에 밝혀지는 것이기에 재능이라 하기는 좀 뭣하지만)을 지닌 학생들이 의대로 진학하는 현실은 지난 시절의 수학자들의 삶이 얼마나 가치있었는지를 보여준다.

어쨋건 소개하고자 하는 내용은 리그룹에 대한 내용이다. 네이버에서 검색을 해 보았는데도 제대로 나오지 않기에 간단한 소개를 해 볼까하는 생각인데 솔직히 나 스스로 리 그룹에 대한 깊은 이해가 없고, 아직 책도 제대로 읽어보지 않았다. 하지만 그 가능성과 방향을 얘기하는 것은 가능할 것 같기에...

Lie는 갈로아가 발견한 다항식의 해를 찾는 공식이 존재하는 상황이 그 주어진 다항식의 해의 집합의 대칭성에 기인한다는 위대한 대수학의 발견에 감동을 먹고는 미분방정식에도 갈로아처럼 대칭성의 이론을 찾아낼 수 있지 않을까하는 접근을 시도하였다.

그의 이러한 시도는 기존의 discrete group에 대한 관찰( 원소가 유한한 그룹)이 아니라 그룹의 원소가 무한하고, 또한 연속적인 집합, 즉 그룹이 부드러운 곡면(smooth manifold)가 되는 집합을 관찰하게 된다. 이러한 그룹을 우리는 Lie group이라고 부른다. 여기서 그룹이나 smooth manifold에 대한 정의는 생략한다.

그렇다면 이러한 Lie group이 어떻게 나오는 것일까? 이러한 리그룹은 바로 연속변환이라는 놈한테서 나오게된다. 가령 좌표변환을 생각해보면 우리가 기존의 좌표계를 새로운 좌표계로 변환시키는 선형적인 변환을 물리학이나 수학에서 많이 사용한다. 그런데 이런 좌표변환이 한번만 이루어지는 것이 아니라 시간에 따라 연속적으로 만들어낸다고 해보자. 즉 평면의 x-y축을 연속적으로 회전시키는 상황이 되고 이때에 평면의 한점 P(x,y)의 좌표는 연속적으로 변하게 된다. 이러한 연속적인 좌표변환은 바로 리그룹을 이루게된다.

여기서 두개의 서로다른 변환은 함수의 composition, fog(x)=f(g(x))라는 연산을 통해서 그룹이된다. 그리고 이 변환의 공간은 회전 변환의 경우 0-2pi까지의 원과 같은 연속적인 곡선, 즉 smooth manifold가 된다. 이러한 관점은 공간에서 물체의 움직임도 이러한 연속변환의 관점에서 바라볼 수 있게 해준다.

그리고 이러한 연속적인 변환이 이루는 그룹이 smooth manifold라는 관점은 이 리그룹에서 미분이라는 해석적 접근을 가능하게하여 미분방정식을 바라보는 구조적인, 대칭성을 찾아주는 접근인 리그룹이론의 토대를 제공한다.

그리고 재밌는 것이 리그룹은 어떤 대칭성( 오른쪽 혹은 왼쪽 이동에 대한 대칭성이라고 한다. 좀 공부해야 안다.)을 지니는 리그룹, 즉 smooth manifold위의 벡터장이 그룹의 항등원(identity element)에서의 접평면(tangent space)에서의 원소와 하나씩 대응이 된다는 것이 밝혀진다. 이러한 항등원에서의 접평면은 굉장히 중요한 역할을 한다. 그 이유는 이 접평면이 알저브라 구조를 지닌다는 사실과 관련이 있다. 즉 리알저브라는 리그룹에다가 이제는 또다른 하나의 연산(곱연산)이 주어진 구조가 된다.

이제 상황은 어떤 자연적인 물리현상이 그 현상을 바라보는 리그룹에서 왼쪽 이동에 대한 대칭성을 지닐때에 이 물리현상은 복잡한 매니폴드가 아니라 리알저브라에서, 혹은 이 리알저브라(Lie algebra)가 선형공간, 혹은 벡터공간이 되기때문에 그에 대응하는 dual space인 daul to Lie algebra공간이라고 하는 너무나 단순하고 매력적인 공간에서의 현상으로 단순화시켜서 바라볼 수 있게된다.

솔직히 그 이론의 매력을 부족한 실력으로 설명하는 것이 쉽지 않기에 이정도로 구체적인 내용은 소개를 생략한다.

그렇다면 이러한 리 그룹이론은 어떻게 쓰일 수 있을까? 시작부터 리그룹이론은 자연계의 현상 속에 내재되어있는 대칭성을 찾아주고, 그 대칭성에 대한 구조적인 이해를 하려는 시도이다. 그렇기에 거의 모든 자연계의 역학적 운동들을 이 리그룹이론을 적용하여 매우 아름답게 이해하는 접근이 가능하다. 가령 z-축에 대해 대칭성을 지니는 팽이의 운동을 묘사하는 수학은 이공계의 대학원 과정에서나 설명이 가능하며 뉴터니안 관점에서 굉장히 복잡한 수학적 접근을 통해서 그 운동을 설명하는 오일러 방정식이 유도되어진다. 하지만, 리그룹 이론의 대칭성을 이용하는 접근이 이 오일러 방정식을 굉장히 쉽고 빠르게 유도하는 길을 열어줄 수가 있다. 팽이는 기본적으로 매우 대칭적인 모습을 지니고 있다. 그렇기에 이러한 대칭성에 대한 접근은 팽이의 운동에 대한 근본적으로 매우 중요한 접근이고 이러한 접근을 가능하게 하는 길이 리그룹 이론이 되는 것이다.

팽이의 운동을 한번 보라. 저 단순한 팽이도 너무나 오묘한 운동을 보여준다. 그리고 그러한 이해는 우리가 많은 역학적 상황에 대한 이해를 가능하게 하는 멋진 모델이 될 수가 있다. 가령 우주에 떠다니는 인공위성의 운동을 제어하기를 원한다면은 저런 팽이의 운동쯤은 가뿐히 이해할 수 있어야 하지 않을까?

매우 매력적인 이러한 자연계의 운동은 막상 공부를 시작해보면 그 오묘함과 난해함, 복잡함이 처음의 경이로움에 대한 매력을 잊게만들고, 공부하는 자신을 좌절과 회의에 빠지게하여 포기하게 만든다. 하지만, 그러한 이해는 멋진 자연의 원리와 운동을 이해하려는 확고한 의지와 열정이 있다면 충분히 이겨낼 수 있는 과정이고, 그러한 과정은 이런 리그룹이라는 멋진 수학을 통해서 가능할 것이라는 예측을 담아본다. 대칭성, 아마 이 단어가 자연계를 이해하는 가장 중요한 단어가 아닐까 한다.

미분기하: manifold에서의 미분이란

출처:http://blog.daum.net/about_math/11221817
100년쯤전에 리만이 일반적인 기하공간에 대한 논문을 발표하고 기하학의 체계가 확 뒤집어졌다.
데릴 홈이 얘기하기를 리만이 가우스의 제자였는데( 아마 마지막 지도학생이었던 것 같다. 가우스는 깐깐한 지도교수로 유명했던 듯하다.), 원래 하던 연구는 기하가 아니었는데, 가우스가 일반적인 공간에 대한 논문으로 박사학위 논문을 발표하라고 했다고 한다.
그래서 리만은 일반적인 기하공간에서의 기하적 성질을 밝히는 논문을 준비해서 발표하고, 그 논문을 준비하느라 맘고생을 많이해서 몸에 병까지 났다고 한다. 내가 알기로 가우스는 리만의 논문발표에 박수를 보냈다고한다. 가우스가 박수를 보낸 논문...
암튼, 그 리만기하학은 이제 비유클리드 기하학의 거대한 기하체계이며, 아인슈타인의 일반상대성 이론의 기초이며, 현대 수학의 찬란한 모습을 보여준다.
내가 리만기하학이나 미분기하학 수업을 들어보지는 못했다. 하지만, 해밀톤 역학에 필요한 exterior calculus라는 수학적 기반이 이러한 일반적인 기하체계에서 정의되다보니 미분기하의 기본개념들을 많이 접하게 되고, 맘고생도 많이 하게 되었다. 그래서 그동안 이해한 미분기하의 단면을 정리해두고자 한다.
미분기하는 매니폴드라는 기하학적인 대상에 대해서 이야기한다. 매니폴드란 구의 표면처럼 부드러운 곡면을 지닌 수학적 공간이다. 이 매니폴드(manifold)에는 좌표차트(coordinate chart)라는 미분가능한 일대일함수가 정의되어야한다. 이 coordinate chart는 매니폴드에서 유클리드 공간 R^n으로의 국소적 미분가능한 일대일함수(local diffeomorphism)이다. 위의 예에서 구면은 2차원 매니폴드이다. 즉, 이 코디네이트 챠트를 통해서 매니폴드를 국소적으로 유클리드 공간의 좌표계를 가지고 성질들을 분석해 낼 수가 있다. 이러한 개념은 처음에 굉장히 이해가 되지를 않았다. 왜 이러한 정의가 필요한 것인지, 그리고 이러한 정의가 어떤 의미를 지니는지...
이제는 그런 정의가 조금씩 보이기 시작한다. 우선 이 국소적인 유클리드 공간과의 대응은 매니폴드를 수학적으로 다루는 중요한 바탕을 제공한다. 국소적으로 대응시킬 수 있는 유클리드 공간은 벡터공간이고 우리는 벡터공간에서 많은 일들을 할 수가 있다.
중요하게는 이러한 매니폴드와 유클리드 공간과의 diffeomorphism이 매니폴드에서의 미분이라는 개념을 정의하는 중요한 출발점이 된다는 것이다. 이 매니폴드에서의 미분의 개념을 이해하는게 리만기하학이나 다른 일반적인 기하학의 매우 중요한 요소가 된다.
우리가 특수하게 유클리드 공간에서의 벡터함수의 미분을 보면( 벡터미적분학에서 배우는 모든 이론은 이런 유클리드 공간에서의 미적분학이다. 이는 직접적으로 비유클리드 공간에서의 미적분으로 연결될 수가 없다.) 유클리드 공간, 예를 들어 2차원 평면을 생각하자, R^2에서 부드러운 벡터장(smooth vector field)가 정의되어 있다고 하자. 즉, 2차원 평면의 모든 지점에는 그 지점에서 시작하는 벡터가 하나씩 정의되어 있고, 그 벡터는 바로 옆 지점의 벡터의 부드러운 변화이다. 이때에 이 벡터장에서 미분이란 무엇을 뜻할까? 평면의 어느 지점 P에서 이 벡터장의 미분은 그 지점에서 바로 옆 지점으로 옮겨갔을 때에 벡터장의 변화율이 어떻게 되는가를 설명하는 양이다. 예를들어 지점 P에서 지점 Q로 옮겨갔다고 하자. 두 지점에는 각자 벡터장의 벡터가 할당되어 있고, 우리는 Q의 벡터에서 P의 벡터를 빼고( 그 차는 또다시 벡터가 된다.) 그 차이를 두지점 P,Q사이의 길이로 나눈 값에서 분모를 0으로 보내는 극한을 통해 벡터장의 미분값을 찾아낸다. 엄밀히 말해 이 미분은 벡터장의 PQ방향의 방향미분이 된다. 이렇게 찾아낸 지점P에서의 벡터장 함수의 미분은 결국 P지점에서 출발하는 평면에서 벡터 PQ를 벡터장의 벡터 f(P)f(Q)로 근사하는 선형함수가 된다. 모든 미분은 결국 부드럽게(smooth) 정의된 필드함수(field function)들, 즉 벡터장의 변화를 이 벡터장이 정의된 기하공간의 변화, 즉 PQ벡터와 연결시켜주는 선형함수이다. 이러한 벡터장의 미분이 가능하려면 매우 중요하게 두 지점 P,Q에서 정의된 벡터장의 두 값의 차가 정의되어야 한다는 선행조건이 필요하다. 이러한 f(Q)-f(P)가 가능한 이유는 오직 우리가 바라보는 벡터장이나 기본공간이 모두 유클리드 공간이라 어디에서 정의된 벡터든 평행하게 이동해와 끝을 맞춰서 빼는 벡터의 차가 정의된다는데에 가능한 이유가 있다.
이러한 벡터의 차는 기본 공간이 리만공간이나 비유클리드공간인 부드러운 매니폴드(smooth manifold)가 되면 두 지점에서 정의된 벡터장의 차가 가능하지 않게 된다. 예를 들어 구면에 정의되어 모든 구면의 지점에서 구면에 평행한 부드러운 벡터장(smooth tangent vector field)를 예를 들어보면, 구면의 두지점 P, Q에서의 접벡터(tangent vector)의 차를 만들었을 때에 그 차는 더이상 구면에 접하는 벡터(tangent vector)가 아니게된다. 그리고 이 벡터를 가지고 구의 곡면에서 정의된 좌표계( 유클리드 좌표계가 아니며, 구면을 따라 휘어진 좌표계일 것이다)에서 두지점 사이의 거리(구면의 거리)로 나누고 극한을 계산하면 그 극한은 더이상 선형함수가 되지 않을 것이다. 여기서 우리는 두가지 문제점을 경험하게 된다. 구면에서 정의된 두지점 P와 Q라는 두 지점을 연결하는 벡터가 정의되지 않는다. 그리고 두 지점에서 정의된 벡터장의 값(벡터들)의 차가 정확하게 정의되지 않는다는 것이다. 두가지 문제점 중에서 첫번째 문제의 해결의 실마리는 매니폴드의 정의와 관계가 있다. 만약 Q가 P에 매우 가까운 점이라면은(국소적인 챠트함수가 P,Q모두에서 정의되어 진다면), 우리는 P,Q를 연결하는 벡터를 구면이 아닌 챠트에 의한 이미지공간인 평면 공간에서의 c(Q)와 c(P)의 차(c(*)는 챠트함수이다.즉 매니폴드에서 유클리드 공간으로의 미분가능한 일대일함수이다.)로 벡터를 만들어 낼 수가 있다. 여기에 매니폴드라는 정의의 중요성이 존재한다.
그리고 두번째의 문제점, P와 Q에서 각각 정의된 벡터장의 두 벡터의 차이를 어떻게 만들어 줄 것인지는 미분기하학에서의 연결(connection)이라는 개념으로 해결되어진다. 이 연결(connection)이라는 개념은 매니폴드의 개념을 바탕으로해서 미분기하학의 핵심개념이 된다. 이 connection이라는 개념을 통해서 P에 가까운 점 Q의 벡터장 값을 P로 옮겨와( 평행이동의 개념이 된다. fullback이라고 한다.) P에 원래 있던 벡터와의 차를 계산하게 된다. 이때 P에서의 두 벡터의 차는 접평면(tanget space)라고 하는 벡터공간에서의 벡터연산으로 차를 정의하는게 가능하다.
이렇게 위의 두가지의 문제점이 해결되었을 때에 비로소 부드러운 매니폴드에서의 미분이 정의가 가능하게 되고, 이는 최근의 물리학의 강력한 이론적 배경이 되는 것이다. 위의 매니폴드라는 개념의 정의와 connection의 개념은 함께하며 이를 바탕으로 여러가지 벡터미적분학의 개념들이 일반화 될 수 있는 토양을 제공한다.
그런데 재밌는 것이 이 connection( Levi-Civita parellel transportation)을 만들어 내는 방식이 한가지가 아니라는 것이다. 이 코넥션은 여러가지 독립된 방식으로 만들어 내는 것이 가능하다.
우선 리만기하에서는 메트릭텐서(metric tensor)라는 녀석이 이 connection을 제공한다. 즉 이 metric tensor가 manifold의 모든 점에서 정의되어 있을 때에 이 metric tensor를 이용해서 connection을 만들어 낼 수가 있고, 이 connection은 크리스토펠 심벌(christoffel(?) symbol)이라고 불린다.(조금 틀렸을지도 모른다.)
그리고 꼭 이 connection이 리만곡면에서만 정의되는 것이 아니라, metric tensor가 정의되지 않더라도(더이상 리만공간이 아니게 된다.), 독립적으로 connection을 정의하는 것이 가능하다.
그리고 세번째로,( 이 녀석이 내가 공부하는 쪽의 중요한 기본개념인 듯하다.) 만약에 주어진 smooth manifold가 그룹의 성질을 지니면( 즉 공간의 임의의 두지점사이에 연산이 정의된다. 그룹의 개념은 현대대수학, abstract algebra의 가장 기본적인 개념이다.), 즉 주어진 매니폴드가 Lie Group( smooth manifold which is a group)이 된다면은 우리는 자동적으로 connection을 정의할 수가 있고, 바로 Lie derivative를 Lie group 매니폴드에 정의된 임의의 필드함수(벡터장, 텐서장 등등)에서 정의해 줄 수가 있다. 즉 Lie Group에서는 우리는 자연스레 미분, 적분을 할 수 있는 길이 열리는 것이다.
위의 세가지의 다른 방식의 connection의 정의는 분명히 서로 다른 것이며, 독립적으로 정의되어 진다. 하지만, 저 세가지 방식의 미분의 정의는 기본적으로 미분이 지녀야 할 성질들(1. 선형함수여야 하며, 2. 라이프니츠 원리를 만족해야 하며, 등등)을 만족시키는 녀석들로 정의되어지고, 만약에 Lie Group인 매니폴드가 여기에 metric tensor가 정의되어 진다면, 두가지의 미분은 어떠한 방식으로 연결되어질 수 있게된다.
내가 다루어야 할 매니폴드는 중요하게 Lie Group이다. 그러므로 Lie derivative의 개념을 이해해야 하는데 이놈을 이해하는데만 무려 6개월이 걸렸다. 아공... 아직도 이 놈을 써먹으려면 1년은 더 공부해야 할 듯하다. 하지만 이제 Lie Group은 역학에서 매우 중요한 개념이며, 물리적 상황에서 연속변환(continuous transformation)을 설명하는 유일한 방법으로, 해밀턴 역학을 제대로 이해하려면 필수적인 수학이다. 이러한 일반적 공간인 smooth manifold로서의 Lie group은 이제 해밀턴 역학, 양자역학, 제어역학(control theory), 유체역학, 그리고 이 들을 접근하는 미분방정식(ordinary and partial differential equation)의 중요한 접근방식이 되고 있다. 이제 겨우 조금씩 보이기 시작하는 저 개념들, 누가 강제해서 다가갈 수 있는 녀석이 아닌 것 같다. 오직 나 자신의 의지와 저 녀석의 힘을 보고 싶다는 열정을 통해서만 접근이 가능하겠지. 한가지 다행스러운 일은 벌써 지난 수십년간 저 녀석의 힘과 가능성을 보고 이시대의 위대한 수학자, 물리학자들이 열정을 다해 달려가고 있는 길이라는 점에 믿음과 희망이 있다는 것이다. 적지않은 수의 사람들이 찾아가는 아름다운 산행길이라는 이정표는 그 길을 막 접어든 나의 발걸음을 가볍게 한다. 지금 느끼는 이 마음을 잊지 않기를 소망하면 초보 수학자의 거북이 걸음을 담아보았따.