본문 바로가기

전체 글101

1.9 The Matrix of a Linear Transformation How to demermine a matrix transformation * Ax=T(x)에서 matrix A를 몰라도 T(x) 즉, x의 image를 알고 있으면 A를 역으로 추적할 수 있다. * 항등함수의 성질에 따라 Ix=x이기 때문에 다음과 같이 vector $x=\begin{bmatrix} x_1 \\ x_2 \end{bmatrix}$ 를 정리할 수 있다. * 1.8 에서 배운 내용을 활용하면 T(u) + T(v) = T(u+v)이기 때문에 아래와 같이 $T(x)$를 $T(x_1e_1 + x_2e_2)$로 나눠 쓸 수가 있다. * 즉, matrix A는 $T(e_1), T(e_2)$로 이뤄져있다는 것을 알 수 있다. Theorem10. * 만약 $R^n$ 차원에서 $R^m$차원으로 linear .. 2021. 12. 20.
1.8 Introduction To Linear Transformations Matrix Multiplication * vector에 matrix를 곱하는 것은 vector를 다른 차원의 space로 이동시키는 것과 같다. Transformation * 어떤 vector의 space를 이동시키는 transformation(function, mapping으로 부를 수도 있음)은 vector x를 $R^n$ space에서 $R^m$ space의 T(x)에 할당하는 것과 같다. * T(x)를 x의 image라고 하고, image의 모든 셋을 뜻하는 T를 range라고 한다. * Transformation의 표기는 아래와 같이 3가지로 표현 가능하다. Example1) 동일한 차원에서의 transformation * 3차원 vector를 3차원 space에 transformation했다.. 2021. 12. 20.
1.7 Linear Independence Linearly Independent(선형 독립) * 만약 $R^n$ 차원의 벡터 {v1, v2, ... , vp} 들이 $x_1v_1, + x_2v_2 + ... + x_pv_p = 0$일 때(1.5에서 살펴본 Ax=0 형태의 homogeneous system이다), 1개의 trivial solution 즉, x=0의 해를 가질 때 linearly independent라고 한다. Linearly Dependent(선형 의존) * 만약 $R^n$ 차원의 벡터 {v1, v2, ... , vp} 들이 $x_1v_1, + x_2v_2 + ... + x_pv_p = 0$일 때, linearly independent와 달리 해 x가 not all zero, 즉 한 개라도 zero가 아닐 경우엔 linearly d.. 2021. 12. 20.
글자 단위 RNN(Char RNN) * 이전까지 포스팅했던 RNN, LSTM 모델들은 모두 단어 vector를 입력으로 받는 모델이었다. 이번 포스팅에서는 단어를 입력으로 받는 것이 아닌 글자 기반 RNN, 글자(Character)를 입력으로 받는 RNN모델에 대해서 살펴보겠다. 1. 글자 단위 RNN 모델(Char RNNLM) 데이터셋 로드 import numpy as np import urllib.request from tensorflow.keras.utils import to_categorical urllib.request.urlretrieve('http://www.gutenberg.org/files/11/11-0.txt', filename='11-0.txt') f = open('11-0.txt', 'rb') #read binary .. 2021. 12. 18.