본문 바로가기

학술

윈도우에서 tensorrt 설치 하기 및 python 확인 처음 tensorRT를 윈도우에서 설치하려면 어디서 부터 시작 해야 할지 조금 당황스럽다. 인터넷을 찾아 보면 아래와 같이 설치한다고 되어 있지만, pip install nvidia-pyindex pip install nvidia-tensorrt 실제로 해보면 두번째 줄에서 에러가 발생한다. 윈도우는 내길이 아닌가 하는 생각이 들지만 계속 구글링을 해본다. 1. tensorRT 홈페이지에 들어가 환경에 맞는 zip 파일을 다운로드 받는다. https://developer.nvidia.com/nvidia-tensorrt-download 윈도우 버전이고 CUDA 11.2가 설치 되어 있으므로 TensorRT 8.4를 선택했다. 파일을 다운 받아 D: 최상위에 풀면 아래와 같이 된다. D:\TENSORRT-8.. 더보기
Bayes Discriminants and Neural Networks Pattern Classification Duda 책에 나온 Bayes룰과 Neural Networks의 관계에 대하여 증명하는 내용이 다소 불친절하여 좀 더 정리하고자 한다. Neural Networks에서의 \( k\)번째 출력을 \( g_k (x;w_k)\) 라고 한다. 카테고리가 \(w_k)\) 일때 이에 해당하는 discriminant function이 된다. Bayes 룰은 아래와 같다. $$ P(w_k | x) = \cfrac{p(x | w_k)P(w_k)}{\sum_{i=1}^c p(x|w_i)p(w_i)} = \cfrac{p(x,w)}{p(x)}$$ 어떤 패턴 \( x\) 에 대한 Bayes decision : \( g_k(x) =P(w_k|x) \)를 갖는 가장 큰 카테고리 \(w_k .. 더보기
Sufficient Statistics and the Exponential Family Factorization Theorem 이 어떻게 sufficient statistics를 구하는데 사용되는지 알기 위하여 \(d\) 차원 normal case, 고정 covariance인 경우를 생각해 본다. 평균을 알려져 있지 않고, \( p(x|\theta) \;\sim \; N(\theta,\Sigma) \) 여기서 우리는 $$ \begin{split} p(\mathcal{D}|\theta) &= \prod_{k=1}^n \cfrac{1}{(2\pi)^{d/2}|\Sigma|^{1/2}} exp[-\cfrac{1}{2}(x_k-\theta)\Sigma ^{-1}(x_k -\theta)] \\&= \cfrac{1}{(2\pi)^{nd/2}|\Sigma|^{n/2}} exp[-\cfrac{1}{2}\.. 더보기
BAYESIAN PARAMETER ESTIMATION : General theory and 예제 Bayesian 접근법은 특별한 경우 즉 multivariate Gaussian에서 원하는 density \( p(x| \mathcal{D})\) 를 얻기 위하여 사용된다. 이 접근법은 알려지지 않은 density가 parameterized 되는 경우에 적용 될 수 있도록 일반화 될 수 있다. \( \bullet \; \) \( p(x| \theta) \)는 알려져 있다고 가정한다. 그러나 \( \theta\)의 값은 정확하게 모른다. \( \bullet \;\) \( \theta\)의 대한 초기 값은 알려진 prior density \( p( \theta)\) 에 포함되어 있다고 가정한다. \( \bullet \;\) \(\theta\)에 대한 나머지 정보는 알려지지 않은 Probability dens.. 더보기
Expected value of Quadratic forms \( A \) 행렬을 \( n \times n \) 이라고 하자. 그러면 quadratic form은 \( A \) 행렬과 연관 되어 있으며 function \( Q_A \) 는 다음과 같이 정의한다. $$ Q_A(x) = x^T A x \quad (x \in \mathsf{R}^n )$$ 예를 들어 \( 2 \times 2 \) 행렬이라고 해보자. \(x = \{x_1, x_2\}^T \) 이고 \(A = \begin{bmatrix} a_{11} & a_{12} \\ a_{21} & a_{22} \end{bmatrix} \) 라고 하자. 그러면 $$ \begin{split} Q_A &= x^T A x = \begin{bmatrix} x_{1} & x_{2} \end{bmatrix} \begin{bmat.. 더보기
Linear estimation of vector parameters 시스템을 상태방정식으로 표현 할때 내부 변수의 최적 추정 방법은 다음과 같다. 실 세상에서는 많은 측정의 문제가 아래와 같이 표현 된다. $$ y(t)= \int_T h(t,\tau)\theta(\tau)d\tau + n(t) $$ \( y(t) \)는 측정(observation or measurement) T는 적분 범위이고, \( \theta(\tau)\) 는 우리가 알려고 하는 내부 변수이다. \(h(t,\tau)\)는 시스템의 특성(characteristic) 함수이다. 내부변수를 알려면 노이즈로 인하여 에러가 발생한다. 계산의 용의 성을 위하여 위식은 아래와 같이 discrete 형태로 만들어진다. $$ Y=H\theta +N $$ 여기서 \( Y \) 은 \( n \times1 \), \( H.. 더보기
Orthogonality Principle MS 에러를 최소화 하는 상수 \( \alpha_1 \)가 있다고 할때 $$ e= E \langle [x- \alpha_1 z]^2 \rangle $$ \( x- \alpha_1 z \) 와 z 와 orthogonal 할때 최소 값을 갖는다. 즉 $$ E\langle[x- \alpha_1 z]z\rangle = 0 $$ 그리고 이때의 최소 값은 $$ e_m = E\langle[x- \alpha_1 z]x\rangle $$ 이다. 증명) 위 식을 증명하면 $$ e= E \langle [x- \alpha_1 z]^2 \rangle\\=E[x^2]-2\alpha_1 E[xz]+ \alpha^2_1 E[z^2] $$ \( \alpha_1 \) 으로 식을 미분하면 $$ \dfrac {\partial e}{\par.. 더보기
The derivative of a quadratic form quadratic form은 다음과 같이 표현된다. $$ f(x)= x^TAx $$ 단 \(x \in R^m \) 그리고 \(A\)는 \(m \times m\) 이다. 여기에서의 내용은 위 quadratic form을 미분하는 것에 대한 설명이다. 먼저 \(y(x)=Ax\)로 놓으면 $$ f(x,y(x))=x^T \cdot y(x) $$ 가 된다. 완전 미분 공식을 사용하면 $$ f'(x,y(x))=\dfrac{\partial f}{ \partial x} + \dfrac{\partial f}{ \partial y} \cdot y'(x) $$ 첫번째 텀인 \(\dfrac{\partial f}{ \partial x}\) 은 만약 \(y(x) \)가 고정이라면 \( x^T y(x)\)의 내적이고 이를 미분한 .. 더보기