파이썬을 이용한 알기쉬운 수치해석

김시조
국립경국대학교: (구)국립안동대학교

2026-03-15

=====================================================

머릿말

Note. 참고 URL
https://github.com/seejokim1/NA_with_python

21세기는 기술 혁신과 지식의 융합이 핵심 동력으로 작용하는 시대다. 특히 4차 산업혁명과 인공지능 기술의 발전은 전통적인 공학 분야에 새로운 도전과 기회를 제공하고 있다. 이러한 환경에서 수치해석은 공학 문제를 해결하는 핵심 도구로, 다양한 데이터 기반 분석과 최적화 문제 해결에 활용되고 있다.

현재 수치해석의 중요성은 더욱 강조되고 있으며, 특히 자율주행 자동차의 수치해석에서 가장 중요한 것은 정확도와 실시간 처리이다. 자율주행 차량은 다양한 센서 데이터를 실시간으로 처리하며, 도로 상황을 정확하게 예측하고 반응해야 하기 때문이다. 이러한 기술은 수치해석을 통해 더욱 정교해지고, 안전한 자율주행을 가능하게 한다.

또한 AI와 수치해석은 깊은 관계를 맺고 있으며, AI의 발전이 수치해석 방법론에 많은 영향을 미쳤고, 반대로 수치해석 기술이 AI의 성능을 향상시키는 데 중요한 역할을 해왔다. 수치해석은 실세계의 문제를 수학적으로 모델링하고 해결하기 위한 다양한 알고리즘과 방법을 제공하며, AI는 이러한 수학적 모델을 데이터 기반으로 학습하고 최적화하는 능력을 갖추고 있다. 이 둘의 결합은 현대 과학과 공학의 중요한 연구 분야로 자리 잡았다.

예를 들어, 2024년 노벨 물리학상은 머신러닝과 AI 기술이 물리학 문제 해결에 중요한 기여를 한 연구자에게 수여되었다. 이는 머신러닝이 복잡한 물리적 시스템을 시뮬레이션하거나 예측하는 데 사용되고 있음을 보여준다. 또한 알파고에 이어 알파폴드와 같은 AI 기술이 노벨 화학상을 수상하며, 수치해석 기법을 바탕으로 AI 모델이 실세계 문제를 해결하는 데 어떻게 활용될 수 있는지를 보여주었다.

이 책은 파이썬 프로그래밍 언어를 활용하여 수치해석의 기초부터 심화 내용까지 단계적으로 학습할 수 있도록 구성되었다. 첫 장에서는 파이썬의 기본 문법과 데이터 처리에 필수적인 라이브러리(예: NumPy, Matplotlib)를 다루며, 프로그래밍과 수치해석의 연결 고리를 제공한다. 이어지는 장에서는 비선형 방정식 근사법, 선형 연립방정식 해법, 수치미분 및 수치적분, 보간법, 수치 회귀 등 전통적인 수치해석의 핵심 주제들을 체계적으로 소개한다.

특히 후반부에서는 상미분 방정식과 편미분 방정식의 수치적 해법을 다루며, 유한차분법(Finite Difference Method)과 유한요소법(Finite Element Method)의 응용을 통해 실질적인 문제 해결 방법을 제시한다. 이와 더불어 Python을 활용하여 다양한 수치해석 문제를 직접 해결해보는 연습문제를 포함해 독자가 이론과 실습을 병행하며 학습할 수 있도록 하였다.

김시조

파이썬의 이해

비선형 방정식 구하기

선형연립방정식 수치해법

수치미분 (Numerical Differentiation)

수치적분 (Numerical Integration)

수치 보간 (Interpolation)

수치 회귀 (Numerical Regression)

최소자승법에 의한 1차 다항식 근사

(통계적 개념: 공분산과 분산

1. 합의 기본 성질

\[\sum_{i=1}^{n} x_i = x_1 + x_2 + \cdots + x_n\]

상수 \(c\)에 대하여,

\[\sum_{i=1}^{n} c = nc\]

상수배의 합:

\[\sum_{i=1}^{n} c x_i = c \sum_{i=1}^{n} x_i\]

2. 평균 (Mean)

데이터 \(x_i\)의 평균:

\[\bar{x} = \frac{1}{n} \sum_{i=1}^{n} x_i\]

3. 분산 (Variance)

평균으로부터의 편차 제곱합:

\[\sum_{i=1}^{n} (x_i - \bar{x})^2\]

이를 전개하면,

\[\sum_{i=1}^{n} (x_i - \bar{x})^2 = \sum_{i=1}^{n} x_i^2 - n\bar{x}^2\]

4. 공분산 (Covariance)

두 변수 \(x, y\)의 공분산:

\[\sum_{i=1}^{n} (x_i - \bar{x})(y_i - \bar{y}) = \sum_{i=1}^{n} x_i y_i - n \bar{x}\bar{y}\]

5. 의미

- 분산은 데이터의 **흩어짐 정도** - 공분산은 두 변수의 **선형 관계 정도** - 선형 회귀에서 기울기 계산에 핵심적으로 사용됨

선형 회귀의 스칼라 방식의 수학적 접근

1. 모델 정의

입력 데이터 \(x_i\), 출력 데이터 \(y_i\)가 주어졌을 때, 1차 선형 회귀 모델은 다음과 같이 가정한다.

\[\hat{y}_i = \theta_1 + \theta_2 x_i\]

여기서 \(\theta_1\)은 절편(intercept), \(\theta_2\)는 기울기(slope)이다.

2. 최소제곱법 (Least Squares Method)

잔차(residual): \[e_i = y_i - \hat{y}_i\]

SSE (Sum of Squared Errors): \[SSE = \sum_{i=1}^{m} (y_i - \theta_1 - \theta_2 x_i)^2\]

목표는 다음을 최소화하는 \(\theta_1, \theta_2\)를 찾는 것이다.

\[\min_{\theta_1, \theta_2} \sum_{i=1}^{m} (y_i - \theta_1 - \theta_2 x_i)^2\]

3. 최적 조건 (정규 방정식 유도)

\[\frac{\partial SSE}{\partial \theta_1} = -2 \sum_{i=1}^{m} (y_i - \theta_1 - \theta_2 x_i) = 0\]

\[\frac{\partial SSE}{\partial \theta_2} = -2 \sum_{i=1}^{m} x_i (y_i - \theta_1 - \theta_2 x_i) = 0\]

정리하면 다음의 두 식을 얻는다.

\[m\theta_1 + \theta_2 \sum x_i = \sum y_i\]

\[\theta_1 \sum x_i + \theta_2 \sum x_i^2 = \sum x_i y_i\]

4. 기울기와 절편 해

기울기:

\[\theta_2 = \frac{\sum x_i y_i - m \bar{x}\bar{y}} {\sum x_i^2 - m\bar{x}^2} = \frac{\sum (x_i-\bar{x})(y_i-\bar{y})} {\sum (x_i-\bar{x})^2}\]

절편:

\[\theta_1 = \bar{y} - \theta_2 \bar{x}\]

5. 최종 회귀식

\[\hat{y} = \theta_1 + \theta_2 x\]

이 결과는 공분산과 분산을 이용한 표현과 동일하다.

\[\theta_2 = \frac{\text{Cov}(x,y)}{\text{Var}(x)}\]

선형 회귀의 행렬 방식에 의한 수학적 접근

최종적으로 선형 회귀의 행렬 방식의 최적화 문제는 다음과 같다.

\[\begin{equation} \min_{\theta} \sum_{i=1}^{m} (\hat{y}_i - y_i)^2 = \min_{\theta} \| \Phi \theta - y \|^2 \tag{7.1.3-1} \end{equation}\]

  1. 파라미터 벡터

    \[\begin{equation} \theta = \begin{bmatrix} \theta_0 \\ \theta_1 \end{bmatrix} \tag{7.1.3-2} \end{equation}\]

  2. 설계 행렬 (Design Matrix)

    입력 데이터 구조를 행렬 형태로 표현하면,

    \[\begin{equation} \Phi = \begin{bmatrix} 1 & x_1 \\ 1 & x_2 \\ \vdots & \vdots \\ 1 & x_m \end{bmatrix} = \begin{bmatrix} \phi^T(x_1) \\ \phi^T(x_2) \\ \vdots \\ \phi^T(x_m) \end{bmatrix} \tag{7.1.3-3} \end{equation}\]

  3. 선형 회귀 예측값

    \[\begin{align} \hat{y}_i &= \theta_0 + \theta_1 x_i \\ &= [1 \;\; x_i] \begin{bmatrix} \theta_0 \\ \theta_1 \end{bmatrix} = \phi^T(x_i)\theta \end{align}\]

    따라서 전체 예측 벡터는

    \[\begin{equation} \hat{y} = \begin{bmatrix} \hat{y}_1 \\ \hat{y}_2 \\ \vdots \\ \hat{y}_m \end{bmatrix} = \Phi \theta \tag{7.1.3-4} \end{equation}\]

  4. 손실 함수

    \[\begin{equation} J(\theta) = \| y - \Phi \theta \|^2 \tag{7.1.3-5} \end{equation}\]

  5. 최소제곱 최적화 문제

    \[\begin{equation} \min_{\theta} \| y - \Phi \theta \|^2 \tag{7.1.3-6} \end{equation}\]

  6. 정규 방정식 (Normal Equation)

    \[\begin{equation} \Phi^T \Phi \theta = \Phi^T y \tag{7.1.3-7} \end{equation}\]

  7. 특징 벡터

    \[\begin{equation} \phi(x_i) = \begin{bmatrix} 1 \\ x_i \end{bmatrix} \tag{7.1.3-8} \end{equation}\]

  8. 최소제곱 해

    \[\begin{equation} \theta = (\Phi^T \Phi)^{-1} \Phi^T y \tag{7.1.3-9} \end{equation}\]

최소자승법에 의한 m 차 다항식 근사

다항식

\[P_m(x) = a_0 + a_1 x + \cdots + a_m x^m\]

을 가정한다.

선형 회귀의 행렬 방식에 의한 수학적 접근

최종적으로 선형 회귀의 행렬 방식의 최적화 문제는 다음과 같다.

\[\begin{equation} \min_{\theta} \sum_{i=1}^{m} (\hat{y}_i - y_i)^2 = \min_{\theta} \| \Phi \theta - y \|^2 \tag{7.1.3-1} \end{equation}\]

  1. 파라미터 벡터

    \[\begin{equation} \theta = \begin{bmatrix} \theta_0 \\ \theta_1 \end{bmatrix} \tag{7.1.3-2} \end{equation}\]

  2. 설계 행렬 (Design Matrix)

    입력 데이터 구조를 행렬 형태로 표현하면,

    \[\begin{equation} \Phi = \begin{bmatrix} 1 & x_1 \\ 1 & x_2 \\ \vdots & \vdots \\ 1 & x_m \end{bmatrix} = \begin{bmatrix} \phi^T(x_1) \\ \phi^T(x_2) \\ \vdots \\ \phi^T(x_m) \end{bmatrix} \tag{7.1.3-3} \end{equation}\]

  3. 선형 회귀 예측값

    \[\begin{align} \hat{y}_i &= \theta_0 + \theta_1 x_i \\ &= [1 \;\; x_i] \begin{bmatrix} \theta_0 \\ \theta_1 \end{bmatrix} = \phi^T(x_i)\theta \end{align}\]

    따라서 전체 예측 벡터는

    \[\begin{equation} \hat{y} = \begin{bmatrix} \hat{y}_1 \\ \hat{y}_2 \\ \vdots \\ \hat{y}_m \end{bmatrix} = \Phi \theta \tag{7.1.3-4} \end{equation}\]

  4. 손실 함수

    \[\begin{equation} J(\theta) = \| y - \Phi \theta \|^2 \tag{7.1.3-5} \end{equation}\]

  5. 최소제곱 최적화 문제

    \[\begin{equation} \min_{\theta} \| y - \Phi \theta \|^2 \tag{7.1.3-6} \end{equation}\]

  6. 정규 방정식 (Normal Equation)

    \[\begin{equation} \Phi^T \Phi \theta = \Phi^T y \tag{7.1.3-7} \end{equation}\]

  7. 특징 벡터

    \[\begin{equation} \phi(x_i) = \begin{bmatrix} 1 \\ x_i \end{bmatrix} \tag{7.1.3-8} \end{equation}\]

  8. 최소제곱 해

    \[\begin{equation} \theta = (\Phi^T \Phi)^{-1} \Phi^T y \tag{7.1.3-9} \end{equation}\]

np.polyfit() 이용한 m 차 다항식 근사 소스코드

실습예제: https://github.com/seejokim1/NA_with_python/blob/main/chapter07/section_07_02_02_polyfit_polynomial_approximation.py

import numpy as np
import matplotlib.pyplot as plt

x = np.array([0,1,2,3])
y = np.array([1,2,0,5])

coef = np.polyfit(x,y,2)
poly = np.poly1d(coef)

x_new = np.linspace(0,3,100)
plt.scatter(x,y)
plt.plot(x_new, poly(x_new))
plt.show()

7.2.3 행렬식을 이용한 \(m\)차 다항식 근사 소스코드

본 예제는 행렬식을 이용하여 최소자승법으로 \(m\)차 다항식 근사를 수행한다. 데이터 포인트를 생성하고, 정규방정식

\[\theta = (\Phi^T \Phi)^{-1} \Phi^T y\]

을 이용하여 회귀 계수를 계산한다.

1. 데이터 생성

2. 설계 행렬(Design Matrix)

\[\Phi = \begin{bmatrix} 1 & x_1 & x_1^2 \\ 1 & x_2 & x_2^2 \\ \vdots & \vdots & \vdots \\ 1 & x_n & x_n^2 \end{bmatrix}\]

3. 최소자승 해

\[\begin{equation} \theta = \begin{bmatrix} a_0 \\ a_1 \\ a_2 \end{bmatrix} = (\Phi^T \Phi)^{-1} \Phi^T y \tag{7.2.3-1} \end{equation}\]

4. 결과 시각화

요약

실습예제: https://github.com/seejokim1/NA_with_python/blob/main/chapter07/section_07_02_03_polynomial_approximation_matrix.py

def polynomial_regression(x, y, m):
    n = len(x)
    V = np.vander(x, m+1, increasing=True)
    a = np.linalg.inv(V.T @ V) @ V.T @ y
    return a

연습문제