혁펜하임의 선형대수학 강의는 “선형대수학을 눈으로 보이게” 만드는 것을 목표로 한, 총 40강짜리 시각 중심 강의 시리즈입니다. 선형대수의 기본 개념부터 고급 분해 기법과 응용까지 차근차근 다루고 있어, 공대/컴공 전공자뿐 아니라 머신러닝·데이터사이언스를 공부하는 학습자에게 최적의 커리큘럼이라 할 수 있습니다.
전체 강의 소개는 아래 포스팅을 참고하세요.
혁펜하임의 "보이는" 선형대수학 (Linear Algebra)
[선대] 10-1강. Sherman-Morrison formula 와 Recursive Least Squares (RLS)
10-1강에서는 행렬을 랭크-1만큼 업데이트할 때 역행렬을 빠르게 갱신해 주는 Sherman–Morrison 공식과, 이를 이용한 Recursive Least Squares(RLS)를 다룹니다. 기존 역행렬을 모두 다시 계산하지 않고도, A+uv T 형태의 업데이트에 대해 새로운 역을 닫힌 형태의 공식으로 구할 수 있는 것이 핵심입니다.
RLS는 스트리밍으로 들어오는 데이터에 대해 최소자승 해를 온라인으로 갱신하는 알고리즘으로, 매 시점마다 설계행렬 전체를 다시 만들지 않고 이전 정보와 새로운 샘플만으로 해와 공분산을 업데이트합니다. 강의에서는 이때 등장하는 갱신식이 Sherman–Morrison 공식에서 자연스럽게 유도된다는 점을 보여 줍니다.
10-2강에서는 Sherman–Morrison–Woodbury formula, 즉 Matrix Inversion Lemma를 다룹니다. 이는 Sherman–Morrison의 rank-1 업데이트를 rank-k 업데이트로 일반화한 공식으로, (A+UCV) −1 를 A −1 과 저차원 행렬들의 곱으로 표현해 줍니다.
이 공식을 이용하면, 고차원 행렬의 역을 직접 구하지 않고도 저차원 보정항만 다루어 계산량을 크게 줄일 수 있습니다. 칼만 필터, 베이지안 선형회귀, 고차원 최소자승, 커널 기법 등에서 반복적으로 등장하며, 행렬의 구조를 잘 활용하면 역을 “효율적으로 업데이터하는 기술”의 핵심 도구가 됩니다.