이 영상은 오토인코더의 개념·학습 방식·수식 수준의 학습 알고리즘·대표 활용까지를 짧고 간결하게 정리해 주는 입문 강의이다. 인코더–디코더 구조와 “입력과 거의 같은 출력을 내는데도 왜 쓸모가 있는지”를 잠재공간과 차원 축소 관점에서 설명해 주는 점이 특징이다.

[AI 인공지능 머신러닝 딥러닝/딥러닝] - 딥러닝 101 - 무료 강의 전체 소개 | Deep Learning 101
딥러닝 101 - 무료 강의 전체 소개 | Deep Learning 101
딥러닝 101 재생목록은 CNN부터 트랜스포머, VAE, ResNet까지 현대 딥러닝의 핵심 개념을 한 번에 훑을 수 있는 입문·중급용 강의 시리즈입니다. 실습 위주의 설명과 직관적인 비유가 많아서, 수식에
inner-game.tistory.com
· 오토인코더는 입력 데이터를 더 작은 차원의 잠재공간(latent space, 코딩)으로 압축한 뒤, 다시 원본과 최대한 비슷하게 복원하도록 학습하는 신경망이다.
· 구조는 크게 인코더(압축)와 디코더(복원) 두 부분으로 나뉘며, 인코더가 “핵심 특징만 뽑아 요약본을 만드는 역할”, 디코더가 “요약본으로부터 원문을 재구성하는 역할”을 한다는 비유로 이해를 돕는다.
· 개·고양이 분류처럼 입력–정답 라벨 쌍을 사용하는 지도 학습과 달리, 오토인코더는 “입력 = 정답”으로 두고 원본과 복원본의 차이(재구성 손실)를 최소화하는 방식으로 학습한다.
· 즉 별도의 라벨이 없는 데이터만으로도, 데이터 분포와 구조를 반영한 압축 표현을 배우는 비지도/셀프지도 학습 모델이라는 점을 강조한다.
· 강의에서는 200페이지 책을 3페이지 요약본으로 줄이는 비유를 통해, 차원 축소가 불필요한 세부를 버리고 중요한 정보만 남기는 과정이라는 점을 직관적으로 설명한다.
· 입력보다 훨씬 작은 잠재공간으로 정보를 통과시키면, 네트워크는 “복원에 꼭 필요한 핵심 특징”만 통과시키도록 압박받게 되고, 이 과정에서 자연스럽게 데이터의 유용한 표현을 학습하게 된다고 설명한다.
· 예제에서는 작은 차원의 인코더–디코더 가중치 행렬을 설정하고, 단일 입력에 대해 순전파로
· · 1. 인코더 출력 z z 계산
· · 2. 디코더 출력 x ^ x ^ 계산
· · 3. 원본 x x와 출력 x ^ x ^ 의 차이를 MSE로 정의해 손실을 구하는 과정을 실제 숫자로 보여준다.
· 이어 체인 룰을 사용해 디코더 가중치, 인코더 가중치에 대한 손실의 기울기 ∂ L / ∂ W decoder , ∂ L / ∂ W encoder ∂L/∂W decoder ,∂L/∂W encoder 를 단계별로 전개하고, 시그모이드 미분까지 포함해 직접 값을 계산한다.
· 마지막에는 경사하강법 업데이트 W ← W − α ∇ W L W←W−α∇ W L를 적용해 가중치가 아주 조금씩 변하는 모습을 보여 주면서, 이런 과정을 반복하면 잠재공간이 점차 입력의 핵심 특성을 잘 표현하게 된다고 정리한다.
· 영상 마지막 부분에서는 오토인코더의 특성을 “차원 축소 + 복원 능력”으로 요약하며, 이를 활용할 수 있는 대표 응용으로 차원 축소·특징 추출·노이즈 제거·복원·생성 등을 소개한다.
· 특히 스캔 문서나 디지털 이미지에서 노이즈를 제거하거나(Denoising Autoencoder), 흑백 이미지를 컬러로 복원하는 작업, 데이터의 압축·이상 탐지 등에 널리 응용된다는 점을 간략히 언급한다.
결국 이 강의는 “입력을 그대로 따라 그리게 만드는 모델이 어떻게 유용한지”를, 잠재공간과 재구성 손실, 수식 흐름, 그리고 실제 활용 예까지 연결해 한 번에 정리해 주는 오토인코더 입문용 콘텐츠라고 정리할 수 있다.
딥러닝 101 - 11강. GAN 생성적 적대 신경망 Generative Adversarial Network | Deep Learning 101
이 영상은 생성적 적대 신경망(GAN)의 아이디어와 구조, 그리고 제너레이터·디스크리미네이터가 이진 크로스엔트로피 손실을 두고 서로 경쟁하며 학습하는 과정을 직관적 비유와 간단한 수식
inner-game.tistory.com