꽂히는 딥러닝 플레이리스트는 “수학·이론·직관”을 한 번에 잡으면서도, 처음부터 끝까지 흐름 있게 딥러닝을 배우고 싶은 사람에게 잘 맞는 입문·기본 강의 묶음입니다. 혁펜하임 특유의 비유와 그림 중심 설명 덕분에, 복잡해 보이던 개념들이 한 번 “꽂히면” 쉽게 잊히지 않는다는 점이 가장 큰 매력입니다.
'꽂히는 딥러닝' 강의는 2020년에 녹화되었으며, 최신본은 '이지 딥러닝'입니다. 하지만 '꽂히는 딥러닝'에는 조금 더 깊이있는 내용도 있기 때문에 '이지 딥러닝'을 본 후에 '꽂히는 딥러닝'을 보는 것도 의미가 있을것 같습니다.
[AI 인공지능 머신러닝 딥러닝] - 이지 딥러닝 - 혁펜하임 | Easy! 딥러닝 - 무료 강의 및 책 소개
이지 딥러닝 - 혁펜하임 | Easy! 딥러닝 - 무료 강의 및 책 소개
한국어로 딥러닝 공부해봤다는 사람중에 안들어 본 사람이 없을것 같은 이지 딥러닝 시리즈 입니다. 이 강의는 유투브로 제공되며 책도 있습니다. 이지 딥러닝 유투브 강의이지 딥러닝 유투브
inner-game.tistory.com

이 플레이리스트의 제작자는 딥러닝 입문서 <Easy! 딥러닝>의 저자로, 대학·기업 등에서 실습 중심 강의를 진행해 온 혁펜하임입니다.
“꽂히는”이라는 이름처럼, 공식을 암기시키기보다 직관이 먼저 들어오도록 구성한 딥러닝 강의 시리즈라는 점에서 기존 수업과 결이 조금 다릅니다.
유튜브 재생목록에는 딥러닝의 큰 그림 설명부터, 소프트맥스 회귀·손실함수·최적화(예: Adam, AdamW)까지 이어지는 여러 개의 강의 영상이 순서대로 묶여 있습니다.
처음 보는 사람도 흐름을 따라갈 수 있도록, AI·머신러닝·딥러닝 차이, 규칙 기반 vs 데이터 기반, CNN·RNN 같은 대표 모델까지 입문 개념을 한 번에 훑어줍니다.
수학 공식만 나열하기보다, “머신이 동물을 어떻게 분류하는가”처럼 생활에 가까운 예시를 통해 소프트맥스 회귀나 다중 분류 문제를 설명하는 식의 직관 위주 설명이 많습니다.
선형대수, 미분 정도의 최소한의 배경지식이 있으면 더 편하게 들을 수 있지만, 완전 초보도 “AI가 어떻게 학습하는지”부터 차근차근 따라갈 수 있을 정도로 난이도를 조절해 두었습니다.
딥러닝 책을 펼쳤다가 수식에 질려 덮어본 적이 있거나, “한글로, 예시 위주로, 전체 흐름을 잡아 주는 강의”를 찾고 있는 학습자에게 잘 맞는 플레이리스트입니다.
코딩·실습 전에 개념을 단단히 다지고 싶은 대학생·직장인, 그리고 다른 전공이지만 AI 흐름을 이해하고 싶은 비전공자까지 모두 입문 코스로 활용할 수 있습니다.
이 블로그 글에서는 우선 꽂히는 딥러닝이 어떤 강의인지, 어떤 흐름으로 설명하는지 간단히 소개했습니다. 이제는 직접 플레이리스트를 재생해 보면서, 설명이 “언제 꽂히는지” 몸으로 느껴보면 좋을것 같습니다.
재생목록: https://youtube.com/playlist?list=PL_iJu012NOxdDZEygsVG4jS8srnSdIgdn&si=BexZ3TyFBh0IZ3Dl
위의 재생목록 링크를 눌러 재생목록 전체를 차례대로 따라가며 듣는 것을 추천하며, 이후에는 논문 읽기나 강화학습·컴퓨터 비전 같은 심화 강좌로 자연스럽게 확장해 갈 수 있을 것입니다.
플레이리스트는 “딥러닝 전체 흐름을 한 번에 잡는 것”을 목표로, 개념 큰 그림 → 핵심 수학과 알고리즘 → 대표 모델과 최적화 순서로 짜인 입문·기본 커리큘럼이다. 아래는 블로그에 바로 옮겨 쓸 수 있는 구성 요약입니다.
“AI·머신러닝·딥러닝 숲을 한 번에 조망하면서, 딥러닝이 왜 뜨거운지부터 차근차근 짚어가는 시작 강의.”
인공지능·머신러닝·딥러닝의 차이, 규칙 기반 vs 데이터 기반 학습 등 전체 지형을 먼저 설명하면서 “딥러닝이 왜 필요한가”부터 출발합니다.
지도학습·분류·회귀 같은 기본 문제 설정을 소개하며, 이후에 나오는 신경망·손실함수·최적화가 어디에 쓰이는지 미리 감을 잡게 해 줍니다.
퍼셉트론에서 시작해 다층 퍼셉트론(MLP) 구조, 활성화 함수, 은닉층의 역할 등 “딥”해진 신경망의 직관을 차근차근 쌓아 갑니다.
경사하강법, 역전파(backpropagation), 손실함수의 의미를 연결해 “파라미터가 어떻게 업데이트되며 모델이 점점 똑똑해지는지”를 따라가며 설명합니다.
플레이리스트 대표 강의 중 하나인 소프트맥스 회귀 파트에서, 머신이 동물을 분류하는 예시를 통해 다중 분류, 확률 해석, 크로스 엔트로피 손실을 한 번에 다룬룹니다.
단순 이론 소개가 아니라 실제 분류 문제에 소프트맥스를 어떻게 적용하는지, 모델 출력과 “정답 레이블”이 손실함수 안에서 어떻게 만나는지를 시각적으로 보여 줍니다.
기본 경사하강법에서 한 단계 나아가 모멘텀, Adam 같은 실무에서 자주 쓰이는 옵티마이저를 소개하고, 학습 속도·수렴 안정성 측면에서의 차이를 짚어 준다.
특히 AdamW와 같은 최신 최적화 기법을 별도 강의로 다루며, 가중치 감쇠(weight decay)와 일반화 성능의 관계를 직관적으로 설명해 주는 것이 특징입니다.
기본 완전연결 신경망을 넘어, 이미지에 강한 CNN·순차 데이터에 강한 RNN·시퀀스 모델 등 주요 아키텍처를 개념 위주로 훑어 보며 “모델 지형도”를 그려 줍니다.
각 모델이 어떤 데이터를 다루는지, 어떤 아이디어로 기존 한계를 넘었는지를 설명해 이후 컴퓨터 비전·자연어 처리·트랜스포머 같은 심화 주제로 자연스럽게 이어지도록 설계되어 있습니다.
각 강의는 “개념 직관 → 수학/공식 → 실제 딥러닝에 어떻게 쓰이는지” 흐름을 공통적으로 가지면서, 초보도 따라올 수 있게 난이도가 단계적으로 올라가도록 설계되어 있습니다.
핵심 개념: AI vs ML vs DL, 규칙 기반 vs 데이터 기반, 딥러닝이 잘하는 문제 유형, 인공신경망의 큰 그림.
난이도: 고등학교 수학만 알아도 이해 가능한 난이도이며, “딥러닝 전에 전체 숲부터 보고 가는” 수준이라 완전 입문자도 부담이 적은 파트.
[AI 인공지능 머신러닝 딥러닝] - 꽂히는 딥러닝 | 1강 선형 회귀, 경사 하강법
꽂히는 딥러닝 | 1강 선형 회귀, 경사 하강법
[AI 인공지능 머신러닝 딥러닝] - 꽂히는 딥러닝 | 전체 강의 소개 꽂히는 딥러닝 | 전체 강의 소개꽂히는 딥러닝 플레이리스트는 “수학·이론·직관”을 한 번에 잡으면서도, 처음부터 끝까지 흐
inner-game.tistory.com
[AI 인공지능 머신러닝 딥러닝] - 꽂히는 딥러닝 | 2강 인공 신경망과 활성화 함수
꽂히는 딥러닝 | 2강 인공 신경망과 활성화 함수
2-1강과 2-2강은 “선형 회귀로 보던 세상” 위에 진짜 딥러닝의 얼굴인 인공 신경망과 활성화 함수를 얹어 주는 파트입니다. 이 두 영상을 통해 선형 모델이 어떻게 층과 비선형 함수를 만나 딥
inner-game.tistory.com
“데이터·모델·손실함수·경사하강법을 한 줄로 꿰어서, 딥러닝 수식이 어디서 나오는지 보여주는 머신러닝 첫 단추 강의.”
핵심 개념: 선형 회귀, 손실함수(예: MSE), 파라미터와 가중치의 의미, 경사하강법 아이디어 등 딥러닝의 뼈대가 되는 기본 ML 개념.
난이도: 미분 기초가 살짝 등장하지만, 기하학적 직선·기울기 비유를 많이 써서 “수식이 아니라 그림으로 먼저 이해하는” 초급~초중급 수준.
[AI 인공지능 머신러닝 딥러닝] - 꽂히는 딥러닝 | 3강 퍼셉트론과 MLP, 로지스틱 회귀와 이진 분류, 소프트맥스 회귀와 다중 분류
꽂히는 딥러닝 | 3강 퍼셉트론과 MLP, 로지스틱 회귀와 이진 분류, 소프트맥스 회귀와 다중 분류
3장(3-1~3-4)은 “신경망이 분류를 어떻게 수행하는지”를 퍼셉트론 → 로지스틱 회귀 → 소프트맥스 회귀 → 개념 정리 순서로 한 번에 잡아 주는 세트입니다. 이 범위를 듣고 나면, 이진·다중 분
inner-game.tistory.com
“퍼셉트론에서 MLP, 활성화 함수, 역전파까지 ‘신경망은 결국 함수’라는 관점을 몸에 새겨주는 핵심 구조 강의.”
핵심 개념: 퍼셉트론, 다층 퍼셉트론(MLP), 활성화 함수(Sigmoid·ReLU), 역전파(backpropagation), Universal Approximation 같은 이론적 뒷받침.
난이도: 수식 밀도가 조금 올라가는 구간으로, 딥러닝 입문자 입장에서는 중급 입구 느낌이지만, 비유·그림 설명 덕분에 “논문의 미분식까지는 아니어도 흐름은 잡는” 수준을 목표로 한다.
꽂히는 딥러닝 | 4강 엔트로피, 크로스 엔트로피, KL 다이버전스, 상호정보량 및 로지스틱/소프트
4강은 딥러닝에서 자주 등장하는 엔트로피, 크로스 엔트로피, KL 다이버전스, 상호정보량을 “정보를 얼마나 효율적으로 표현할 수 있는가”라는 하나의 직관으로 묶어 설명하는 영상입니다. 로
inner-game.tistory.com
“시그모이드와 소프트맥스로, 딥러닝이 어떻게 확률을 뽑아내고 클래스를 고르는지 직관적으로 이해시키는 분류 입문 강의.”
“손실 지형을 어떻게 내려가야 모델이 똑똑해지는지, GD에서 Adam·AdamW까지 한 번에 정리하는 최적화 치트키 강의.”
핵심 개념: 이진 분류 vs 다중 분류, 소프트맥스 회귀, 확률 해석, 크로스 엔트로피 손실, 출력 층 설계와 레이블 표현(one-hot 등).
난이도: 입문·기초를 지나 “실제 딥러닝 모델이 분류를 어떻게 수행하는지”를 이해하는 단계로, 초중급~중급 사이 정도 난이도.
[AI 인공지능 머신러닝 딥러닝] - 꽂히는 딥러닝 | 5강 벡터·행렬·복소수 미분을, 실제 최적화 문제에 바로 쓸 수 있는 형태로 정리
꽂히는 딥러닝 | 5강 벡터·행렬·복소수 미분을, 실제 최적화 문제에 바로 쓸 수 있는 형태로 정
5장(5-1~5-3)은 “딥러닝 수식의 바닥”이 되는 벡터·행렬·복소수 미분을, 실제 최적화 문제에 바로 쓸 수 있는 형태로 정리해 주는 구간입니다. 이 파트만 잘 잡아 두면, 역전파 공식이나 헤시안,
inner-game.tistory.com
[AI 인공지능 머신러닝 딥러닝] - 꽂히는 딥러닝 | 6강 역전파 수식 → 현실적인 최적화(SGD, 모멘텀, RMSProp) → 현대 딥러닝의 기본 활성화(ReLU)
꽂히는 딥러닝 | 6강 역전파 수식 → 현실적인 최적화(SGD, 모멘텀, RMSProp) → 현대 딥러닝의 기본
6장(6-1~6-5)은 “딥러닝이 실제로 어떻게 학습되는지”를 역전파 수식부터 SGD·모멘텀·RMSProp·ReLU까지 한 번에 엮어 보여주는 파트입니다. 이 범위를 듣고 나면, 손실함수가 어떻게 그라디언트로
inner-game.tistory.com
[AI 인공지능 머신러닝 딥러닝] - 꽂히는 딥러닝 | 7강 CNN, 컨볼루션·스트라이드·풀링·필터 뎁스·파라미터 공유의 구조적 이유, ResNet, VGG
꽂히는 딥러닝 | 7강 CNN, 컨볼루션·스트라이드·풀링·필터 뎁스·파라미터 공유의 구조적 이유, R
7장(7-1~7-4)은 “이미지에 특화된 딥러닝”인 CNN을, 탄생 배경부터 구조·효율성·직관까지 한 번에 잡아 주는 구간입니다. 이 범위를 듣고 나면 CNN 논문에 나오는 컨볼루션 레이어 그림과 용어들
inner-game.tistory.com
“Vanishing gradient, 오버피팅 같은 고질병을 ReLU·BatchNorm·Dropout·Skip connection으로 정면 돌파하는 실전 안정화 강의.”
핵심 개념: 기본 경사하강법의 한계, 모멘텀, Adam, AdamW, 학습률·감쇠(weight decay)와 일반화 성능, 딥러닝 훈련이 실제로 어떻게 안정화되는지.
난이도: 개념 자체는 직관적으로 설명되지만, “왜 AdamW가 더 낫다고 하는지”까지 다루면서 이론+실무 감각을 동시에 요구하는 중급 수준.
[AI 인공지능 머신러닝 딥러닝] - 꽂히는 딥러닝 | 8강 보편 근사 정리(Universal Approximation Theorem)
꽂히는 딥러닝 | 8강 보편 근사 정리(Universal Approximation Theorem)
8강은 “왜 신경망이 이렇게까지 잘 맞는가?”에 대한 이론적 답을 주는 보편 근사 정리(Universal Approximation Theorem)를, 깍두기 비유로 직관적으로 풀어낸 영상입니다. 한 줄로 말하면 “충분히 많
inner-game.tistory.com
[AI 인공지능 머신러닝 딥러닝] - 꽂히는 딥러닝 | 9강 배치 정규화(Batch Normalization), Vanishing gradient
꽂히는 딥러닝 | 9강 배치 정규화(Batch Normalization), Vanishing gradient
9강은 “배치 정규화(Batch Normalization)가 도대체 무엇을 하고, 왜 그렇게 좋다고 하는지”를 동작 단계와 직관, 효과까지 한 번에 정리해 주는 강의입니다. BN 레이어가 단순히 값을 빼고 나누는 연
inner-game.tistory.com
“Universal Approximation Theorem 등으로 ‘왜 딥러닝이 이렇게 잘 맞는지’를 이론으로 설득하는 표현력 깊이 파기 강의.”
“합성곱·패딩·스트라이드·풀링으로, 이미지 속 공간 정보를 어떻게 뽑아 먹는지 감각적으로 보여주는 컴퓨터 비전 입문 강의.”
“RNN에서 seq2seq, 어텐션과 트랜스포머까지, 시퀀스 데이터를 다루는 딥러닝 모델 계보를 한 호흡에 훑는 시퀀스 특집 강의.”
핵심 개념: CNN의 구조와 이미지 처리 아이디어, RNN의 시간/순차 데이터 처리, 깊은 신경망에서 생기는 문제와 BatchNorm·Skip connection(ResNet)·Regularization 개념 등.
난이도: 논문 레벨은 아니지만 다양한 모델과 테크닉이 한꺼번에 등장하는 구간이라, “입문을 끝내고 실전 딥러닝으로 넘어가는 문턱”에 해당하는 중급 난이도.
꽂히는 딥러닝 | 10강 Confusion matrix 혼동 행렬 한 칸 한 칸이 무슨 의미인지, 그리고 Precision·Recall·
10강은 “혼동 행렬 한 칸 한 칸이 무슨 의미인지, 그리고 Precision·Recall·F1이 각각 언제 중요한지”를 직관적인 예시로 정리해 주는 강의입니다. 특히 암 검사·흰머리 뽑는 기계·스팸 메일함 비
inner-game.tistory.com
[AI 인공지능 머신러닝 딥러닝] - 꽂히는 딥러닝 | 11강 CBOW와 Skip-Gram
꽂히는 딥러닝 | 11강 CBOW와 Skip-Gram
11강은 워드 임베딩의 대표 모델인 CBOW와 Skip-Gram을, “행뽑기”와 원-핫 인코딩 관점에서 아주 구체적으로 풀어 주는 강의입니다. 마지막에는 왜 Negative Sampling이 필요한지까지 이어서 설명해 주
inner-game.tistory.com
[AI 인공지능 머신러닝 딥러닝] - 꽂히는 딥러닝 | 12강 Adam과 AdamW의 차이
꽂히는 딥러닝 | 12강 Adam과 AdamW의 차이
12강은 “요즘은 Adam보다 AdamW를 더 쓴다”는 말을 왜 믿어도 되는지, Adam과 AdamW의 차이를 수식 한 줄로 짚어 주는 강의입니다. 핵심은 L2 정규화를 그라디언트에서 떼어내(weight decay를 디커플링)
inner-game.tistory.com
[AI 인공지능 머신러닝 딥러닝/Python | PyTorch] - 인스톨! 파이토치 강의 소개 | 전체 강의 소개 및 0강 오레인테이션
인스톨! 파이토치 강의 소개 | 전체 강의 소개 및 0강 오레인테이션
혁펜하임 PyTorch 강의 오리엔테이션 요약혁펜하임 채널의 '[PyTorch] 0강. 오리엔테이션' 영상은 채널 5주년 기념으로 '인스톨! 파이토치' 강의를 소개하는 내용입니다. 강의자는 최근 출간한 '이지
inner-game.tistory.com
[AI 인공지능 머신러닝 딥러닝/인공지능 수학] - 혁펜하임의 "보이는" 선형대수학 (Linear Algebra) | 인공지능, 머신러닝, 딥러닝 수학 무료 강의
혁펜하임의 "보이는" 선형대수학 (Linear Algebra) | 인공지능, 머신러닝, 딥러닝 수학 무료 강의
오늘 소개할 강의는 “혁펜하임의 ‘보이는’ 선형대수학 (Linear Algebra)”이며, 혁펜하임의 선형대수학 강의는 “선형대수학을 눈으로 보이게” 만드는 것을 목표로 한, 총 40강짜리 시각 중심
inner-game.tistory.com
[AI 인공지능 머신러닝 딥러닝] - 혁펜하임의 “탄탄한” 컨벡스 최적화 (Convex Optimization) 강의 소개
혁펜하임의 “탄탄한” 컨벡스 최적화 (Convex Optimization) 강의 소개
혁펜하임의 “탄탄한” 컨벡스 최적화는 머신러닝·딥러닝을 공부하는 사람들이 ‘최적화’를 진짜 수학적으로, 그러면서도 직관적으로 이해하도록 도와주는 한국어 강의 시리즈입니다.
inner-game.tistory.com
[AI 인공지능 머신러닝 딥러닝/인공지능 수학] - 2025 인공지능·머신러닝 입문자를 위한 핵심 통계개념 완전정복 (1/2)
2025 인공지능·머신러닝 입문자를 위한 핵심 통계개념 완전정복 (1/2)
안녕하세요! 오늘은 최근에 시청한 유튜브 신박Ai의 “[인공지능을 위한 머신러닝101] 머신러닝을 위한 기초통계개념” 영상을 바탕으로, 인공지능과 머신러닝을 공부하는 데 꼭 필요한 통계 개
inner-game.tistory.com