여기 나오는 것 중에 모르는 것이 없어야 함. 기초중의 기초.[AI 인공지능 머신러닝 딥러닝/인공지능 수학] - LEVEL 0: AI를 위한 기초 수학 | 혁펜하임 LEVEL 0: AI를 위한 기초 수학 | 혁펜하임LEVEL 0: AI를 위한 기초 수학 재생목록은 딥러닝·머신러닝을 막 시작하는 학습자들이 꼭 알아야 할 최소한의 수학을, 하나의 코스로 정리해 둔 재생목록입니다.함수·극한·미분부터 확률과 분포inner-game.tistory.com [AI 인공지능 머신러닝 딥러닝/인공지능 수학] - 2025 인공지능·머신러닝 입문자를 위한 핵심 통계개념 완전정복 (1/2) 2025 인공지능·머신러닝 입문자를 위한 핵심 통계개념 완전정복 (1/2)안녕하세요! 오늘은 최근에 시청한 유튜브 신박Ai의 “[인공..
LEVEL 0: AI를 위한 기초 수학 재생목록은 딥러닝·머신러닝을 막 시작하는 학습자들이 꼭 알아야 할 최소한의 수학을, 하나의 코스로 정리해 둔 재생목록입니다.함수·극한·미분부터 확률과 분포까지 이후 심화 강의를 따라가기 위한 ‘기초 체력’을 단계적으로 쌓게 해 주는 구성이 특징입니다. LEVEL 0: AI를 위한 기초 수학 | 재생목록 소개제목은 LEVEL 0: AI를 위한 기초 수학입니다.채널은 혁펜하임 | AI & 딥러닝 강의입니다.구성은 AI 수학 입문 소개, 미적분(함수·로그·극한·미분) 파트, 확률 및 분포 파트로 이루어진 과정형 재생목록입니다.AI 공부에 꼭 필요한 최소한의 수학만 골라서 정리해 둔 입문 코스라서, 개별 영상만 뚝뚝 보는 것보다 처음부터 끝까지 한 번에 듣는 학..
안녕하세요! 오늘은 제가 최근에 시청한 유튜브 플레이리스트 “인공신경망기초-신박Ai”를 바탕으로, 인공지능(Artificial Intelligence; AI) 기초에 대해 공부한 내용을 정리하여 티스토리 블로그 포스팅으로 공유드립니다. 저는 인공지능의 기본적인 동작 원리를 이해하기 위해 “신박Ai” 채널의 인공신경망 기초 강의 시리즈를 시청하였습니다. 총 13편의 영상으로 구성된 이 플레이리스트는 초보자도 쉽게 따라갈 수 있도록, 인공신경망의 원리부터 핵심 알고리즘과 실제 구현, 다양한 사례까지 구체적으로 설명해주는 점이 인상적이었습니다. 인공신경망기초 재생목록 링크입니다.https://youtube.com/playlist?list=PLW2RwdZfXkE9nFS3DOFdxt2Oxnk1pJzEn&si=..
전체 강의 보기[AI 인공지능 머신러닝 딥러닝] - 꽂히는 딥러닝 | 전체 강의 소개 꽂히는 딥러닝 | 전체 강의 소개꽂히는 딥러닝 플레이리스트는 “수학·이론·직관”을 한 번에 잡으면서도, 처음부터 끝까지 흐름 있게 딥러닝을 배우고 싶은 사람에게 잘 맞는 입문·기본 강의 묶음입니다. 혁펜하임 특유의inner-game.tistory.com 12강은 “요즘은 Adam보다 AdamW를 더 쓴다”는 말을 왜 믿어도 되는지, Adam과 AdamW의 차이를 수식 한 줄로 짚어 주는 강의입니다. 핵심은 L2 정규화를 그라디언트에서 떼어내(weight decay를 디커플링) 업데이트 단계에만 적용한다는 아이디어입니다. Adam 복습: m, v로 방향과 크기를 누적합니다영상은 먼저 Adam 알고리즘을 다시 ..
전체 강의 보기[AI 인공지능 머신러닝 딥러닝] - 꽂히는 딥러닝 | 전체 강의 소개 꽂히는 딥러닝 | 전체 강의 소개꽂히는 딥러닝 플레이리스트는 “수학·이론·직관”을 한 번에 잡으면서도, 처음부터 끝까지 흐름 있게 딥러닝을 배우고 싶은 사람에게 잘 맞는 입문·기본 강의 묶음입니다. 혁펜하임 특유의inner-game.tistory.com 11강은 워드 임베딩의 대표 모델인 CBOW와 Skip-Gram을, “행뽑기”와 원-핫 인코딩 관점에서 아주 구체적으로 풀어 주는 강의입니다. 마지막에는 왜 Negative Sampling이 필요한지까지 이어서 설명해 주기 때문에, Word2Vec 구조를 한 번에 이해하기 좋은 영상입니다. CBOW: 주변 단어로 중심 단어를 맞춥니다CBOW는 “주변 단어들로..
전체 강의 보기[AI 인공지능 머신러닝 딥러닝] - 꽂히는 딥러닝 | 전체 강의 소개 꽂히는 딥러닝 | 전체 강의 소개꽂히는 딥러닝 플레이리스트는 “수학·이론·직관”을 한 번에 잡으면서도, 처음부터 끝까지 흐름 있게 딥러닝을 배우고 싶은 사람에게 잘 맞는 입문·기본 강의 묶음입니다. 혁펜하임 특유의inner-game.tistory.com 10강은 “혼동 행렬 한 칸 한 칸이 무슨 의미인지, 그리고 Precision·Recall·F1이 각각 언제 중요한지”를 직관적인 예시로 정리해 주는 강의입니다. 특히 암 검사·흰머리 뽑는 기계·스팸 메일함 비유 덕분에, 수식이 아니라 상황으로 기억하게 되는 것이 특징입니다. 혼동 행렬과 TP·FP·FN·TN입니다강의는 먼저 이진 분류 문제에서 실제 값(Pos..
전체 강의 보기[AI 인공지능 머신러닝 딥러닝] - 꽂히는 딥러닝 | 전체 강의 소개 꽂히는 딥러닝 | 전체 강의 소개꽂히는 딥러닝 플레이리스트는 “수학·이론·직관”을 한 번에 잡으면서도, 처음부터 끝까지 흐름 있게 딥러닝을 배우고 싶은 사람에게 잘 맞는 입문·기본 강의 묶음입니다. 혁펜하임 특유의inner-game.tistory.com 9강은 “배치 정규화(Batch Normalization)가 도대체 무엇을 하고, 왜 그렇게 좋다고 하는지”를 동작 단계와 직관, 효과까지 한 번에 정리해 주는 강의입니다. BN 레이어가 단순히 값을 빼고 나누는 연산을 넘어, 학습 안정성과 수렴 속도를 어떻게 끌어올리는지 이해시키는 데 초점이 맞춰져 있습니다. 배치 정규화가 하려는 일입니다강의는 먼저, 트레..
전체 강의 보기[AI 인공지능 머신러닝 딥러닝] - 꽂히는 딥러닝 | 전체 강의 소개 꽂히는 딥러닝 | 전체 강의 소개꽂히는 딥러닝 플레이리스트는 “수학·이론·직관”을 한 번에 잡으면서도, 처음부터 끝까지 흐름 있게 딥러닝을 배우고 싶은 사람에게 잘 맞는 입문·기본 강의 묶음입니다. 혁펜하임 특유의inner-game.tistory.com 8강은 “왜 신경망이 이렇게까지 잘 맞는가?”에 대한 이론적 답을 주는 보편 근사 정리(Universal Approximation Theorem)를, 깍두기 비유로 직관적으로 풀어낸 영상입니다. 한 줄로 말하면 “충분히 많은 뉴런만 있으면, 적당한 활성화 함수를 쓴 신경망 한 층으로 웬만한 함수는 다 근사할 수 있다”는 이야기를 이해시키는 강의입니다. 보편..
전체 강의 보기[AI 인공지능 머신러닝 딥러닝] - 꽂히는 딥러닝 | 전체 강의 소개 꽂히는 딥러닝 | 전체 강의 소개꽂히는 딥러닝 플레이리스트는 “수학·이론·직관”을 한 번에 잡으면서도, 처음부터 끝까지 흐름 있게 딥러닝을 배우고 싶은 사람에게 잘 맞는 입문·기본 강의 묶음입니다. 혁펜하임 특유의inner-game.tistory.com 7장(7-1~7-4)은 “이미지에 특화된 딥러닝”인 CNN을, 탄생 배경부터 구조·효율성·직관까지 한 번에 잡아 주는 구간입니다. 이 범위를 듣고 나면 CNN 논문에 나오는 컨볼루션 레이어 그림과 용어들을 훨씬 부드럽게 읽을 수 있게 됩니다. 7-1강. 합성곱 신경망(CNN)입니다7-1강은 먼저 완전연결 신경망이 이미지에 그대로 적용되면 파라미터 수가 기하..
전체 강의 보기[AI 인공지능 머신러닝 딥러닝] - 꽂히는 딥러닝 | 전체 강의 소개 꽂히는 딥러닝 | 전체 강의 소개꽂히는 딥러닝 플레이리스트는 “수학·이론·직관”을 한 번에 잡으면서도, 처음부터 끝까지 흐름 있게 딥러닝을 배우고 싶은 사람에게 잘 맞는 입문·기본 강의 묶음입니다. 혁펜하임 특유의inner-game.tistory.com 6장(6-1~6-5)은 “딥러닝이 실제로 어떻게 학습되는지”를 역전파 수식부터 SGD·모멘텀·RMSProp·ReLU까지 한 번에 엮어 보여주는 파트입니다. 이 범위를 듣고 나면, 손실함수가 어떻게 그라디언트로 바뀌고, 그라디언트가 어떻게 파라미터 업데이트로 이어지는지 전체 그림이 훨씬 선명해집니다. 6-1강. 역전파: 체인 룰로 보는 딥러닝입니다6-1강에서..
전체 강의 보기[AI 인공지능 머신러닝 딥러닝] - 꽂히는 딥러닝 | 전체 강의 소개 꽂히는 딥러닝 | 전체 강의 소개꽂히는 딥러닝 플레이리스트는 “수학·이론·직관”을 한 번에 잡으면서도, 처음부터 끝까지 흐름 있게 딥러닝을 배우고 싶은 사람에게 잘 맞는 입문·기본 강의 묶음입니다. 혁펜하임 특유의inner-game.tistory.com 5장(5-1~5-3)은 “딥러닝 수식의 바닥”이 되는 벡터·행렬·복소수 미분을, 실제 최적화 문제에 바로 쓸 수 있는 형태로 정리해 주는 구간입니다. 이 파트만 잘 잡아 두면, 역전파 공식이나 헤시안, 복소수 기반 최적화 논문을 볼 때 수학이 훨씬 덜 버겁게 느껴지게 됩니다. 5-1강. 스칼라를 벡터로 미분입니다5-1강은 “입력이 벡터, 출력이 스칼라인 ..
전체 강의 보기[AI 인공지능 머신러닝 딥러닝] - 꽂히는 딥러닝 | 전체 강의 소개 꽂히는 딥러닝 | 전체 강의 소개꽂히는 딥러닝 플레이리스트는 “수학·이론·직관”을 한 번에 잡으면서도, 처음부터 끝까지 흐름 있게 딥러닝을 배우고 싶은 사람에게 잘 맞는 입문·기본 강의 묶음입니다. 혁펜하임 특유의inner-game.tistory.com 4강은 딥러닝에서 자주 등장하는 엔트로피, 크로스 엔트로피, KL 다이버전스, 상호정보량을 “정보를 얼마나 효율적으로 표현할 수 있는가”라는 하나의 직관으로 묶어 설명하는 영상입니다. 로지스틱/소프트맥스 손실, MLE, 분포 간 거리 같은 개념의 뿌리를 15분 안에 훑어 주는 자리이기도 합니다. 엔트로피: 정보의 최소 자원 양입니다강의는 “정보를 표현하는 데 필..
전체 강의 보기[AI 인공지능 머신러닝 딥러닝] - 꽂히는 딥러닝 | 전체 강의 소개 꽂히는 딥러닝 | 전체 강의 소개꽂히는 딥러닝 플레이리스트는 “수학·이론·직관”을 한 번에 잡으면서도, 처음부터 끝까지 흐름 있게 딥러닝을 배우고 싶은 사람에게 잘 맞는 입문·기본 강의 묶음입니다. 혁펜하임 특유의inner-game.tistory.com 3장(3-1~3-4)은 “신경망이 분류를 어떻게 수행하는지”를 퍼셉트론 → 로지스틱 회귀 → 소프트맥스 회귀 → 개념 정리 순서로 한 번에 잡아 주는 세트입니다. 이 범위를 듣고 나면, 이진·다중 분류 문제에서 출력, 확률, 손실함수가 서로 어떻게 맞물리는지 큰 그림이 그려지게 됩니다. 3-1강. 퍼셉트론과 MLP입니다3-1강에서는 먼저 2차원 평면 위에 ..
전체 강의 보기[AI 인공지능 머신러닝 딥러닝] - 꽂히는 딥러닝 | 전체 강의 소개 꽂히는 딥러닝 | 전체 강의 소개꽂히는 딥러닝 플레이리스트는 “수학·이론·직관”을 한 번에 잡으면서도, 처음부터 끝까지 흐름 있게 딥러닝을 배우고 싶은 사람에게 잘 맞는 입문·기본 강의 묶음입니다. 혁펜하임 특유의inner-game.tistory.com 2-1강과 2-2강은 “선형 회귀로 보던 세상” 위에 진짜 딥러닝의 얼굴인 인공 신경망과 활성화 함수를 얹어 주는 파트입니다. 이 두 영상을 통해 선형 모델이 어떻게 층과 비선형 함수를 만나 딥러닝으로 확장되는지 자연스럽게 연결해 주는 것이 특징입니다. 2-1강. 인공 신경망: 함수를 표현하는 거대한 기계입니다2-1강에서는 뇌의 뉴런 구조 비유로 시작해, ..
[AI 인공지능 머신러닝 딥러닝] - 꽂히는 딥러닝 | 전체 강의 소개 꽂히는 딥러닝 | 전체 강의 소개꽂히는 딥러닝 플레이리스트는 “수학·이론·직관”을 한 번에 잡으면서도, 처음부터 끝까지 흐름 있게 딥러닝을 배우고 싶은 사람에게 잘 맞는 입문·기본 강의 묶음입니다. 혁펜하임 특유의inner-game.tistory.com 선형 회귀 1강부터 4강까지는 “머신러닝의 심장부”라고 할 수 있는 선형 회귀를, 개념–최적화–수학적 직관–‘선형’의 진짜 의미까지 한 번에 꿰어 주는 묶음으로 이해하면 됩니다. 이 네 편만 제대로 소화해도 이후 딥러닝 강의에서 나오는 대부분의 수식과 그래디언트 관련 설명이 훨씬 자연스럽게 받아들여지게 됩니다. 1-1강. 선형 회귀: 머신러닝의 첫 퍼즐 조각입니다1-1강에서는..
꽂히는 딥러닝 플레이리스트는 “수학·이론·직관”을 한 번에 잡으면서도, 처음부터 끝까지 흐름 있게 딥러닝을 배우고 싶은 사람에게 잘 맞는 입문·기본 강의 묶음입니다. 혁펜하임 특유의 비유와 그림 중심 설명 덕분에, 복잡해 보이던 개념들이 한 번 “꽂히면” 쉽게 잊히지 않는다는 점이 가장 큰 매력입니다. '꽂히는 딥러닝' 강의는 2020년에 녹화되었으며, 최신본은 '이지 딥러닝'입니다. 하지만 '꽂히는 딥러닝'에는 조금 더 깊이있는 내용도 있기 때문에 '이지 딥러닝'을 본 후에 '꽂히는 딥러닝'을 보는 것도 의미가 있을것 같습니다. [AI 인공지능 머신러닝 딥러닝] - 이지 딥러닝 - 혁펜하임 | Easy! 딥러닝 - 무료 강의 및 책 소개 이지 딥러닝 - 혁펜하임 | Easy! 딥러닝 - 무료 강의 및 ..
[AI 인공지능 머신러닝 딥러닝/Python | PyTorch] - 인스톨! 파이토치 강의 소개 인스톨! 파이토치 강의 소개혁펜하임 PyTorch 강의 오리엔테이션 요약혁펜하임 채널의 '[PyTorch] 0강. 오리엔테이션' 영상은 채널 5주년 기념으로 '인스톨! 파이토치' 강의를 소개하는 내용입니다. 강의자는 최근 출간한 '이론inner-game.tistory.com 딥러닝 모델을 실전에서 학습시키려면 단순히 모델을 정의하고 학습 루프를 돌리는 것 이상의 작업이 필요합니다. Validation set을 활용한 모델 평가, 학습률 스케줄러를 통한 성능 최적화, 체크포인트 저장 등 다양한 기법이 필요합니다. 이번 강의에서는 지금까지 배운 모든 내용을 통합한 완성도 높은 코드 템플릿을 제공합니다.[^1]전..
[AI 인공지능 머신러닝 딥러닝/Python | PyTorch] - 인스톨! 파이토치 강의 소개 인스톨! 파이토치 강의 소개혁펜하임 PyTorch 강의 오리엔테이션 요약혁펜하임 채널의 '[PyTorch] 0강. 오리엔테이션' 영상은 채널 5주년 기념으로 '인스톨! 파이토치' 강의를 소개하는 내용입니다. 강의자는 최근 출간한 '이론inner-game.tistory.com 11-1강. 내가 가진 데이터를 딥러닝에 활용하는 법!실전 딥러닝 프로젝트에서는 MNIST나 CIFAR-10 같은 표준 데이터셋이 아닌, 자신만의 데이터를 사용하는 경우가 대부분입니다. PyTorch에서는 torch.utils.data.Dataset 클래스를 상속받아 커스텀 데이터셋을 만들 수 있습니다.[^1][^2][^3]Dataset ..
[AI 인공지능 머신러닝 딥러닝/Python | PyTorch] - 인스톨! 파이토치 강의 소개 인스톨! 파이토치 강의 소개혁펜하임 PyTorch 강의 오리엔테이션 요약혁펜하임 채널의 '[PyTorch] 0강. 오리엔테이션' 영상은 채널 5주년 기념으로 '인스톨! 파이토치' 강의를 소개하는 내용입니다. 강의자는 최근 출간한 '이론inner-game.tistory.com 10-1강. 딥러닝 고수가 되기 위해서는 꼭 알아야 하는 녀석들PyTorch의 nn.Module은 딥러닝 모델을 구성하는 기본 클래스로, 모델의 레이어와 파라미터를 관리하는 강력한 메소드들을 제공합니다. 이러한 메소드들을 이해하면 모델의 내부 구조를 자유롭게 탐색하고 조작할 수 있습니다.[^1]parameters() vs named_p..
[AI 인공지능 머신러닝 딥러닝/Python | PyTorch] - 인스톨! 파이토치 강의 소개 인스톨! 파이토치 강의 소개혁펜하임 PyTorch 강의 오리엔테이션 요약혁펜하임 채널의 '[PyTorch] 0강. 오리엔테이션' 영상은 채널 5주년 기념으로 '인스톨! 파이토치' 강의를 소개하는 내용입니다. 강의자는 최근 출간한 '이론inner-game.tistory.com VGGNet이란?VGGNet은 옥스퍼드 대학의 Visual Geometry Group(VGG)이 개발한 CNN 아키텍처로, 2014년 ImageNet 대회에서 준우승을 차지한 모델입니다. 네트워크의 깊이가 성능에 어떤 영향을 미치는지 연구하기 위해 개발되었으며, 레이어를 깊게 쌓는 것에 초점을 맞춘 획기적인 모델입니다.[^1][^2][..
[AI 인공지능 머신러닝 딥러닝/Python | PyTorch] - 인스톨! 파이토치 강의 소개 인스톨! 파이토치 강의 소개혁펜하임 PyTorch 강의 오리엔테이션 요약혁펜하임 채널의 '[PyTorch] 0강. 오리엔테이션' 영상은 채널 5주년 기념으로 '인스톨! 파이토치' 강의를 소개하는 내용입니다. 강의자는 최근 출간한 '이론inner-game.tistory.com 데이터 증강이란?데이터 증강(Data Augmentation)은 기존 학습 데이터에 인위적인 변형을 가해 데이터셋의 크기와 다양성을 증가시키는 기법입니다. 새로운 이미지를 수집하는 대신, 원본 이미지를 변형하여 모델이 다양한 상황에서도 잘 작동하도록 학습시킵니다. 이는 과적합을 완화하고 모델의 일반화 성능을 크게 향상시키며, 특히 데이..
[AI 인공지능 머신러닝 딥러닝/Python | PyTorch] - 인스톨! 파이토치 강의 소개 인스톨! 파이토치 강의 소개혁펜하임 PyTorch 강의 오리엔테이션 요약혁펜하임 채널의 '[PyTorch] 0강. 오리엔테이션' 영상은 채널 5주년 기념으로 '인스톨! 파이토치' 강의를 소개하는 내용입니다. 강의자는 최근 출간한 '이론inner-game.tistory.com 7-1강. 합성곱 신경망(CNN) 컨볼루션 레이어 이론부터 구현까지컨볼루션 연산의 핵심 개념합성곱 신경망(Convolutional Neural Network)은 이미지를 인식하고 분류하는 데 특화된 딥러닝 아키텍처입니다. 컨볼루션 레이어는 네트워크가 이미지를 이해할 수 있도록 유용한 특징(feature)을 학습하는 핵심 구성 요소입니..
[AI 인공지능 머신러닝 딥러닝/Python | PyTorch] - 인스톨! 파이토치 강의 소개 인스톨! 파이토치 강의 소개혁펜하임 PyTorch 강의 오리엔테이션 요약혁펜하임 채널의 '[PyTorch] 0강. 오리엔테이션' 영상은 채널 5주년 기념으로 '인스톨! 파이토치' 강의를 소개하는 내용입니다. 강의자는 최근 출간한 '이론inner-game.tistory.com Dropout이란?드롭아웃(Dropout)은 2012년 힌튼 교수가 제안한 정규화 기법으로, 딥러닝 모델의 과적합(overfitting)을 방지하고 일반화 성능을 향상시키기 위해 고안되었습니다. 훈련 과정에서 뉴런을 무작위로 비활성화하여 모델이 특정 뉴런이나 경로에 지나치게 의존하지 않도록 합니다.[^1][^2]Dropout의 작동 원..
[AI 인공지능 머신러닝 딥러닝/Python | PyTorch] - 인스톨! 파이토치 강의 소개 인스톨! 파이토치 강의 소개혁펜하임 PyTorch 강의 오리엔테이션 요약혁펜하임 채널의 '[PyTorch] 0강. 오리엔테이션' 영상은 채널 5주년 기념으로 '인스톨! 파이토치' 강의를 소개하는 내용입니다. 강의자는 최근 출간한 '이론inner-game.tistory.com 5-1강. 파이토치 다중 분류 코드 40분 완성다중 분류(multi-class classification)는 3개 이상의 클래스를 예측하는 문제입니다. 주요 학습 내용은 다음과 같습니다.데이터셋과 데이터 로더DataLoader는 PyTorch에서 데이터를 배치 단위로 효율적으로 로드하는 유틸리티입니다. 모델 학습 시 각 스텝마..
[AI 인공지능 머신러닝 딥러닝/Python | PyTorch] - 인스톨! 파이토치 강의 소개 인스톨! 파이토치 강의 소개혁펜하임 PyTorch 강의 오리엔테이션 요약혁펜하임 채널의 '[PyTorch] 0강. 오리엔테이션' 영상은 채널 5주년 기념으로 '인스톨! 파이토치' 강의를 소개하는 내용입니다. 강의자는 최근 출간한 '이론inner-game.tistory.com 딥러닝에서 분류(Classification)는 회귀와 함께 가장 중요한 작업 유형입니다. 특히 이진 분류(Binary Classification)는 스팸 메일 필터링, 질병 진단, 고객 이탈 예측 등 실생활의 수많은 문제를 해결하는 데 사용됩니다. 4강에서는 파이토치로 이진 분류 모델을 구현하는 전체 과정과, 모델 성능을 극대화하기..
[AI 인공지능 머신러닝 딥러닝/Python | PyTorch] - 인스톨! 파이토치 강의 소개 인스톨! 파이토치 강의 소개혁펜하임 PyTorch 강의 오리엔테이션 요약혁펜하임 채널의 '[PyTorch] 0강. 오리엔테이션' 영상은 채널 5주년 기념으로 '인스톨! 파이토치' 강의를 소개하는 내용입니다. 강의자는 최근 출간한 '이론inner-game.tistory.com 파이토치에서 신경망을 구축할 때 가장 먼저 만나게 되는 것이 바로 선형 레이어(Linear Layer)입니다. nn.Linear()는 단순해 보이지만 모든 딥러닝 모델의 기초가 되는 핵심 구성 요소로, 이를 제대로 이해해야 복잡한 신경망 구조도 자유롭게 설계할 수 있습니다. 3강에서는 선형 레이어의 작동 원리부터 실제 학습 루프 구현까지..
[AI 인공지능 머신러닝 딥러닝/Python | PyTorch] - 인스톨! 파이토치 강의 소개 인스톨! 파이토치 강의 소개혁펜하임 PyTorch 강의 오리엔테이션 요약혁펜하임 채널의 '[PyTorch] 0강. 오리엔테이션' 영상은 채널 5주년 기념으로 '인스톨! 파이토치' 강의를 소개하는 내용입니다. 강의자는 최근 출간한 '이론inner-game.tistory.com 파이토치(PyTorch)의 자동 미분(Automatic Differentiation) 기능인 autograd는 신경망 학습의 핵심이자 파이토치가 딥러닝 프레임워크로서 강력한 이유 중 하나입니다. 역전파(backpropagation) 과정에서 필요한 모든 미분 계산을 자동으로 처리해주어, 개발자는 복잡한 수학적 미분 공식을 직접 구현할 ..
[AI 인공지능 머신러닝 딥러닝/Python | PyTorch] - 인스톨! 파이토치 강의 소개 인스톨! 파이토치 강의 소개혁펜하임 PyTorch 강의 오리엔테이션 요약혁펜하임 채널의 '[PyTorch] 0강. 오리엔테이션' 영상은 채널 5주년 기념으로 '인스톨! 파이토치' 강의를 소개하는 내용입니다. 강의자는 최근 출간한 '이론inner-game.tistory.com 파이토치(PyTorch) 강의는 딥러닝 프레임워크의 핵심 개념을 실습 중심으로 다루는 시리즈입니다. 텐서의 기본 개념부터 고급 인덱싱, 그리고 신경망 구축에 필수적인 함수들까지 체계적으로 학습할 수 있어, 머신러닝·딥러닝을 처음 시작하는 학습자에게 최적의 입문 과정이라 할 수 있습니다. 1-1강. 파이토치 기초 (basic) |..
제임스 스타인 추정량의 배경과 세부 내용을 알아 보겠습니다. 제임스 스타인 추정량 거의 절대적인 위치였던 최대우도추정 이론에 정면으로 도전Stein의 역설과 James–Stein 추정량을 통해, 왜 고차원에서 최대우도추정(MLE)이 더 이상 “최선”이 아니며 수축(shrinkage)과 편향–분산 균형이 왜 중요한지 설명하겠습니다. 1. Stein의 역설과 문제 설정1961년 Stein의 결과는, 그전까지 거의 절대적인 위치였던 최대우도추정 이론에 정면으로 도전하며 통계학계를 충격에 빠뜨린 결과로 소개됩니다.설정: 서로 독립인 정규분포 여러 개에서, 각 분포의 평균 $\mu_i$를 한 번씩 샘플 $X_i$만 보고 추정하는 문제를 다룹니다.1차원·2차원에서는 “그냥 관측값 그대로 쓰는” $\hat\mu_i..
이 포스팅에서는 “그래픽스 파이프라인”이 3D 모델의 삼각형과 텍스처를 받아서 최종 화면 이미지를 만드는 과정을 단계별로 설명합니다. 그래픽스 파이프라인은 3D 장면을 표현하는 삼각형 메쉬와 텍스처를 입력으로 받아, 모니터에 보여지는 2D 이미지(렌더 타깃)를 만들어 내는 일련의 단계입니다. 이 영상에서는 그중 Direct3D·OpenGL 계열에서 공통적으로 등장하는 “입력 조립 → 정점/테셀레이션/지오메트리 셰이더 → 래스터라이저 → 픽셀 셰이더 → 출력 머저” 흐름을, 수학 대신 개념 위주로 직관적으로 설명합니다. 파란 블록은 라이브러리가 내부에서 처리하는 고정 기능 단계이고, 초록 블록은 우리가 직접 코드를 작성하는 셰이더 단계라는 색 구분도 함께 소개합니다. 파이프라인의 시작은 ..