인공지능 대학원/AI 영상처리 (9) 썸네일형 리스트형 GAN(GAN: Generative Adversarial Network) 📘 GAN 핵심 요약노트1️⃣ GAN(GAN: Generative Adversarial Network) 이란?Generative Adversarial Network번역: 생성적 적대 신경망목표: 진짜 같은 가짜 데이터를 생성하는 것 (→ 판별보다는 ‘생성’에 관심)🔍 기본 구조 (비유 중심)G (Generator): 위조지폐범 — 진짜처럼 보이는 가짜 데이터를 만듦D (Discriminator): 경찰 — 진짜와 가짜를 구별하려 함적대적 관계이지만 서로 경쟁하면서 점점 실력이 좋아짐⇒ 정(Generator) + 반(Discriminator) = 합(GAN 발전)⇒ 즉, GAN은 정반합 구조의 반복 학습2️⃣ 학습 방식비지도 학습 (Unsupervised learning)의 대표 사례라벨 없이, 데이터.. CNN 및 Convolution 종류 ✅ 1. CNN 및 Convolution 종류🔹 CNN의 특징로컬 정보에 강함 (이미지의 작은 영역을 잘 인식)채널 수가 많은 이미지를 처리할 수 있음🔹 Convolution 종류종류 설명Standard Convolution모든 채널에 대해 필터를 적용한 후 합쳐서 출력Depthwise Convolution각 채널에 대해 개별 필터 적용 → 채널 간 정보 결합 없음Pointwise Convolution (1x1 Conv)각 픽셀 위치마다 채널을 통합 → 채널 간 정보 통합✅ Depthwise + Pointwise = Depthwise Separable Convolution(모바일넷에서 사용)계산량을 줄이면서도 성능을 유지하려는 구조🔸 SE 블록 (Squeeze-and-Excitation Block).. 전이학습 및 Semantic Segmentation ✅ 전이학습(Transfer Learning) 정리1. 전이학습(Transfer Learning) 개념정의: 이미 학습된 모델(주로 대규모 데이터셋에서 학습된 모델)의 가중치를 재사용하여 새로운 데이터셋에 맞춰 재학습하는 방법목적: 데이터가 부족하거나, 컴퓨팅 리소스가 제한된 경우에 유용유형:전체 모델 재학습 (Full Model Training): 전체 네트워크를 재학습시킴.특징 추출기 활용 (Feature Extraction):기존 모델의 특징 추출기(Feature Extractor) 부분은 그대로 두고, 분류기(Classifier) 만 새롭게 학습시킴예: 이미지넷 데이터로 학습한 모델의 Feature Extractor를 고정하고, CIFAR-10 데이터셋에 맞는 Classifier만 재학습부분 학습.. 딥러닝 개념 딥러닝 개념1. 손실 함수 (Loss Function)손실 함수(Loss) 는 모델의 예측값과 실제 정답의 차이를 수치로 나타냄예: L = f(p) (L은 손실 값, p는 예측 결과)L은 스칼라값 (즉, 하나의 수)p는 스칼라/벡터/행렬 등 다양할 수 있음손실 함수는 작을수록 좋다!손실을 줄이는 것이 모델 학습의 목표분류 문제에서는 크로스 엔트로피(Cross Entropy) 를 주로 사용2. 경사 하강법 (Gradient Descent)손실 값을 가장 작게 만드는 가중치(weight) 를 찾기 위한 알고리즘손실 함수의 기울기(경사) 를 따라 가중치를 조금씩 바꿔감러닝레이트 (learning rate 또는 alpha)한 번에 이동하는 거리 (step size)너무 작으면: 학습이 느림너무 크면: 최소점을 .. 인공신경망 MLP,CNN 1. 신경망(Neural Network) 학습 과정신경망은 입력 → 출력을 매핑해주는 모델로, 학습은 예측값과 실제값의 차이(=오차)를 줄이는 과정이때 중요한 역할을 하는 게 손실 함수 (Loss Function)!2. 손실 함수 (Loss Function)예측값과 실제 정답 사이의 차이를 수치로 나타냄손실 함수 값이 작을수록 모델이 잘 맞췄다는 뜻분류 문제에서는 크로스 엔트로피 (Cross Entropy) 가 대표적:예측 확률 분포와 실제 정답(원-핫 벡터) 분포의 차이를 측정정답 클래스에 높은 확률을 줄수록 손실이 작아짐3. 최적화 함수 (Optimizer)손실 값을 줄이기 위해 가중치(weight) 를 업데이트하는 도구대표적인 알고리즘:SGD (Stochastic Gradient Descent).. CIFAR-10로 CNN 이미지 분류 # 필요한 라이브러리 불러오기import torch # 딥러닝 기본 라이브러리from torch import nn # 신경망을 쉽게 만들 수 있는 도구from torch.utils.data import DataLoader # 데이터를 배치(batch) 단위로 불러오는 도구import torchvision # 이미지 데이터셋 관련 도구 모음from torchvision import datasets, transformsimport matplotlib.pyplot as plt # 그래프 그릴 때 사용import numpy as np # 수학 계산을 쉽게 해주는 도구# GPU가 가능하.. CNN(Convolutional Neural Network) CNN(Convolutional Neural Network)1. CNN 개요CNN(Convolutional Neural Network)은 이미지 데이터 처리에 특화된 딥러닝 모델로, 특징 추출(Feature Extraction)과 분류(Classification)를 자동으로 수행할 수 있다.(1) CNN의 주요 구성 요소Convolution Layer (컨볼루션 레이어) → 이미지 특징 추출Activation Function (비선형 활성화 함수, 주로 ReLU) → 비선형성 부여Pooling Layer (풀링 레이어) → 차원 축소, 중요한 정보 유지Fully Connected Layer (완전 연결층) → 최종 분류2. 컨볼루션 연산 (Convolution Operation)(1) 컨볼루션 필터(3×.. 비선형 함수(Nonlinear Function)의 필요성 비선형 함수(Nonlinear Function)의 필요성 정리1. 선형 함수 vs 비선형 함수선형 함수(Linear Function): 직선의 형태로 데이터를 분리 가능비선형 함수(Nonlinear Function): 곡선을 활용하여 복잡한 패턴을 표현 가능(1) 선형 함수만 사용하면 발생하는 문제뉴럴 네트워크에서 선형 변환(행렬 곱셈)만 계속하면 결국 하나의 선형 변환으로 축소됨예: 3개 레이어 중 중간 레이어가 사라지는 효과 발생즉, 딥러닝(Deep Learning)이 아닌 단순한 선형 모델(Linear Model)이 되어버림(2) 딥러닝에서 비선형 함수의 필요성뉴런(Neuron) 수가 많아질수록 모델 성능이 향상됨비선형 활성화 함수(Activation Function)를 추가하면 레이어의 역할이 유.. 이전 1 2 다음