인공지능 대학원 (23) 썸네일형 리스트형 GAN(GAN: Generative Adversarial Network) 📘 GAN 핵심 요약노트1️⃣ GAN(GAN: Generative Adversarial Network) 이란?Generative Adversarial Network번역: 생성적 적대 신경망목표: 진짜 같은 가짜 데이터를 생성하는 것 (→ 판별보다는 ‘생성’에 관심)🔍 기본 구조 (비유 중심)G (Generator): 위조지폐범 — 진짜처럼 보이는 가짜 데이터를 만듦D (Discriminator): 경찰 — 진짜와 가짜를 구별하려 함적대적 관계이지만 서로 경쟁하면서 점점 실력이 좋아짐⇒ 정(Generator) + 반(Discriminator) = 합(GAN 발전)⇒ 즉, GAN은 정반합 구조의 반복 학습2️⃣ 학습 방식비지도 학습 (Unsupervised learning)의 대표 사례라벨 없이, 데이터.. SORT 백준 11399번 ATM 문제출처 : https://www.acmicpc.net/problem/11399문제 핵심 ATM 앞에 N명이 줄을 설 때 각 사람이 기다린 시간의 총합이 최소가 되도록 줄을 다시 세우고, 그 최소 총합을 구하는 문제1. 왜 “정렬”이 답일까?사람 돈 뽑는 데 걸리는 시간 Pi①3분②1분③4분④3분⑤2분앞사람이 끝나야 뒷사람이 시작할 수 있으므로,짧게 걸리는 사람부터 세우면 뒤사람이 덜 기다립니다.결국 Pi를 오름차순으로 정렬하면 총기다림 시간이 최소가 됩니다.( 증명: “그리디 교환 논법” – 긴 사람·짧은 사람 순서를 바꾸면 항상 더 좋아짐 )2. 최소 총합 계산 절차정렬 : P = [1, 2, 3, 3, 4]앞사람까지의 누적시간을 차례로 구함첫 사람 1두 번째 1 + 2 = 3세 번째 1 + 2 + .. CNN 및 Convolution 종류 ✅ 1. CNN 및 Convolution 종류🔹 CNN의 특징로컬 정보에 강함 (이미지의 작은 영역을 잘 인식)채널 수가 많은 이미지를 처리할 수 있음🔹 Convolution 종류종류 설명Standard Convolution모든 채널에 대해 필터를 적용한 후 합쳐서 출력Depthwise Convolution각 채널에 대해 개별 필터 적용 → 채널 간 정보 결합 없음Pointwise Convolution (1x1 Conv)각 픽셀 위치마다 채널을 통합 → 채널 간 정보 통합✅ Depthwise + Pointwise = Depthwise Separable Convolution(모바일넷에서 사용)계산량을 줄이면서도 성능을 유지하려는 구조🔸 SE 블록 (Squeeze-and-Excitation Block).. 에이전트(AI Agent) 개념 정리 에이전트(AI Agent) 개념 정리📌 핵심 개념에이전트란?사람이 개입하지 않아도 스스로 목표를 설정하고 문제 해결을 위해 행동하는 AI 시스템구성 요소:모델 (뇌):GPT, Gemini 등API 호출로 사용되며, 비용 발생 주의오케스트레이션 레이어 (행동 조율)프롬프트 구조화반복 루프 설계 (목표 달성까지 시도 반복)메모리 관리Short-term: 대화 내역Long-term: 과거 기록 기억도구 (Tools)API 연동 기능VectorDB, Function 호출, 외부 데이터 연결 등익스텐션(Extension): 제어 불가능, 외부 실행펑션(Function): 내부에서 직접 실행 가능 (멀티 실행 가능)📌 관련 개념 요약개념설명REACTReasoning + Action + 검색 기반 프롬프트 (Go.. 전이학습 및 Semantic Segmentation ✅ 전이학습(Transfer Learning) 정리1. 전이학습(Transfer Learning) 개념정의: 이미 학습된 모델(주로 대규모 데이터셋에서 학습된 모델)의 가중치를 재사용하여 새로운 데이터셋에 맞춰 재학습하는 방법목적: 데이터가 부족하거나, 컴퓨팅 리소스가 제한된 경우에 유용유형:전체 모델 재학습 (Full Model Training): 전체 네트워크를 재학습시킴.특징 추출기 활용 (Feature Extraction):기존 모델의 특징 추출기(Feature Extractor) 부분은 그대로 두고, 분류기(Classifier) 만 새롭게 학습시킴예: 이미지넷 데이터로 학습한 모델의 Feature Extractor를 고정하고, CIFAR-10 데이터셋에 맞는 Classifier만 재학습부분 학습.. 자연어처리(NLP) 1주차 - 자연어처리(NLP) 개요NLP란?사람이 쓰는 말을 컴퓨터가 이해하고 처리하게 하는 기술예: 챗봇, 번역기, 감정 분석기 등자연어 vs 인공어구분 자연어 (한국어, 영어 등) 인공어 (Python, C 등)생성자연적으로사람이 만듦규칙불규칙 많음규칙적해석모호함명확함처리 난이도어려움 (NLP 도전)쉬움NLP 과정코퍼스(Corpus): 텍스트 데이터 모음전처리: 의미 없는 부분 제거 (예: 특수기호)임베딩: 숫자로 변환모델 적용: 번역, 분류, 생성 등NLP 모델 흐름NLU (이해): 문장 의미 파악 (예: 감정 분석, 질문 응답)NLG (생성): 자연스러운 문장 생성 (예: 챗봇 답변)NLP 발전사1950~: 규칙 기반 → 통계 기반 → 딥러닝 → LLM (GPT, BERT 등)2주차 - 텍스트 전.. [논문리뷰] wav2vec 2.0: A Framework for Self-SupervisedLearning of Speech Representations 해당 논문의 목표는 라벨이 없는 음성 데이터만으로 좋은 음성 인식 모델을 만들고자 함에 있다. 자기지도학습 + 마스킹 + 대조를통한 학습을 통해 적은 라벨로도 높은 성능을 낼 수 있음을 입증하고자 한다. - 배경기존 음성인식 모델은 수천 시간의 라벨링 된 양의 음성데이터가 필요했다.하지만 해당 데이터는 7000개의 언어 중 대부분이 구하기 어려운 상황이다 - 모델 흐름 1. input 원시음성 (waveform) 이 입력되면 CNN(Convolutional Neural Network) 으로 음성을 백터로 바꾼다 Input: “Hello, how are you?” -> raw_audio = [0.01, 0.03, -0.02, ..., 0.00] 2. 그중 일부를 마스킹한다 [벡터1] [벡터2] [.. 컬렉션 자료형: 리스트, 튜플, 딕셔너리 1. 컬렉션 자료형: 리스트, 튜플, 딕셔너리✅ 리스트 (List)가장 많이 사용하는 자료구조 중 하나순서가 있으며, 변경(수정/삭제) 가능하고, 중복 허용대괄호 [] 사용fruits = ['apple', 'banana', 'cherry'] 자주 사용하는 리스트 메서드메서드 설명 예시append(item)리스트 맨 뒤에 추가fruits.append('grape')insert(pos, item)특정 위치에 추가fruits.insert(1, 'orange')extend(list)리스트에 다른 리스트 확장fruits.extend(['kiwi', 'melon'])pop([pos])특정 위치(기본 마지막)의 요소 제거fruits.pop()remove(item)특정 값을 가진 첫 번째 항목 제거fruits.remo.. 이전 1 2 3 다음 목록 더보기