본문 바로가기

전체 글

(69)
[해커랭크] Top Earners - Group by 문제출처 : https://www.hackerrank.com/challenges/earnings-of-employees/problem 해설 : 끊어서 생각하기 salary * month = earnings각 earning 별로 몇명이 그 만큼 벌어쓴ㄴ지 계산 ( 5000, 2 / 3000, 5 / 10000, 1) group byearning 중에 가장 큰 값을 가져온다 order by, limit 그러면 이렇게 됨 : 1번 = select salary * months as earnings,2번 = count(*)from employeegroup by earnings3번 = order by earnings desclimit 1
전이학습 및 Semantic Segmentation ✅ 전이학습(Transfer Learning) 정리1. 전이학습(Transfer Learning) 개념정의: 이미 학습된 모델(주로 대규모 데이터셋에서 학습된 모델)의 가중치를 재사용하여 새로운 데이터셋에 맞춰 재학습하는 방법목적: 데이터가 부족하거나, 컴퓨팅 리소스가 제한된 경우에 유용유형:전체 모델 재학습 (Full Model Training): 전체 네트워크를 재학습시킴.특징 추출기 활용 (Feature Extraction):기존 모델의 특징 추출기(Feature Extractor) 부분은 그대로 두고, 분류기(Classifier) 만 새롭게 학습시킴예: 이미지넷 데이터로 학습한 모델의 Feature Extractor를 고정하고, CIFAR-10 데이터셋에 맞는 Classifier만 재학습부분 학습..
해커랭크 Revising Aggregations - Averages 외 5문제 Revising Aggregations - Averages 넘 오랜만에 해서 3트 만에 썩세스 ㅠ ㅋㅋㅋㅋ이유 : where 을 from 전에 썼었고 "" 를 필드명에도 사용했어서 틀렸다. #The Sum Function -> 한번에 통과 #틀린문제 - The Count Function 정답 select count(id) 또는 count(*)from citywhere population > 100,000 # Average Population소수점 둘째자리에서 반올림 하는 방법 까먹은듯...정답:round down = 버림 select floor(avg(population))from city 빼기 방법이 저게 맞나?카운트도 헷갈린다 .. 정답 : 위 답에 sum을 빼면 됨.
자연어처리(NLP) 1주차 - 자연어처리(NLP) 개요NLP란?사람이 쓰는 말을 컴퓨터가 이해하고 처리하게 하는 기술예: 챗봇, 번역기, 감정 분석기 등자연어 vs 인공어구분 자연어 (한국어, 영어 등) 인공어 (Python, C 등)생성자연적으로사람이 만듦규칙불규칙 많음규칙적해석모호함명확함처리 난이도어려움 (NLP 도전)쉬움NLP 과정코퍼스(Corpus): 텍스트 데이터 모음전처리: 의미 없는 부분 제거 (예: 특수기호)임베딩: 숫자로 변환모델 적용: 번역, 분류, 생성 등NLP 모델 흐름NLU (이해): 문장 의미 파악 (예: 감정 분석, 질문 응답)NLG (생성): 자연스러운 문장 생성 (예: 챗봇 답변)NLP 발전사1950~: 규칙 기반 → 통계 기반 → 딥러닝 → LLM (GPT, BERT 등)2주차 - 텍스트 전..
[논문리뷰] wav2vec 2.0: A Framework for Self-SupervisedLearning of Speech Representations 해당 논문의 목표는 라벨이 없는 음성 데이터만으로 좋은 음성 인식 모델을 만들고자 함에 있다. 자기지도학습 + 마스킹 + 대조를통한 학습을 통해 적은 라벨로도 높은 성능을 낼 수 있음을 입증하고자 한다. - 배경기존 음성인식 모델은 수천 시간의 라벨링 된 양의 음성데이터가 필요했다.하지만 해당 데이터는 7000개의 언어 중 대부분이 구하기 어려운 상황이다 - 모델 흐름 1.  input 원시음성 (waveform) 이 입력되면 CNN(Convolutional Neural Network) 으로 음성을 백터로 바꾼다  Input: “Hello, how are you?”  -> raw_audio = [0.01, 0.03, -0.02, ..., 0.00]  2. 그중 일부를 마스킹한다  [벡터1] [벡터2] [..
컬렉션 자료형: 리스트, 튜플, 딕셔너리 1. 컬렉션 자료형: 리스트, 튜플, 딕셔너리✅ 리스트 (List)가장 많이 사용하는 자료구조 중 하나순서가 있으며, 변경(수정/삭제) 가능하고, 중복 허용대괄호 [] 사용fruits = ['apple', 'banana', 'cherry'] 자주 사용하는 리스트 메서드메서드 설명 예시append(item)리스트 맨 뒤에 추가fruits.append('grape')insert(pos, item)특정 위치에 추가fruits.insert(1, 'orange')extend(list)리스트에 다른 리스트 확장fruits.extend(['kiwi', 'melon'])pop([pos])특정 위치(기본 마지막)의 요소 제거fruits.pop()remove(item)특정 값을 가진 첫 번째 항목 제거fruits.remo..
Matplotlib / Numpy Matplotlib (맷플롯립) 1. Matplotlib이란?파이썬의 시각화 라이브러리로, 데이터를 그래프로 쉽게 표현할 수 있음Pyplot은 Matplotlib의 가장 많이 쓰는 서브모듈2. Pyplot 구성 요소구성 요소설명figure전체 그래프의 틀 (도화지 전체)axes그래프가 실제로 그려지는 영역 (x축, y축 포함)subplot한 figure 안에 여러 개의 axes를 넣을 수 있는 기능예시:import matplotlib.pyplot as pltfig, ax = plt.subplots() # figure와 axes 생성ax.plot([1, 2, 3], [4, 5, 6]) # 그래프 그리기plt.show()plt.subplots()는 도화지 위에 공간을 나눠 그래프를 여러 개 그릴 때 사용..
딥러닝 개념 딥러닝 개념1. 손실 함수 (Loss Function)손실 함수(Loss) 는 모델의 예측값과 실제 정답의 차이를 수치로 나타냄예: L = f(p) (L은 손실 값, p는 예측 결과)L은 스칼라값 (즉, 하나의 수)p는 스칼라/벡터/행렬 등 다양할 수 있음손실 함수는 작을수록 좋다!손실을 줄이는 것이 모델 학습의 목표분류 문제에서는 크로스 엔트로피(Cross Entropy) 를 주로 사용2. 경사 하강법 (Gradient Descent)손실 값을 가장 작게 만드는 가중치(weight) 를 찾기 위한 알고리즘손실 함수의 기울기(경사) 를 따라 가중치를 조금씩 바꿔감러닝레이트 (learning rate 또는 alpha)한 번에 이동하는 거리 (step size)너무 작으면: 학습이 느림너무 크면: 최소점을 ..

728x90