본문 바로가기

728x90

멀티캠퍼스 프로젝트형 AI 서비스 개발 5회차

4/13 수 수요일! CNN(Convolutional Neural Network, convnet. 합성곱 신경망)으로 들어간다! Deep Learning(Deep Neural Network)의 종류 : - Computer Vision : 컴퓨터가 이미지나 비디오를 보고 여러 객체를 식별하고 파악할 수 있도록 지원하는 Computer Science 분야. 대표적인 알고리즘은 CNN. 목적은 pixel을 이해하는 방법을 고안하는 것 - NLP(Natural Language Process) : 자연어 처리. 대표적인 알고리즘은 RNN, LSTM 이미지를 이루는 가장 작은 단위 → pixel 이미지 좌표계 (Image coordinate) - 2차원 ndarray로 표현 - pixel (세로, 가로) 1. 이미지 처리(Im.. 더보기
4/12 화 화요일! 현재의 Deep Learning이 어느 정도 효율을 내기 시작한 이유에 대해 공부한다. Weight와 Bias를 랜덤 초기값으로 사용하던 것을 Xievier/He's Initialization으로 대체하고, Vanishing Gradient 현상을 Back-Propagation(행렬연산, 역의 방향으로 W, b를 Update)과 Activation 함수를 Sigmoid 대신 ReLU를 사용하고, 계산해야 하는 W, b를 Drop-out으로 연산에 사용되는 Node를 줄임으로써 해결함 1. Multinomial Classification by Tensorflow 1.15 ver. import numpy as np import pandas as pd import tensorflow as tf imp.. 더보기
4/11 월 월요일! 오늘은 딥러닝과 신경망에 대해 배운다! Perceptron은 Neuron 한 개 Deep Learning : 한 개의 Logistic Regression을 표현하는 node가 서로 연결되어 있는 신경망 구조를 바탕으로 한 개의 입력층, 한 개 이상의 은닉층(많을수록 학습이 잘 됨. 1~3개가 적당), 한 개의 출력층으로 이루어짐 feed forward(propagation). XOR 문제는 node 한 개(perceptron)로는 학습이 안 됨 1. Perceptron. GATE 연산(AND, OR, XOR 연산자)을 Logistic Regression과 Tensorflow 1.5 Ver.으로 구현 import numpy as np import tensorflow as tf from sklear.. 더보기
4/8 금 금요일! 🐱‍🏍 오늘은 Regression을 끝낸다~~ 4/11 월요일은 머신러닝 필답 평가, 4/17 일요일은 수행평가 4가지 제출이 있다. 결측치 처리는 삭제하거나, imputation(보간, 대체) - 평균화 기법(독립변수를 대표값으로 대체), 머신러닝 기법(종속변수가 대상. KNN) KNN(K-Nearest Neighbors, K-최근접 이웃) : hyperparameter는 k(=1일 때 어느 정도의 성능 보장)와 거리측정 방식(주로 유클라디안 사용) 반드시 정규화를 진행해야 함. 모든 데이터에 대해 거리를 계산해야 하므로 시간이 오래 걸릴 수 있음 1. Logistic Regression + KNN - BMI data import numpy as np import pandas as pd fro.. 더보기
4/7 목 목요일! 오늘도 Multinomial Classification를 대표적인 예제(MNIST)를 통해 배운다~ 손으로 쓴 숫자들로 이루어진 대형 데이터베이스~ MNIST 이미지는 그 자체가 2차원이고 그런 게 여럿이기 때문에 3차원. 이미지를 1차원으로 ravel() 해야 함 https://www.kaggle.com/competitions/digit-recognizer/data?select=test.csv Digit Recognizer | Kaggle www.kaggle.com Tensorflow Ver. 1.15은 배운 이론을 코드로 이해하기에는 좋지만 코드가 너무 어렵다. 1. Multinomial Classification by Tensorflow Ver. 1.15 - MNIST import nump.. 더보기
4/6 수 수요일! 오늘은 Multinomial Classification을 배운다. Linear Regression(연속적인 숫자 값 예측)이 발전한 것이 Logistic Regression → Classification(분류를 판단하는 예측) - Binary Classification(이항분류) - Multinomial Classification(다항분류) Logistic Regression은 이진 분류에 특화됨 SKlearn이 제공하는 분류기인 Gradient Descent(경사하강법)가 발전한 형태인 SGD Classifier(Stochastic Gradient Descent, 확률적 경사하강법) 1. Binary Classification - 위스콘신 유방암 데이터 by Gradient Descent Cl.. 더보기
4/5 화 화요일! Logistic Regression을 활용해 머신러닝 진행 시 주의사항을 알아본다. 앞으로 우리는 Classification(이항분류)의 Metrics로 Accuracy를 사용할 예정이다. 모델 평가 전 고려해야 하는 것들 1. learning rate(학습률) : loss 값을 보면서 학습률을 조정해야 함. 보통 1의 마이너스 4승으로 잡음 학습률이 너무 크다면 global minima(W')를 찾을 수 없게 됨 → OverShooting 발생 학습률이 아주 작다면 local minima 찾게 됨 2. Normalization(정규화) : MinMax Scaling - 0 ~ 1. 이상치에 민감함 Standardization - 표준화, Z-Score. 상대적으로 이상치에 둔감함, 모든 칼럼에.. 더보기
7회 차 | 4/4 월 7회 차! 벌써 스터디 4주 차다~ 첫째 주는 타이타닉, 둘째 주는 MovieLens EDA · 시각화 · 기술통계, 셋째 주는 캐글 및 데이콘의 예제 혹은 각자 수집한 데이터셋으로 진행하는 머신러닝 프로젝트가 있었다. 이번 주는 지난번에 수정한 커리큘럼에 따라 멀캠 주간 수업에서 배운 인공신경망을 복습하고 프레임워크를 공부하는 것으로 가닥을 잡았었다. 하지만 아직 성능평가(Metrics)를 배우고 있어, 아직 딥러닝으로 진도가 나가지 않았다. 내일까지 제출해야 하는 수행평가도 있어, 이에 대한 각자의 진행 상황을 리뷰하는 것으로 대체했다. (데이터 분석, 반복문, 불린 인덱싱, 전처리, 정규화, 결측치 · 이상치 처리 등 스타일이 다 다르다. 참고해서 최적의 방법을 익히자) 운영진 회의를 거쳐 정한 커.. 더보기

728x90