728x90

Coding Exercise 88

[머신 러닝] K-Fold Cross Validation(K-Fold 교차검증)

K-Fold 교차검증 - 데이터의 개수가 너무 적을경우, 트레이닝 데이터와 테스트 데이터가 어떻게 나눠지는가에 따라 성능 측정 결과가 크게 달라질 수 있다. ==> 이런 문제를 해결하기 위해 K-Fold 교차검증을 사용 할 수 있음 import numpy as np from sklearn.model_selection import KFold X=np.array([[1,2],[3,4],[1,2],[3,4]]) y=np.array([1,2,3,4]) kf=KFold(n_splits=2) KFold(n_splits=2, random_state=None, shuffle=False) for train_index, test_index in kf.split(X): X_train, X_test = X[train_inde..

Machine Learning 2021.09.01

[머신 러닝] 결정트리(Decision Tree)

결정트리(Decision Tree) - 데이터 마이닝에서 일반적으로 사용되는 방법론 - 입력 변수를 바탕으로 목표 변수의 값을 예측하는 모델을 생성하는 것을 목표로 한다 - 수 많은 if절로 이루어져 있다고 생각하면 이해하기 쉬움 *장점 - 알고리즘의 동작과정이 직관적이다 -> 이해하기 쉽다 - 학습시간이 빠르다 - 개별 feature들을 판단하므로, 일반화가 필요하지 않다. *단점 - 오버피팅에 빠지기 쉽다 ==> 너무 세부적으로 나누어 진 트리는 결국 training data에만 맞추어지기 때문에 예측값의 정확도가 떨어질 수 있다. *scikit-learn의 DecisionTree Estimator from sklearn.tree import DecisionTreeClassifier #분류(class..

Machine Learning 2021.09.01

[머신 러닝] Scikit-learn

*scikit-learn 기본 사용법 1. Estimator 선언 (e.g. LinearRegression) 2. .fit() 함수 호출을 통한 트레이닝 3. .predict()함수 호츨을 통한 예측 * scikit-learm을 이용하여 training data, test data 나누기 from sklearn.model_selection import train_test_split #80%는 트레이닝 데이터, 20%는 테스트 데이터로 나누고 싶을 때 X_train, X_test, y_train, y_test = train_test_split(X,y, test_size=0.2) * Estimator 선언하기 from sklearn.linear_model import LinearRegression #선형회귀..

Machine Learning 2021.09.01

[파이썬/백준 2579번] 계단오르기

동적계획법,, 아 알았다! 싶으면 또 아니고 ... 아직까지 여러 유형을 공부한다고 생각하고 해야되는데 너무 어렵다 ㅜㅜ.. 결국 다른 분 풀이 보고 했는데, "합" 이라는 말에 계속 점화식을 찾으면서 어떤 최댓값을 더해서 해야할지 찾고 있었는데 아하하 최대값,,,max,,max로 찾으면 되는것을,, N=int(input()) nl=[0 for _ in range(301)] for i in range(N): nl[i]=int(input()) dp=[0 for _ in range(301)] dp[0]=nl[0] dp[1]=nl[0]+nl[1] dp[2]=max(nl[0]+nl[2],nl[1]+nl[2]) for i in range(3,N): dp[i]=max(dp[i-2]+nl[i],dp[i-3]+nl[i..

Baekjoon Case 2021.09.01
728x90