대학교 게임 개발 포트폴리오/머신러닝4 머신러닝 4주차 - 앙상블 학습과 랜덤 포레스트 앙상블 학습 : 일련의 예측기(= 분류나 회귀 모델)로부터 예측을 수집하면 가장 좋은 모델 하나보다 더 좋은 예측을 얻을 수 있을 것.일련의 예측기 = 앙상블앙상블 학습 알고리즘 = 앙상블 기법 앙상블 방법의 예 : 훈련 세트로부터 랜덤으로 각기 다른 서브셋을 만들어 일련의 결정 트리 분류기를 훈련시키기개별 트리의 예측을 모아 가장 많은 선택을 받은 클래스를 앙상블의 예측으로 삼는다. 랜덤 포레스트 : 결정트리의 앙상블, 오늘날 가장 강력한 머신러닝 알고리즘 7.1 투표 기반 분류기더 좋은 분류기를 만드는 매우 간단한 방법은 각 분류기의 예측을 집계하는 것.가장 많은 표를 얻은 클래스가 앙상블의 예측이 됨!직접 투표 분류기 : 다수결 투표로 정해지는 분류기이 다수결 투표 분류기가 앙상블에 포함된 개별 분.. 2025. 2. 10. 머신러닝 3주차 - 서포트 벡터 머신 , 결정트리 💡딥다이브 바로보기 서포트 벡터 머신 : 다목적 머신러닝 모델서포트 벡터 머신은 분류 작업에서 빛을 발함. 하지만 매우 큰 데이터셋으로는 확장되지 않음. 5.1 선형 SVM 분류라지 마진 분류 : SVM 분류기를 클래스 사이에 가장 폭이 넓은 도로를 찾는 것서포트 벡터 : 도로 경계에 위치한 샘플 5.1.1 소프트 마진 분류모든 샘플이 도로 바깥쪽에 올바르게 분류 돼 있다면 이를 하드 마진 분류라 함.하지만 문제점이 존재데이터가 선형적으로 구분 될수 있어야 제대로 작동함.이상치에 민감함.소프트 마진 분류 : 마진 오류 사이에 적절한 균형을 잡고 도로의 폭을 가능한 넓게 유지하는 것. 규제 하이퍼 파라미터 C를 줄이면 도로가 더 커지지만 더 많은 오류가 발생한다. 또한 과대적합의 위험이 줄어든다. 5.. 2025. 2. 4. 머신러닝 2주차 - 모델 훈련 💡딥다이브 바로보기 선형회귀 모델을 훈련시키는 2가지 방법닫힌 형태의 방정식 : 훈련 세트에 가장 잘 맞는 모델 파라미터를 직접 계산한다.경사 하강법 : 반복적인 최적화 방식을 사용해 모델 파라미터를 조금씩 바꾸면서 비용 함수를 훈련 세트에 대해 최소화시킨다.4.1 선형 회귀선형 모델은 입력 특성의 가중치 합과 편향(절편)이라는 상수를 더해 예측을 만든다. 모델을 훈련시킨다는 것 = 모델이 훈련 세트에 가장 잘 맞도록 모델 파라미터를 설정하는 것먼저 모델이 훈련 데이터에 얼마나 잘 들어맞는지 측정하기선형 회귀 모델을 훈련시키기 위해 RMSE(평균 제곱근 오차를 최소화하는 세타 찾기📌 좋은 성능 지표 = 최종 비즈니스 목표에 가장 근접한 것 , 좋은 훈련 손실 = 최적화 쉽고 지표와 밀접한 상관관계 .. 2025. 1. 25. 머신러닝 1주차 - 분류 3.1 MNIST사이킷런에서 제공하는 헬퍼 함수를 사용해 데이터셋을 내려받을 수 있음.fetch_* 함수 (ex. fetch_openml()) : 실전 데이터 셋을 다운로드하는 함수load_* 함수 : 소규모 데이터셋 로드하기 위한 함수make_* 함수 : 가짜 데이터셋을 생성하기 위한 함수 이미지 하나 출력해서 확인해보기import matplotlib.pyplot as pltdef plot_digit(image_data): image = image_data.reshape(28, 28) 28 X 28 배열 사이즈 plt.imshow(image, cmap="binary") 흑백 설정 plt.axis("off")some_digit = X[0]plot_digit(some_digit)save_.. 2025. 1. 21. 이전 1 다음