소프트웨어/머신러닝6 머신러닝 7주차 💡 사물을 감지하거나 음성을 인식하는 일 등을 인간이 쉽게 할 수 있는 이유는? - > 사람의 지각이 주로 의식의 영역 밖, 즉 뇌의 특별한 시각, 청각, 그리고 다른 감각 기관에서 일어난다는 사실 시각피질 구조시각 피질 안의 많은 뉴런이 작은 국부 수용장을 가짐 -> 뉴런들이 시야의 일부 범위 안에 있는 시각 자극에만 반응한다는 뜻 시각 피질 연구에서 합성곱 신경망으로 점진적으로 진화.LeNet-5 구조가 생김. 이 구조는 합성곱 층과 풀링 층이라는 새로운 구성 요소가 포함되어있음. 합성곱 층CNN의 가장 중요한 구성 요소첫 번째 합성곱 층의 뉴런은 합성곱 층 뉴런의 수용장 안에 있는 픽셀에만 연결두 번째 합성곱 층에 있는 각 뉴런은 첫 번째 층의 작은 사각 영역 안에 위치한 뉴런에 연결이런 구.. 2025. 3. 12. 머신러닝 6주차 인공 뉴런 : 단순히 입력이 일정 개수만큼 활성화되었을 때 출력을 내보냄 퍼셉트론 : 가장 간단한 인공 신경망 구조퍼셉트론에서 가장 널리 사용되는 계단 함수 -> 헤비사이드 계단함수퍼셉트론은 하나의 층 안에 놓은 하나 이상의 TLU로 구성각각의 TLU는 모든 입력에 연결됨 이러한 층을 완전 연결 층 / 밀집 층 이라고 함.입력은 입력층을 구성TLU의 층이 최종 출력을 생성하기 때문에 이를 출력 층 이라고 함!💡퍼셉트론의 훈련 알고리즘은 헤브의 규칙에서 영감을 받음.헤브의 규칙 : 두 뉴런이 동시에 활성화될 때마다 이들 사이의 연결 가중치가 증가하는 경향이 있다.퍼셉트론은 네트워크가 예측할 때 만드는 오차를 반영하도록 조금 변형된 규칙을 사용하여 훈련된다.퍼셉트론 수렴 이론 : 훈련 샘플이 선형적으로 .. 2025. 3. 5. 머신러닝 4주차 - 앙상블 학습과 랜덤 포레스트 앙상블 학습 : 일련의 예측기(= 분류나 회귀 모델)로부터 예측을 수집하면 가장 좋은 모델 하나보다 더 좋은 예측을 얻을 수 있을 것.일련의 예측기 = 앙상블앙상블 학습 알고리즘 = 앙상블 기법 앙상블 방법의 예 : 훈련 세트로부터 랜덤으로 각기 다른 서브셋을 만들어 일련의 결정 트리 분류기를 훈련시키기개별 트리의 예측을 모아 가장 많은 선택을 받은 클래스를 앙상블의 예측으로 삼는다. 랜덤 포레스트 : 결정트리의 앙상블, 오늘날 가장 강력한 머신러닝 알고리즘 7.1 투표 기반 분류기더 좋은 분류기를 만드는 매우 간단한 방법은 각 분류기의 예측을 집계하는 것.가장 많은 표를 얻은 클래스가 앙상블의 예측이 됨!직접 투표 분류기 : 다수결 투표로 정해지는 분류기이 다수결 투표 분류기가 앙상블에 포함된 개별 분.. 2025. 2. 10. 머신러닝 3주차 - 서포트 벡터 머신 , 결정트리 💡딥다이브 바로보기 서포트 벡터 머신 : 다목적 머신러닝 모델서포트 벡터 머신은 분류 작업에서 빛을 발함. 하지만 매우 큰 데이터셋으로는 확장되지 않음. 5.1 선형 SVM 분류라지 마진 분류 : SVM 분류기를 클래스 사이에 가장 폭이 넓은 도로를 찾는 것서포트 벡터 : 도로 경계에 위치한 샘플 5.1.1 소프트 마진 분류모든 샘플이 도로 바깥쪽에 올바르게 분류 돼 있다면 이를 하드 마진 분류라 함.하지만 문제점이 존재데이터가 선형적으로 구분 될수 있어야 제대로 작동함.이상치에 민감함.소프트 마진 분류 : 마진 오류 사이에 적절한 균형을 잡고 도로의 폭을 가능한 넓게 유지하는 것. 규제 하이퍼 파라미터 C를 줄이면 도로가 더 커지지만 더 많은 오류가 발생한다. 또한 과대적합의 위험이 줄어든다. 5.. 2025. 2. 4. 머신러닝 2주차 - 모델 훈련 💡딥다이브 바로보기 선형회귀 모델을 훈련시키는 2가지 방법닫힌 형태의 방정식 : 훈련 세트에 가장 잘 맞는 모델 파라미터를 직접 계산한다.경사 하강법 : 반복적인 최적화 방식을 사용해 모델 파라미터를 조금씩 바꾸면서 비용 함수를 훈련 세트에 대해 최소화시킨다.4.1 선형 회귀선형 모델은 입력 특성의 가중치 합과 편향(절편)이라는 상수를 더해 예측을 만든다. 모델을 훈련시킨다는 것 = 모델이 훈련 세트에 가장 잘 맞도록 모델 파라미터를 설정하는 것먼저 모델이 훈련 데이터에 얼마나 잘 들어맞는지 측정하기선형 회귀 모델을 훈련시키기 위해 RMSE(평균 제곱근 오차를 최소화하는 세타 찾기📌 좋은 성능 지표 = 최종 비즈니스 목표에 가장 근접한 것 , 좋은 훈련 손실 = 최적화 쉽고 지표와 밀접한 상관관계 .. 2025. 1. 25. 머신러닝 1주차 - 분류 3.1 MNIST사이킷런에서 제공하는 헬퍼 함수를 사용해 데이터셋을 내려받을 수 있음.fetch_* 함수 (ex. fetch_openml()) : 실전 데이터 셋을 다운로드하는 함수load_* 함수 : 소규모 데이터셋 로드하기 위한 함수make_* 함수 : 가짜 데이터셋을 생성하기 위한 함수 이미지 하나 출력해서 확인해보기import matplotlib.pyplot as pltdef plot_digit(image_data): image = image_data.reshape(28, 28) 28 X 28 배열 사이즈 plt.imshow(image, cmap="binary") 흑백 설정 plt.axis("off")some_digit = X[0]plot_digit(some_digit)save_.. 2025. 1. 21. 이전 1 다음