전체 글36 머신러닝 8주차 순환신경망(RNN)미래를 예측할 수 있는 네트워크시계열 데이터를 분석RNN이 순차 데이터를 다룰 수 있는 유일한 신경망은 아님.순환 신경망은 피드포워드 신경망과 매우 비슷하지만 뒤쪽으로 순환하는 연결도 있다는 저머이 다름.각 타임 스텝(프레임)마다 이 순환 뉴런은 x와 이전 타임 스텝의 출력인 ŷ 을 입력받음.첫 번째 타임 스텝에서는 이전 출력이 없으므로 일반적으로 0으로 설정오른쪽 그림처럼 시간을 축으로 표현한 것을 시간에 따라 네트워크를 펼쳤다고 말함.❗ 타임스텝이란 순환 뉴런이 시간에 따라 한 번씩 연산을 수행하는 순간을 의미, 그림에서 x(n) 타임스텝 t마다 모든 뉴런은 입력 벡터 x와 이전 타임 스텝의 출력 벡터 ŷ을 받음.이제 입력과 출력이 모두 벡터가 됨.각 순환 뉴런은 두 벌의 가.. 2025. 3. 18. 머신러닝 7주차 💡 사물을 감지하거나 음성을 인식하는 일 등을 인간이 쉽게 할 수 있는 이유는? - > 사람의 지각이 주로 의식의 영역 밖, 즉 뇌의 특별한 시각, 청각, 그리고 다른 감각 기관에서 일어난다는 사실 시각피질 구조시각 피질 안의 많은 뉴런이 작은 국부 수용장을 가짐 -> 뉴런들이 시야의 일부 범위 안에 있는 시각 자극에만 반응한다는 뜻 시각 피질 연구에서 합성곱 신경망으로 점진적으로 진화.LeNet-5 구조가 생김. 이 구조는 합성곱 층과 풀링 층이라는 새로운 구성 요소가 포함되어있음. 합성곱 층CNN의 가장 중요한 구성 요소첫 번째 합성곱 층의 뉴런은 합성곱 층 뉴런의 수용장 안에 있는 픽셀에만 연결두 번째 합성곱 층에 있는 각 뉴런은 첫 번째 층의 작은 사각 영역 안에 위치한 뉴런에 연결이런 구.. 2025. 3. 12. 머신러닝 6주차 인공 뉴런 : 단순히 입력이 일정 개수만큼 활성화되었을 때 출력을 내보냄 퍼셉트론 : 가장 간단한 인공 신경망 구조퍼셉트론에서 가장 널리 사용되는 계단 함수 -> 헤비사이드 계단함수퍼셉트론은 하나의 층 안에 놓은 하나 이상의 TLU로 구성각각의 TLU는 모든 입력에 연결됨 이러한 층을 완전 연결 층 / 밀집 층 이라고 함.입력은 입력층을 구성TLU의 층이 최종 출력을 생성하기 때문에 이를 출력 층 이라고 함!💡퍼셉트론의 훈련 알고리즘은 헤브의 규칙에서 영감을 받음.헤브의 규칙 : 두 뉴런이 동시에 활성화될 때마다 이들 사이의 연결 가중치가 증가하는 경향이 있다.퍼셉트론은 네트워크가 예측할 때 만드는 오차를 반영하도록 조금 변형된 규칙을 사용하여 훈련된다.퍼셉트론 수렴 이론 : 훈련 샘플이 선형적으로 .. 2025. 3. 5. 머신러닝 5주차 - 차원 축소, 비지도 학습 차원의 저주 : 훈련 샘플 각각이 수천 수백만 개의 특성을 가지고 있어서 이런 많은 특성은 훈련을 느리게 할 뿐만 아니라 좋은 솔루션을 찾기 어렵게 만드는 문제❗차원 축소 전에 먼저 원본 데이터로 시스템을 훈련해보는 것을 권장함. 어떤 경우에는 훈련 데이터의 차원을 축소시키면 잡음이나 불필요한 세부 사항을 걸러내므로 성능이 높아질 수 있다. 일반적으로는 훈련 속도만 빨라진다. 8.2 차원 축소를 위한 접근법차원을 감소시키는 두 가지 주요한 접근법 : 투영, 매니폴드 학습 8.2.1 투영모든 훈련 샘플이 고차원 공간 안의 저차원 부분 공간에 놓여있다.모든 훈련 샘플을 이 부분 공간에 수직으로 투영하면 2D 데이터셋을 얻을 수 있다. 그러나 차원 축소에 있어서 투영이 언제나 최선의 방법은 아니다.스위스 롤 .. 2025. 2. 18. 머신러닝 4주차 - 앙상블 학습과 랜덤 포레스트 앙상블 학습 : 일련의 예측기(= 분류나 회귀 모델)로부터 예측을 수집하면 가장 좋은 모델 하나보다 더 좋은 예측을 얻을 수 있을 것.일련의 예측기 = 앙상블앙상블 학습 알고리즘 = 앙상블 기법 앙상블 방법의 예 : 훈련 세트로부터 랜덤으로 각기 다른 서브셋을 만들어 일련의 결정 트리 분류기를 훈련시키기개별 트리의 예측을 모아 가장 많은 선택을 받은 클래스를 앙상블의 예측으로 삼는다. 랜덤 포레스트 : 결정트리의 앙상블, 오늘날 가장 강력한 머신러닝 알고리즘 7.1 투표 기반 분류기더 좋은 분류기를 만드는 매우 간단한 방법은 각 분류기의 예측을 집계하는 것.가장 많은 표를 얻은 클래스가 앙상블의 예측이 됨!직접 투표 분류기 : 다수결 투표로 정해지는 분류기이 다수결 투표 분류기가 앙상블에 포함된 개별 분.. 2025. 2. 10. 머신러닝 3주차 - 서포트 벡터 머신 , 결정트리 💡딥다이브 바로보기 서포트 벡터 머신 : 다목적 머신러닝 모델서포트 벡터 머신은 분류 작업에서 빛을 발함. 하지만 매우 큰 데이터셋으로는 확장되지 않음. 5.1 선형 SVM 분류라지 마진 분류 : SVM 분류기를 클래스 사이에 가장 폭이 넓은 도로를 찾는 것서포트 벡터 : 도로 경계에 위치한 샘플 5.1.1 소프트 마진 분류모든 샘플이 도로 바깥쪽에 올바르게 분류 돼 있다면 이를 하드 마진 분류라 함.하지만 문제점이 존재데이터가 선형적으로 구분 될수 있어야 제대로 작동함.이상치에 민감함.소프트 마진 분류 : 마진 오류 사이에 적절한 균형을 잡고 도로의 폭을 가능한 넓게 유지하는 것. 규제 하이퍼 파라미터 C를 줄이면 도로가 더 커지지만 더 많은 오류가 발생한다. 또한 과대적합의 위험이 줄어든다. 5.. 2025. 2. 4. 이전 1 2 3 4 5 6 다음