파이토치12 [딥러닝 파이토치 교과서] 합성곱 신경망 이해하기 5. 합성곱 신경망 5.1 합성곱 신경망 5.1.1 합성곱의 필요성 합성곱 신경망은 이미지나 영사을 처리하는 데 유용함 예를 들어 이미지 분석은 3x3배열을 펼쳐서(flattening) 각 픽셀에 가중치를 곱하여 은닉층에 전달하게 됨 5.1.2 합성곱 신경망 구조 합성곱 신경망(Convolutional Neural Netwok, CNN)은 음성 인식이나 이미지/영상 인식에서 주로 사용되는 신경망 다차원 배열 데이터를 처리하도록 구성되어 컬러 이미지 같은 다차원 배열 처리에 특화되어 있음 합성곱 신경망은 합성곱층과 풀링층을 거치면서 입력 이미지의 주요 특성 벡터를 추출함 입력층 입력층은 입력 이미지 데이터가 최초로 거치게 되는 계층이며, 단순 1차원의 데이터가 아닌 높이(height), 너비(width),.. 2023. 5. 13. [딥러닝 파이토치 교과서] RNN, LSTM, GRU 시계열 분석 - 시간에 따라 변하는 데이터를 사용하여 추이를 분석하는 것 - 시계열 데이터는 규칙적 시계열과 불규치적 시계열로 나눌 수 있음 - 규칙적 시계열은 트렌드와 분산이 불변하는 데이터이며, 불규칙적 시계열은 트렌드 혹은 분산이 변화하는 시계열 데이터임 - 불규칙적 시계열 데이터에 규칙성을 부여하는 방법으로는 AR, MA, ARMA, ARIMA 모델을 적용하는 것이 가장 널리 알려져 있음 - 최근에는 딥러닝을 이용하여 시계열 데이터의 연속성을 기계 스스로 찾아내도록 하는 방법이 더 좋은 성능을 내고 있음 1) AR모델 - AR(AutoRegressive) (자기 회귀) 모델은 이전 관측 값이 이후 관측 값에 영향을 준다는 아이디어에 대한 모형으로 자기 회귀 모델이라고도 함 2) MA모델 - MA(.. 2023. 4. 22. [딥러닝 파이토치 교과서] 활성화함수와 손실 함수 활성화함수 - 전달함수에서 전달받은 값을 출력할 때 일정 기준에 따라 출력 값을 변화시키는 비선형 함수 1) 시그모이드 함수 - 선형 함수의 결과를 0~1 사이에서 비선형 형태로 변형해줌 - 모델의 깊이가 깊어지면 기울기가 사라지는 '기울기 소멸 문제' 발생 참고) 시그모이드 함수의 단점 - 기울기 소실 문제: 입력의 절대값이 크게 되면 0이나 1로 수렴하게 되는데 이와 같이 수렴된 뉴런의 그래디언트 값은 0이기 때문에 역전파에서 0이 곱해짐 -> 역전파가 진행됨에 따라 아래층에는 아무것도 전달되지 않는 기울기 소실 문제 발생 - 원점이 중심이 아님: 시그모이드 함수는 항상 양수를 출력하기 때문에 출력의 가중치 합이 입력의 가중치 합보다 커질 가능성이 높으며, 이러한 이유로 가장 높은 레이어에서는 활성화.. 2023. 4. 16. [딥러닝 파이토치 교과서] 머신러닝과 파이토치 오늘은 딥러닝 파이토치 교과서 1장~3장 내용을 요약하였으며, 모든 내용을 요약하기 보다는 이번에 새롭게 알게된 부분 위주로 정리함 또한, 추가적인 공부가 필요한 부분에 대해서는 ★★★로 표시함 1. 머신러닝과 딥러닝 1.1 인공지능, 머신러닝과 딥러닝 - 머신러닝의 학습 과정은 각 데이터 특성을 기계에 인식시키고 학습시켜 문제를 해결하는 반면 딥러닝은 대량의 데이터를 신경망에 적용하여 기계가 스스로 분석한 후 답을 찾도록 함 -> 머신러닝의 경우 인간이 특성을 추출하는 과정이 포함되어야 함 1.2 머신러닝이란 1.2.1 머신러닝 학습 과정 - 훈련 데이터에 대한 정확도는 높은데 검증 데이터에 대한 정확도가 낮다면 훈련데이터에 과적합이 일어났을 가능성을 생각해 볼 수 있으며, 이와 같은 경우에는 정규화를.. 2023. 4. 7. 이전 1 2 3 다음