• 티스토리 홈
  • 프로필사진
    오핸
  • 방명록
  • 공지사항
  • 태그
  • 블로그 관리
  • 글 작성
오핸
  • 프로필사진
    오핸
    • 전체보기 (77)
      • 일상 (19)
      • 구글 머신러닝 단기집중과정 (32)
      • Python : Pandas (13)
      • GAI로 써보는 포스팅 (6)
      • 이벤트 (4)
      • IT 제품리뷰 (3)
  • 방문자 수
    • 전체:
    • 오늘:
    • 어제:
  • 최근 댓글
    등록된 댓글이 없습니다.
  • 최근 공지
    • 최근 작성된 구글 머신러닝 과정에 대하여
    등록된 공지가 없습니다.
# Home
# 공지사항
#
# 태그
# 검색결과
# 방명록
  • 구글 머신러닝 단기집중과정 - ML 개념 - 신경망 학습
    2021년 06월 22일
    • 오핸
    • 작성자
    • 2021.06.22. :20
    728x90
    반응형
    신경망 학습

    역전파는 신경망의 가장 일반적인 학습 알고리즘입니다. 다계층 신경망에서 경사하강법을 사용하려면 이 알고리즘이 필요합니다. 텐서플로우는 역전파를 자동으로 처리하므로 알고리즘을 자세히 이해할 필요는 없습니다. 이 알고리즘의 원리를 이해하려면 역전파 알고리즘 시각적 설명을 참조하세요. 이 설명 과정을 진행하면서 다음 사항에 주목하세요.

     

    • 데이터가 그래프를 통과하는 방식
    • 동적 프로그래밍을 사용하면 기하급수적으로 증가하는 그래프 통과 경로를 일일이 계산할 필요가 없는 이유. 여기에서 '동적 프로그래밍'은 정방향 및 역방향 전달에서 중간 결과를 기록함을 의미합니다.

     

     

    역전파: 숙지할 사항

     

    • 경사의 중요성
      • 미분 가능하면 학습이 가능할 확률이 높음
    • 경사의 소실 가능성
      • 레이어를 추가할수록 신호와 노이즈가 연속적으로 감소할 수 있음
      • ReLu의 유용성
    • 경사의 발산 가능성
      • 학습률의 중요성
      • batch 정규화(유용한 노브)로 해결 가능
    • ReLu 레이어의 소멸 가능성
      • 당황하지 말고 학습률 낮추기

     

     

    특성 값 정규화

    • 특성에 합리적인 척도를 부여해야 함
      • 0에 대략적인 중심을 둔 [-1, 1] 범위가 일반적으로 유리함
      • 경사하강법이 더 빠르게 수렴되고 NaN 트랩이 방지됨
      • 이상점 값을 배제하는 방법도 도움이 됨
    • 몇 가지 표준 방법 사용 가능
      • 선형 조정
      • 최대값, 최소값 강제 제한(클리핑)
      • 로그 조정

     

     

    드롭아웃 정규화

    • 드롭아웃: 또 하나의 정규화 형태, NN에 유용
    • 단일 경사 스텝에서 네트워크의 유닛을 무작위로 배제
      • 앙상블 모델과의 접점
    • 드롭아웃이 많을수록 정규화가 강력해짐
      • 0.0 = 드롭아웃 정규화 없음
      • 1.0 = 전체 드롭아웃. 학습 중지
      • 중간 범위의 값이 유용함

     

     

    신경망 학습: 권장사항

     

    이 섹션에서는 역전파의 실패 사례 및 신경망을 정규화하는 가장 일반적인 방법을 설명합니다.

     

     

    실패 사례

     

    몇 가지 일반적인 이유로 인해 역전파에서 문제가 나타날 수 있습니다.

     

     

    경사 소실

     

    입력 쪽에 가까운 하위 레이어의 경사가 매우 작아질 수 있습니다. 심층 네트워크에서 이러한 경사를 계산할 때는 많은 작은 항의 곱을 구하는 과정이 포함될 수 있습니다.

     

    하위 레이어의 경사가 0에 가깝게 소실되면 이러한 레이어에서 학습 속도가 크게 저하되거나 학습이 중지됩니다.

    ReLU 활성화 함수를 통해 경사 소실을 방지할 수 있습니다.

     

     

    경사 발산

     

    네트워크에서 가중치가 매우 크면 하위 레이어의 경사에 많은 큰 항의 곱이 포함됩니다. 이러한 경우 경사가 너무 커져서 수렴하지 못하고 발산하는 현상이 나타날 수 있습니다.

     

    batch 정규화를 사용하거나 학습률을 낮추면 경사 발산을 방지할 수 있습니다.

     

     

    ReLU 유닛 소멸

     

    ReLU 유닛의 가중 합이 0 미만으로 떨어지면 ReLU 유닛이 고착될 수 있습니다. 이러한 경우 활동이 출력되지 않으므로 네트워크의 출력에 어떠한 영향도 없으며 역전파 과정에서 경사가 더 이상 통과할 수 없습니다. 이와 같이 경사의 근원이 단절되므로, 가중 합이 다시 0 이상으로 상승할 만큼 ReLU가 변화하지 못할 수도 있습니다.

     

    학습률을 낮추면 ReLU 유닛 소멸을 방지할 수 있습니다.

     

     

    드롭아웃 정규화

     

    신경망에는 드롭아웃이라는 또 하나의 정규화 형태가 유용합니다. 이는 단일 경사 스텝에서 유닛 활동을 무작위로 배제하는 방식입니다. 드롭아웃을 반복할수록 정규화가 강력해집니다.

     

    • 0.0 = 드롭아웃 정규화 없음
    • 1.0 = 전체 드롭아웃. 모델에서 학습을 수행하지 않습니다.
    • 0.0~1.0 범위 값 = 보다 유용함

     

     

    주요 용어

    • 활성화 함수
    • 역전파
    • 드롭아웃 정규화
    • 경사하강법
    • 정류 선형 유닛
    728x90
    반응형
    저작자표시 비영리 동일조건 (새창열림)

    '구글 머신러닝 단기집중과정' 카테고리의 다른 글

    구글 머신러닝 단기집중과정 - ML 개념 - 임베딩  (0) 2021.06.22
    구글 머신러닝 단기집중과정 - ML 개념 - 다중 클래스 신경망  (0) 2021.06.22
    구글 머신러닝 단기집중과정 - ML 개념 - 신경망  (0) 2021.06.22
    구글 머신러닝 단기집중과정 - ML 개념 - 정규화 : 희소성  (0) 2021.06.22
    구글 머신러닝 단기집중과정 - ML 개념 - 분류  (0) 2021.06.21
    다음글
    다음 글이 없습니다.
    이전글
    이전 글이 없습니다.
    댓글
조회된 결과가 없습니다.
스킨 업데이트 안내
현재 이용하고 계신 스킨의 버전보다 더 높은 최신 버전이 감지 되었습니다. 최신버전 스킨 파일을 다운로드 받을 수 있는 페이지로 이동하시겠습니까?
("아니오" 를 선택할 시 30일 동안 최신 버전이 감지되어도 모달 창이 표시되지 않습니다.)
목차
표시할 목차가 없습니다.
  • 안녕하세요
  • 감사해요
  • 잘있어요

티스토리툴바