일상 속 공감을 공유하다.
728x90

파이썬 33

구글 머신러닝 단기집중과정 - ML 개념 - 표현

* 특이사항으로는 프로그래밍 실습 페이지가 들어가지지 않는다. 참고하길 바란다. 표현 머신러닝 모델은 입력 예를 직접적으로 보거나 듣거나 감지할 수 없습니다. 대신 데이터의 표현을 만들어 모델이 데이터의 핵심적인 특징을 들여다 볼 수 있는 유용한 관측 지점을 제공해야 합니다. 즉, 모델을 학습시키려면 데이터를 가장 잘 표현하는 특성 세트를 선택해야 합니다. 원시 데이터를 특성으로 변환 원리는 왼쪽에 있는 벡터의 각 요소를 오른쪽에 있는 특성 벡터의 하나 이상의 필드로 매핑하는 것입니다. 만약 'Main Street' 처럼 문자열이 있다면? 사전으로 각 거리 이름을 {0, ...,V-1} 범위의 정수에 매핑 이제 위의 원-핫 벡터를 로 표현 좋은 특성의 조건 특성 값은 데이터 세트에서 너무 적지 않은 일정..

구글 머신러닝 단기집중과정 - ML 개념 - 검증세트

검증: 직관력 테스트 이 모듈을 시작하기 전에 학습 및 테스트 세트에 제시된 학습 프로세스를 사용하는 데 문제점이 있는지 확인해 보시기 바랍니다. 아래 옵션을 확인하세요. 테스트 세트 및 학습 세트를 사용하여 모델 개발 반복 과정을 진행하는 프로세스를 살펴보았습니다. 각 반복 과정에서는 학습 데이터를 학습하고 테스트 데이터로 평가하면서 테스트 데이터에 대한 평가 결과를 근거로 학습률, 특성 등의 다양한 모델 초매개변수를 선택하고 변화를 줍니다. 이 접근법에 잘못된 점이 있나요? 정답을 하나만 고르세요. 이 방식은 연산 효율이 낮습니다. 기본 초매개변수 세트를 선택하고 그대로 사용하여 리소스를 절약해야 합니다. 이러한 유형의 반복 과정은 많은 리소스를 사용하지만 모델 개발에서 핵심적인 부분을 차지합니다. ..

구글 머신러닝 단기집중과정 - ML 개념 - 일반화

일반화 일반화는 모델이 이를 만들기 위해 사용된 것과 같은 분포에서 추출된 이전에 보지 못했던 새로운 데이터에 제대로 적합할 수 있는지를 나타냅니다. 개요 목표: 숨겨진 실제 분포에서 추출된 새로운 데이터를 제대로 예측 문제: 진실을 알 수 없음 분포에서 추출된 샘플만 볼 수 있음 모델 h가 현재 샘플에 적합하면 다른 새로운 샘플도 잘 예측할 것이라고 신뢰할 수 있나요? 모델이 적합한지 어떻게 알 수 있나요? 이론적인 측면: 흥미로운 분야: 일반화 이론 모델의 단순성/복잡성 측정 아이디어를 기반으로 함 직관: 오컴의 면도날 원칙의 형식화 모델이 덜 복잡할수록 샘플 자체의 특성을 벗어나 좋은 경험적 결과를 얻을 가능성이 높음 경험적인 측면: 질문: 모델이 새로운 데이터 샘플에 효과적으로 작동하나요? 평가:..

구글 머신러닝 단기집중과정 - ML 개념 - TF 첫걸음

* 특이사항으로는 TF 첫걸음의 동영상 강의가 들어가지지 않는다. 참고하길 바란다. 텐서플로우 첫걸음: 도구 다음 그림은 텐서플로우 도구함의 현재 계층구조를 보여 줍니다. 그림 1. 텐서플로우 도구함 계층구조 다음 표에는 여러 레이어의 목적이 요약되어 있습니다. 도구함 설명 에스티메이터(tf.estimator) 높은 수준의 OOP API tf.layers/tf.losses/tf.metrics 일반 모델 구성요소용 라이브러리 텐서플로우 낮은 수준의 API 텐서플로우는 다음 두 요소로 구성됩니다. 그래프 프로토콜 버퍼 분산된 그래프를 실행하는 런타임 이 두 구성요소는 자바 컴파일러 및 JVM과 유사합니다. JVM이 여러 하드웨어 플랫폼에서 구현되는 것과 마찬가지로 텐서플로우도 여러 CPU와 GPU에서 구현됩..

구글 머신러닝 단기집중과정 - ML 개념 - 손실 줄이기

손실 줄이기 모델을 학습하려면 모델의 손실을 줄이기 위한 좋은 방법이 필요합니다. 반복 방식은 손실을 줄이는 데 사용되는 일반적인 방법 중 하나로 매우 간편하고 효율적입니다. 손실을 줄이는 방법 가중치와 편향에 대한 도함수 \( (y - y')^2 \)는 주어진 예제의 손실 변화 정도를 보여줍니다. 계산하기 간편하며 볼록 모양 손실을 최소화하는 방향으로 작은 보폭을 반복하여 취합니다. 이를 가리켜 기울기 보폭이라고 합니다.(하지만 실제로는 음의 기울기 보폭임). 이 최적화 전략을 경사하강법이라고 합니다. 손실 줄이기: 반복 방식 이전 모듈에서는 손실의 개념을 소개했습니다. 이 모듈에서는 머신러닝 모델이 반복을 통해 어떻게 손실을 줄이는지 알아보겠습니다. 반복 학습은 골무와 같이 숨겨진 물건을 찾는 아이들..

반응형