2022년 12월 20일 화요일

B-Hanbit |Python |Day. 269 | 한 번에 끝내는 딥러닝/인공지능 초격차 패키지 Online

  

B-Hanbit |Python |Day. 269 |
한 번에 끝내는 딥러닝/인공지능 초격차 패키지 Online

[이론 학습 // Day. 269]

ML 기초 / CH01_02. 기계 학습의 종류

#460DaysOfCode _ 202212220




해당 게시물은 'fastcampus'에서 운영하는 온라인 강의를 직접 구매하여 작성되었습니다.
'한 번에 끝내는 딥러닝/인공지능 초격차 패키지 Online'을 기반으로 작성되었습니다.
학습 후, 학습한 내용을 토대로 개인적으로 작성된 단순 학습 결과물임을 알려드립니다.
해당 MOOK에서 제공되는 자료는 일절 포함되어있지 않습니다. 
문제 시 연락바랍니다.

#460DaysOfCode #Day269




[269일 차 학습]
[Part5. 딥러닝 기초 알고리즘 및 최신 트렌드 알고리즘]

[ML 기초]
[CH01_02. 기계 학습의 종류]

- 기계학습(#Day268의 개념설명 참고)
; 기계가 일일히 코드로 명시하지 않은 동작을 데이터로부터 학습할 수 있게 하는 방법.



- 기계학습 방법
트레인 단계/테스트 단계 > 학습 > 모델 > 결괏값
(트레인 단계에서 학습하지 않은 테스트 또한 작동을 해서 결괏값이 나와야 올바른 기계학습)



- 기계학습 종류

(도식화)
                        > 지도 학습; 라벨링 된 데이터가 주어졌을 경우 .
                        ㄴ 분류문제, 선형회귀 문제

        기계학습 

                        > 비지도 학습; 라벨링 되지 않은 데이터가 주어졌을 경우.
                        ㄴ 군집 화, 차원 축소, 상호 연관 관계 문제


    - 지도학습(Supervised learning)
    ; 바람직한 결과(라벨)을 줌으로써 학습하는 방법.(정답을 기준으로 피드백을 통해 학습)
     예측 결과와 실제 값의 차이를 통해 실질적 피드백 공유하며 이뤄지는 학습.
     => p(y|x) (x가 주어졌을 때, y를 알아냄)

        - 레이블 O
        - 직접적인 피드백 O
        - 아웃풋과 피쳐 예측 O
        ㄴ 분류학습, 선형회귀 기법


    - 비지도학습(Unsupervised learning)
    ; 간접적인 정보를 얻어내기 위해 노력함.
     => p(x) (x값을 통해서 y값 탐색)

        - 레이블 X
        - 직접적인 피드백 X
        - 데이터에서 숨겨진 구조 찾기
        ㄴ 클러스터링(군집화), 데이터 예측, 차원축소, 상호연관관계문제


    - 지도학습 비지도학습 수식 설명 
    ; 수식적으로 보았을 경우, 서로의 경계가 확실하지는 않음.
    (데이터 분류/분석 시, 라벨링의 유무에 따라서만 학습 방법을 결정하지 않아도 됨. 양측 다 가능, 학습방법 응용/혼합 가능)

            - 비지도학습 관점에서 분석하였을 경우

자료 수식

좌; p(x) = 비지도학습
우; p(y|x) = 지도학습 꼴(해당x가 여러개로 쪼개어진 꼴)(= 자가회귀)
ㄴ 날씨 데이터 과거와 현재 비교
=> 비지도학습을 지도학습처럼 쪼개어 분석 가능 함.

            지도학습 관점에서(즉, 역으로) 분석하였을 경우

자료수식

좌; p(y|x) = 지도학습
우; p(x) = 비지도학습 꼴(분자를 학습하는 형태의 비지도학습이 가능)(= 결합분포)


    - 준지도학습(Semi-supervised learning)
    ; 레이블적 측면에서 비지도학습과 지도학습의 사이.

        - 레이블 Δ(레이블 된 것과 안 된 것 모두 사용하여 학습함)
        ㄴ 일반적으로 다수의 레이블링 되지 않은 데이터와 레이블링 된 골드 레이블 데이터로 구성됨.


    - 자기지도학습(Self-supervised learning)
    ; 비지도 학습의 라벨링이 없는 데이터에서 라벨링을 스스로 만들어내어 지도학습하는 방법.

        - 레이블 Δ(레이블 죄지 않은 것을 바탕으로 레이블을 만들어 스스로 지도학습함)
        - Pretext task를 설정해서 데이터의 일부분을 은닉해서 모델이 해당부분을 예측하도록 학습하는 형태를 가짐. 이를 학습한 후, 전이학습을 하여 타 데스크에 적용하는 방법.


    - 강화학습(Reinforcement learning)
    ; 학습하는 시스템인 에이전트는 인바이론먼트(환경)을 관찰해서 나온 스테이트(상태)가 주어졌을 때, 폴리시(정책)에 기반해서 액션(행동)을 실행하고 리워드(보상)을 받음. 이때, 가장 큰 누적 보상을 얻을 수 있는 최적화된 정책을 스스로 학습하는 방법. 

Steve's Robot blog 사진





댓글 없음:

댓글 쓰기