토리의 데굴데굴 공부일기

Foundation of Artificial Intellegence 본문

ML DL/2023 KHU AI Track

Foundation of Artificial Intellegence

도토오오리 2023. 7. 30. 19:54

강의 일시: 07.28.금 

강의자: 박유민 조교님

0. 인공지능 분류

인공지능 > 머신러닝 > 딥러닝

-머신러닝: feature extraction, 파라미터 튜닝을 사람이 해야함.

-딥러닝: 많은 수의 데이터를 넣으면 모델이 알아서 함

1. 머신러닝

기계학습 분류

지도학습: 입력 출력 값의 데이터 관계

데이터의 형태에 따라 아래 두가지로 나뉨

  • 이산적 → 분류
  • 연속적 → 회귀

ex) 선형 회귀 : x와 y와의 관계에 따라 선형 관계 모델링

결정 트리: 트리와 같은 구조를 만들어서 임계값에 따라 데이터를 분할

서포트 벡터 머신 : 클래스 간의 마진을 최대로 하는 선을 찾는 모델

비지도학습: 데이터의 숨겨진 구조나 데이터 간의 관계 및 패턴을 발견

ex) 클러스터링: 비슷한 특성을 가진 샘플들끼리 묶는 방법

차원 축소: 고차원의 데이터를 저차원의 데이터로 변환하는 방식. 데이터의 복잡성을 줄이고, 주요 특징을 추출

K-평균: 데이터를 K개의 클러스터로 분류하는 알고리즘

주성분 분석: 비지도 학습의 차원축소 방법 중 하나로, 고차원 데이터에서 가장 분산이 큰 방향을 찾아 이를 새로운 ‘주성분’으로 사용하는 방법

강화 학습:

라이브러리

sikit-learn

matplotlib

학습 데이터 구성

Feature data X

Label data Y

강화학습

에이전트가 환경과 상호작용하며 보상을 최대화하는 일련의 행동을 학습하는 방법

핵심 구성 요소

  • 에이전트
  • 환경
  • 행동
  • 상태
  • 보상

-가치 기반 학습

-정책 기반 학습

 

2. 딥러닝

인공신경망

forward propagation

back propagation

경사 하강법

기울기의 반대 방향으로 가면 최저점을 찾을 수 있지 않을까?

loss를 최소화하는 것이 목적!

오류 역전파(back propagation)

sigmoid = o x (1 - o)

CNN(Convolution Neural Network)

이미지를 1차원 벡터로 변환하여 학습하는 일반적인 DNN은 특징 추출이 어려움

그래서 필터를 활용하여

RNN(Recurrent Neural Network)

순환 신경망은 시퀀스 데이터를 처리하기 위해 디자인된 것임

  • one to many
  • many to one
  • many to many

라이브러리

keras

tensorflow

pytorch: 요즘 가장 많이 쓰임

최근 연구 동향

Genrative AI

Explatinable AI (XAI)

Method

  • Network Dissection
  • Feature Attribution

Foundation Model

트랜스포머 등 방대한 양의 데이터를 통한 비지도학습 방식으로 학습한 모델의 총칭

사전학습된 인공 신경망을 사용자의 요구에 맞춰 fine-tuning

Knowledge Distillation

Reinforcement Learning with Dynamic Environments