일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
31 |
- TOPCIT
- 데이터분석
- 크롬 확장프로그램
- ai공모전
- 토익문법
- arXiv
- 토익
- minerva university
- 논문 pdf
- pdf 다운로드
- toeic
- 탑싯시험
- 토익공부
- 환급형프론트챌린지
- ai model collapse
- 논문 pdf 이름
- 탑싯
- scaico
- pip
- 데이터관련자격증
- 미네르바 대학
- cv2
- ai consensus
- students@ai seoul hackathon
- 프론트
- model collapse
- 토익문제
- 코드프렌즈
- ADsP
- 토익공부법
- Today
- Total
토리의 데굴데굴 공부일기
Foundation of Artificial Intellegence 본문
강의 일시: 07.28.금
강의자: 박유민 조교님
0. 인공지능 분류
인공지능 > 머신러닝 > 딥러닝
-머신러닝: feature extraction, 파라미터 튜닝을 사람이 해야함.
-딥러닝: 많은 수의 데이터를 넣으면 모델이 알아서 함
1. 머신러닝
기계학습 분류
지도학습: 입력 출력 값의 데이터 관계
데이터의 형태에 따라 아래 두가지로 나뉨
- 이산적 → 분류
- 연속적 → 회귀
ex) 선형 회귀 : x와 y와의 관계에 따라 선형 관계 모델링
결정 트리: 트리와 같은 구조를 만들어서 임계값에 따라 데이터를 분할
서포트 벡터 머신 : 클래스 간의 마진을 최대로 하는 선을 찾는 모델
비지도학습: 데이터의 숨겨진 구조나 데이터 간의 관계 및 패턴을 발견
ex) 클러스터링: 비슷한 특성을 가진 샘플들끼리 묶는 방법
차원 축소: 고차원의 데이터를 저차원의 데이터로 변환하는 방식. 데이터의 복잡성을 줄이고, 주요 특징을 추출
K-평균: 데이터를 K개의 클러스터로 분류하는 알고리즘
주성분 분석: 비지도 학습의 차원축소 방법 중 하나로, 고차원 데이터에서 가장 분산이 큰 방향을 찾아 이를 새로운 ‘주성분’으로 사용하는 방법
강화 학습:
라이브러리
sikit-learn
matplotlib
학습 데이터 구성
Feature data X
Label data Y
강화학습
에이전트가 환경과 상호작용하며 보상을 최대화하는 일련의 행동을 학습하는 방법
핵심 구성 요소
- 에이전트
- 환경
- 행동
- 상태
- 보상
-가치 기반 학습
-정책 기반 학습
2. 딥러닝
인공신경망
forward propagation
back propagation
경사 하강법
기울기의 반대 방향으로 가면 최저점을 찾을 수 있지 않을까?
loss를 최소화하는 것이 목적!
오류 역전파(back propagation)
sigmoid = o x (1 - o)
CNN(Convolution Neural Network)
이미지를 1차원 벡터로 변환하여 학습하는 일반적인 DNN은 특징 추출이 어려움
그래서 필터를 활용하여
RNN(Recurrent Neural Network)
순환 신경망은 시퀀스 데이터를 처리하기 위해 디자인된 것임
- one to many
- many to one
- many to many
라이브러리
keras
tensorflow
pytorch: 요즘 가장 많이 쓰임
최근 연구 동향
Genrative AI
Explatinable AI (XAI)
Method
- Network Dissection
- Feature Attribution
Foundation Model
트랜스포머 등 방대한 양의 데이터를 통한 비지도학습 방식으로 학습한 모델의 총칭
사전학습된 인공 신경망을 사용자의 요구에 맞춰 fine-tuning
Knowledge Distillation
Reinforcement Learning with Dynamic Environments
'ML DL > 2023 KHU AI Track' 카테고리의 다른 글
[ 논문리뷰 ] Attention Is All You Need - 2017 (1) | 2024.05.03 |
---|---|
[ 논문 리뷰 ] Generative Adversarial Networks(GAN) (0) | 2023.08.09 |
[ 논문 리뷰 ] AlexNet: ImageNet Classification with Deep Convolutional Neural Networks (0) | 2023.08.02 |