반응형

AI
인간의 지능을 모방한것
Expert System
과거 Machine learing 이 유행하기전에는 Expert System(전문가 시스템) 이 유행했다.
Expert System?
실제 전무가를 모시고 if-then 구조를 통해서
rule-base로 도메인을 구현하는 것이다.
Expert System's limt
- 유연성이 부족하다(domain에서 일정 부분이 바뀌거나, 크게 변화가있을 때 변화가 어렵다)
- 이미 Rule이 fix 되어있다.
- new 환경이 된다면, 바꾸기 어렵다 => 1번과 동일
- Domain이 복잡해질 수 록 구현이 어렵다.
Machine learning
Data를 기반으로 학습하다.
machine learing의 3요소
- Data(경험)
- Algorithm(학습방식(목적성))
- model(함수)
x를 y에 mapping시키는 관계를 나타낸 함수를 model이라고한다.
machine learing의 3가지 접근법
- Supervised learning
선형회귀, 분류 - Unsupervised learning
군집화, 차원축소 - Reinforcement learning
강화학습
Supervised learning
데이터(경험)이 주어지고, 답지(label)정해진다.
선형회귀, 분류
=> 치역의 종류의 따라서 유연하게 사용하면 된다.
UnSupervised learning
label(답지)이/가 주어지지않는 학습
- 차원축소
- 군집화 ...
"우리는 일상생활속에서 고차원적인 것들을 접한다. 그 중 중요한 정보를 뇌에 저장하기 위해서는 중요한 부분을 압축시켜야한다 이를 차원축소를 통해 한다."
Reinforcement learning
- 보상과 처벌을 통해서 model을 학습한다.
- q함수를 통해서 지난 길을 기억하고
- 모험을 통해서 작은 확률로 다른 길을 선택한다.
- 그리고 감소를 통해서 가중치를 조절한다.
The Challenge of Generalization
machine learing에서는 일반화가 가장 중요하다.
Trainning data/Test data만 사용해서 학습할 경우, Trainning이 끝나야만 검증이 가능하기에 오래걸린다.
Validation set
Train data set을 일부 나눠서 학습 중간중간 검증에 사용
validation기법
- k-fold
validation data와 tranning data를 k번 반복하여 나누는것 - leave-one-out
1개만 검증용 data로 사용하여 반복 - stratified k-fold
data의 분포가 고르지 않음 까지 고려하여 그에 맞는 비율로 나누어 실행
Underfitting/ Overfitting
훈련용 데이터셋으로 성능이 잘 안나오는 경우/ 훈련용 데이터셋으로는 성능이 잘 나오지만,테스트 데이터로는 성능이 낮은 경우
validation 검증을 사용할 경우, trainning error 말고 Generalization error을 얻을 수 있는데 , 이를 통해 학습을 조절하면 된다.
bias: 편향 => 높을 수록 underfitting , 모델의 복잡도를 높혀줘야한다.
variance: 분산 => 높을수록 overfitting, 모델의 복잡도를 낮춰줘야한다.
Deep Double Descent
일정으로 학습시키면, Generalization error가 높아지지만, 더욱 data와 횟수를 높히면 더 성능이 좋아진다는 결과 이를 통해 LLM을 볼 수 있었음
Test Data Distribution
실제 학습한 Data와 Test Data의 distribution이 동일해야한다.

반응형
'AI' 카테고리의 다른 글
| 태태코딩 - 자연어처리(word-net, tf,df,idf,pmi) (0) | 2026.03.28 |
|---|---|
| 태태개발일지 - 자연어처리(N-gram) (0) | 2026.03.21 |
| 태태코딩 - 개발자를 위한 AI 알고리즘 서평 이벤트 (0) | 2025.12.25 |
| 태태개발일지 - AI 대학원 면접 준비자료(deep learning) (0) | 2025.10.19 |
| 태태개발일지 - AI 대학원 면접 준비자료(machine learning) (0) | 2025.10.18 |