[이기적] 인공신경망(ANN) 완벽 정리 (CNN · RNN · LSTM · GAN 핵심 이론)
2026. 3. 12. 17:34ㆍCertifications/빅데이터분석기사 필기
1️⃣ 인공신경망(Artificial Neural Network, ANN)
✅ 개념
- 인간의 뇌 신경세포(뉴런) 구조를 모방한 머신러닝 모델
- 입력 데이터를 여러 층(layer)을 통해 학습하여 패턴을 발견하는 알고리즘
🔹 구성
- 입력층(Input Layer)
- 은닉층(Hidden Layer)
- 출력층(Output Layer)
🎯 포인트
- 뉴런 기반 학습 구조
- 비선형 문제 해결 가능
- 딥러닝의 기본 모델
✅ 특징
- 입력 데이터가 전달되면서 가중치(weight) 를 통해 계산 수행
- 활성화 함수(Activation Function)를 이용하여 출력값 생성
- 학습을 통해 가중치와 편향을 최적화
🔹 특징
- 비선형 문제 해결 가능
- 대규모 데이터 학습에 적합
- 복잡한 패턴 인식 가능
2️⃣ 인공신경망의 학습 원리
✅ 지도학습 / 비지도학습 / 강화학습
| 학습 방식 | 설명 |
|---|---|
| 지도학습 | 정답(label)이 있는 데이터를 이용한 학습 |
| 비지도학습 | 정답이 없는 데이터에서 패턴 발견 |
| 강화학습 | 보상을 통해 최적 행동 학습 |
🎯 포인트
- 지도학습 → 분류 / 회귀
- 비지도학습 → 군집 / 차원축소
3️⃣ 인공신경망 학습 과정
✅ 손실 함수(Loss Function)
- 신경망의 예측값과 실제값의 차이를 계산하는 함수
| 손실 함수 | 주요 사용 |
|---|---|
| MSE (평균제곱오차) |
회귀 문제에서 주로 사용 |
| Cross Entropy (교차 엔트로피) |
분류 문제에서 주로 사용 |
✅ 인공신경망 학습 알고리즘
| 알고리즘 | 설명 |
|---|---|
| 미니배치 (Mini-batch) |
학습 데이터를 작은 단위로 나누어 학습 |
| 경사하강법 (Gradient Descent) |
손실 함수를 최소화하는 방향으로 가중치를 반복적으로 업데이트하는 최적화 알고리즘 |
| 역전파 (Backpropagation) |
출력층에서 계산된 오차를 입력층 방향으로 전달하여 가중치를 수정하는 학습 방법 |
🎯 포인트
- MSE → 회귀 문제
- Cross Entropy → 분류 문제
- 역전파 = 오차를 뒤로 전달
- 경사하강법으로 가중치 업데이트
4️⃣ 활성화 함수(Activation Function)
| 활성화 함수 | 특징 | 장점 / 문제점 |
|---|---|---|
| Sigmoid (시그모이드) |
출력 범위: 0 ~ 1 이진 분류 문제에서 사용 |
기울기 소실(Vanishing Gradient) 발생 |
| ReLU (Rectified Linear Unit) |
x > 0 → x x ≤ 0 → 0 |
계산 효율 높음 기울기 소실 문제 완화 |
🎯 포인트
- Sigmoid → 출력 범위 0~1
- ReLU → 딥러닝에서 가장 많이 사용
5️⃣ 과적합(Overfitting)
✅ 과적합 개념
- 학습 데이터에 과도하게 적합
- 새로운 데이터에서는 성능 저하
✅ 과적합 해결 방법
🔹 가중치 감소(Weight Decay)
- 모델 복잡도 감소
🔹 드롭아웃(Dropout)
- 일부 뉴런을 랜덤 제거하여 학습
🎯 포인트
- 과적합 방지 대표 방법
→ Regularization / Dropout
6️⃣ 딥러닝 모델 종류
| 딥러닝 모델 | 핵심 특징 | 주요 활용 |
|---|---|---|
| CNN |
• 이미지 처리에 특화된 신경망 • Convolution Layer / Pooling Layer / Fully Connected Layer로 구성 • 이미지 특징 자동 추출 |
이미지 인식 컴퓨터 비전 |
| RNN |
• 순차 데이터를 처리하는 신경망 • 이전 상태 정보를 기억하는 순환 구조 |
자연어 처리 음성 인식 시계열 예측 |
| LSTM |
• RNN의 기울기 소실 문제 해결 • Gate 구조(Input / Forget / Output) • 장기 의존성 학습 가능 |
장기 시계열 데이터 분석 |
| GRU |
• LSTM을 단순화한 구조 • 계산량 감소 |
시계열 데이터 분석 |
| Autoencoder |
• Encoder / Decoder 구조 • 비지도 학습 모델 |
차원 축소 이상 탐지 데이터 압축 |
| GAN |
• Generator(가짜 데이터 생성)와 Discriminator(진짜/가짜 판별)가 경쟁하며 학습 |
이미지 생성 데이터 증강 스타일 변환 |
📊 시험 포인트 정리
🔥 ANN 구성 요소
- 입력층
- 은닉층
- 출력층
🔥 활성화 함수
- Sigmoid
- ReLU
🔥 손실 함수
- MSE
- Cross Entropy
🔥 학습 알고리즘
- 경사하강법
- 역전파
🔥 딥러닝 모델
| 모델 | 특징 |
|---|---|
| CNN | 이미지 처리 |
| RNN | 시계열 데이터 |
| LSTM | RNN 개선 |
| Autoencoder | 차원 축소 |
| GAN | 데이터 생성 |
🔥 과적합 방지
- Weight Decay
- Dropout
📌 암기 핵심 요약
- CNN → 이미지
- RNN → 시계열
- LSTM → RNN 개선
- Autoencoder → 차원축소
- GAN → 데이터 생성

2026 이기적 빅데이터분석기사 필기 기본서
(저자: 나홍석, 배원성, 이건길, 이혜영 | 출판사: 영진닷컴)
※ 본 글은 위 교재를 참고하여 학습 목적으로 재정리한 내용입니다.
'Certifications > 빅데이터분석기사 필기' 카테고리의 다른 글
| [이기적] 군집분석(Clustering) 완전 정리 (K-means, 계층적 군집, DBSCAN 핵심 개념) (0) | 2026.03.13 |
|---|---|
| [이기적] SVM(서포트 벡터 머신) 핵심 정리 (초평면·마진·커널트릭) (0) | 2026.03.13 |
| [이기적] 의사결정나무(Decision Tree) 완벽 정리 (CART · C4.5 · 지니지수 · 엔트로피) (0) | 2026.03.12 |
| [이기적] 회귀분석 개념 정리 (선형회귀 / 다중회귀 / 최소제곱법 / 로지스틱 회귀) (0) | 2026.03.12 |
| [이기적] 확률분포 개요 정리 (확률변수 / 이산확률분포 / 연속확률분포 핵심 요약) (0) | 2026.03.11 |