[이기적] 인공신경망(ANN) 완벽 정리 (CNN · RNN · LSTM · GAN 핵심 이론)

2026. 3. 12. 17:34Certifications/빅데이터분석기사 필기

1️⃣ 인공신경망(Artificial Neural Network, ANN)

✅ 개념

  • 인간의 뇌 신경세포(뉴런) 구조를 모방한 머신러닝 모델
  • 입력 데이터를 여러 층(layer)을 통해 학습하여 패턴을 발견하는 알고리즘

🔹 구성

  • 입력층(Input Layer)
  • 은닉층(Hidden Layer)
  • 출력층(Output Layer)

🎯 포인트

  • 뉴런 기반 학습 구조
  • 비선형 문제 해결 가능
  • 딥러닝의 기본 모델

✅ 특징

  • 입력 데이터가 전달되면서 가중치(weight) 를 통해 계산 수행
  • 활성화 함수(Activation Function)를 이용하여 출력값 생성
  • 학습을 통해 가중치와 편향을 최적화

🔹 특징

  • 비선형 문제 해결 가능
  • 대규모 데이터 학습에 적합
  • 복잡한 패턴 인식 가능

2️⃣ 인공신경망의 학습 원리

✅ 지도학습 / 비지도학습 / 강화학습

학습 방식 설명
지도학습 정답(label)이 있는 데이터를 이용한 학습
비지도학습 정답이 없는 데이터에서 패턴 발견
강화학습 보상을 통해 최적 행동 학습

🎯 포인트

  • 지도학습 → 분류 / 회귀
  • 비지도학습 → 군집 / 차원축소

3️⃣ 인공신경망 학습 과정

✅ 손실 함수(Loss Function)

  • 신경망의 예측값과 실제값의 차이를 계산하는 함수
손실 함수 주요 사용
MSE
(평균제곱오차)
회귀 문제에서 주로 사용
Cross Entropy
(교차 엔트로피)
분류 문제에서 주로 사용

✅ 인공신경망 학습 알고리즘

알고리즘 설명
미니배치
(Mini-batch)
학습 데이터를 작은 단위로 나누어 학습
경사하강법
(Gradient Descent)
손실 함수를 최소화하는 방향으로
가중치를 반복적으로 업데이트하는 최적화 알고리즘
역전파
(Backpropagation)
출력층에서 계산된 오차를 입력층 방향으로 전달하여
가중치를 수정하는 학습 방법

🎯 포인트

  • MSE → 회귀 문제
  • Cross Entropy → 분류 문제
  • 역전파 = 오차를 뒤로 전달
  • 경사하강법으로 가중치 업데이트

4️⃣ 활성화 함수(Activation Function)

활성화 함수 특징 장점 / 문제점
Sigmoid
(시그모이드)
출력 범위: 0 ~ 1
이진 분류 문제에서 사용
기울기 소실(Vanishing Gradient) 발생
ReLU
(Rectified Linear Unit)
x > 0 → x
x ≤ 0 → 0
계산 효율 높음
기울기 소실 문제 완화

🎯 포인트

  • Sigmoid → 출력 범위 0~1
  • ReLU → 딥러닝에서 가장 많이 사용

5️⃣ 과적합(Overfitting)

✅ 과적합 개념

  • 학습 데이터에 과도하게 적합
  • 새로운 데이터에서는 성능 저하

✅ 과적합 해결 방법

🔹 가중치 감소(Weight Decay)

  • 모델 복잡도 감소

🔹 드롭아웃(Dropout)

  • 일부 뉴런을 랜덤 제거하여 학습

🎯 포인트

  • 과적합 방지 대표 방법
    Regularization / Dropout

6️⃣ 딥러닝 모델 종류

딥러닝 모델 핵심 특징 주요 활용
CNN • 이미지 처리에 특화된 신경망
• Convolution Layer / Pooling Layer
  / Fully Connected Layer로 구성
• 이미지 특징 자동 추출
이미지 인식
컴퓨터 비전
RNN • 순차 데이터를 처리하는 신경망
• 이전 상태 정보를 기억하는 순환 구조
자연어 처리
음성 인식
시계열 예측
LSTM • RNN의 기울기 소실 문제 해결
• Gate 구조(Input / Forget / Output)
• 장기 의존성 학습 가능
장기 시계열 데이터 분석
GRU • LSTM을 단순화한 구조
• 계산량 감소
시계열 데이터 분석
Autoencoder • Encoder / Decoder 구조
• 비지도 학습 모델
차원 축소
이상 탐지
데이터 압축
GAN • Generator(가짜 데이터 생성)와
  Discriminator(진짜/가짜 판별)가 경쟁하며 학습
이미지 생성
데이터 증강
스타일 변환

📊 시험 포인트 정리

🔥 ANN 구성 요소

  • 입력층
  • 은닉층
  • 출력층

🔥 활성화 함수

  • Sigmoid
  • ReLU

🔥 손실 함수

  • MSE
  • Cross Entropy

🔥 학습 알고리즘

  • 경사하강법
  • 역전파

🔥 딥러닝 모델

모델 특징
CNN 이미지 처리
RNN 시계열 데이터
LSTM RNN 개선
Autoencoder 차원 축소
GAN 데이터 생성

🔥 과적합 방지

  • Weight Decay
  • Dropout

📌 암기 핵심 요약

  • CNN → 이미지
  • RNN → 시계열
  • LSTM → RNN 개선
  • Autoencoder → 차원축소
  • GAN → 데이터 생성





2026 이기적 빅데이터분석기사 필기 기본서
(저자: 나홍석, 배원성, 이건길, 이혜영 | 출판사: 영진닷컴)

※ 본 글은 위 교재를 참고하여 학습 목적으로 재정리한 내용입니다.