딥러닝 완전 기초: 입력층·은닉층·출력층·활성화 함수 쉽게 이해하기


딥러닝을 처음 배우는 분들을 위해 입력층·은닉층·출력층·활성화 함수를 색깔 있는 도식과 함께 쉽게 설명한 글입니다. 한빛미디어 『처음 배우는 딥러닝 수학』 수준의 내용을, 그림으로 한 번에 이해할 수 있게 풀어냈습니다. 이 글로 신경망 구조의 기본 개념을  깔끔하게 정리해보세요.


관련추천책 미리보기




🧠 딥러닝 완전 기초: 입력층·은닉층·출력층·활성화 함수 한 번에 이해하기


딥러닝을 공부하다 보면 꼭 나오는 말들이 있어요.

입력층, 은닉층, 출력층, 활성화 함수

단어는 어려워 보이는데, 사실 흐름만 알면 꽤 단순한 구조입니다.
이번 글에서는 이 네 가지를 색깔·동그라미·네모 도식과 함께 아주 쉽게 정리해볼게요 🙌


1️⃣ 딥러닝 전체 구조를 한눈에 보기

먼저, 인공신경망(딥러닝)을 위에서 내려다본 구조는 이런 느낌입니다.

🟢 입력층 (Input Layer)
   🟢  🟢  🟢  🟢
      ╲  │  ╱
       ╲ │ ╱
        ╲│╱
🔵 은닉층1 (Hidden Layer 1)
     🔵  🔵  🔵
        ╲  │  ╱
         ╲ │ ╱
          ╲│╱
🔵 은닉층2 (Hidden Layer 2)
       🔵  🔵
          │
          │
🔴 출력층 (Output Layer)
         🔴
  • 🟢 입력층: 데이터가 처음 들어오는 곳

  • 🔵 은닉층들: 중간에서 열심히 계산·특징 추출을 하는 층

  • 🔴 출력층: 최종 결과(예측값, 확률 등)가 나오는 층


2️⃣ 입력층 · 은닉층 · 출력층 흐름 이해하기

조금 더 단순화하면 흐름은 이렇게 볼 수 있어요.

[🟢 입력층]
   🟢  🟢  🟢
     │    │
     ▼    ▼
[🔵 은닉층]
   🔵  🔵  🔵
      │    │
      ▼    ▼
[🔴 출력층]
      🔴

🟢 입력층 (Input Layer)

  • 역할: 현실 세계의 데이터를 그대로 받아들이는 “입구”

  • 예시

    • 이미지 → 픽셀 값들이 쫙 입력층으로

    • 키, 몸무게, 나이 → 각각 하나의 입력 노드 값

👉 입력층은 **“계산하는 층”이라기보다, “데이터를 받는 층”**이라고 생각하면 편합니다.


🔵 은닉층 (Hidden Layer)

  • 역할: 입력을 받아서 가중치·편향·활성화 함수를 통해 더 의미 있는 형태로 가공

  • 우리가 직접 볼 수 없어서 “은닉(hidden)”이라는 이름을 가짐

예를 들어,

  • 이미지라면 → 선, 윤곽, 패턴 같은 특징을 뽑아주고

  • 사용자 행동 데이터라면 → “이 사람은 어떤 취향인가?” 같은 특징을 추출

👉 **“머릿속에서 몰래 계산하는 생각 공간”**이라고 보면 됩니다.


🔴 출력층 (Output Layer)

  • 역할: 네트워크가 최종적으로 내리는 **답(예측)**이 나오는 곳

  • 예시

    • 고양이/강아지 분류 → 각 동물의 확률

    • 스팸/일반 메일 분류 → 스팸일 확률

    • 집값 예측 → 예측된 집값 숫자 1개

👉 내가 알고 싶은 정답이 마지막에 튀어나오는 자리가 바로 출력층이에요.


3️⃣ 한 층 안에서 실제로 벌어지는 일 (선형계산 + 활성화 함수)

이제 각 층 안에서 어떤 일이 벌어지는지 도식으로 보겠습니다.

   🟢 입력값 x
        │
        ▼
  ◼️ 선형계산(Linear)
  z = W·x + b
        │
        ▼
  ◻️ 활성화 함수 f
  a = f(z)
        │
        ▼
   🔵 출력값 a (다음 층으로 전달)
  1. ◼️ 선형계산:

    • 입력 x에 가중치 W를 곱하고, 편향 b를 더해서

    • z = W·x + b 계산

    • 이건 그냥 일차식, 직선 같은 계산이에요.

  2. ◻️ 활성화 함수 (Activation Function):

    • z를 그대로 쓰지 않고,

    • a = f(z) 형태로 활성화 함수 f에 한 번 더 통과시킵니다.

    • f가 바로 비선형성을 넣어주는 중요한 역할을 합니다.

  3. 🔵 a가 다음 층의 입력이 됨

    • 이렇게 층에서 층으로 계속 이어지면서 신경망이 깊어지는 것!


4️⃣ 왜 활성화 함수가 중요할까?

만약 활성화 함수를 쓰지 않고,
계속 z = W·x + b 같은 선형계산만 하면 어떻게 될까요?

  • 층을 아무리 많이 쌓아도

  • 결국에는 직선(또는 평면) 하나를 복잡하게 늘려놓은 것과 비슷해집니다.

  • 즉, 복잡한 패턴을 학습할 수 없음 🙅‍♂️

그래서,

활성화 함수 = 단순 직선을 꺾어서, 신경망이 복잡한 패턴도 배울 수 있게 만드는 스위치

라고 기억하면 딱 좋아요.


5️⃣ 대표 활성화 함수들, 그림 느낌으로 보기

🟦 1) ReLU (Rectified Linear Unit)

f(x) = max(0, x)
  • x가 0보다 크면 → 그대로 출력

  • x가 0 이하면 → 0으로 잘라 버림

그래프 느낌은 이렇게 생겼습니다.

          y
          │
          │      /
          │     /
          │    /
──────────┼───/──────── x
          0
(왼쪽은 쭉 0, 오른쪽은 x에 비례해서 쭉 증가)
  • 장점: 계산 빠름, 학습 잘 됨

  • 특징: 은닉층에서 가장 많이 쓰이는 대표 활성화 함수


🟪 2) Sigmoid (시그모이드)

f(x) = 1 / (1 + e^(-x))
  • 출력값이 항상 0 ~ 1 사이

  • 확률처럼 해석하기 좋음

그래프 느낌:

          y
        1 ────────┐
          ╲      /
           ╲    /
            ╲  /
          0 ─╱──────── x
             0
(완만한 S자 곡선, 양쪽 끝으로 갈수록 0과 1에 가까워짐)
  • 이진 분류(예: 스팸/일반, 맞다/아니다)에서 출력층에 자주 사용


🟥 3) Softmax (소프트맥스)

여러 클래스 중 하나를 고르는 다중 분류에서 사용됩니다.

입력 점수 (logits)
   ◼️ z1   ◼️ z2   ◼️ z3
      │      │      │
      └── Softmax ──┘
             │
             ▼
출력 확률
   🔴 p1   🔴 p2   🔴 p3   (p1 + p2 + p3 = 1)

예를 들면,

  • 고양이일 확률: 0.1

  • 강아지일 확률: 0.7

  • 토끼일 확률: 0.2

👉 **“세 가지 중 어떤 것일지, 각각의 확률을 알려주는 함수”**라고 보면 됩니다.


6️⃣ 전체 흐름 최종 도식으로 마무리

지금까지 내용을 한 줄로 정리하면, 딥러닝은 이렇게 흘러갑니다.

🟢 입력층
   → 🔵 은닉층1 (선형계산 + 활성화 함수)
   → 🔵 은닉층2 (선형계산 + 활성화 함수)
   → …
   → 🔴 출력층 (최종 예측값 또는 확률)
  • 🟢 입력층: 데이터를 받아들이는 입구

  • 🔵 은닉층: 계산과 변환이 반복되는 생각 공간

  • 🔴 출력층: 실제로 우리가 쓰게 되는 결과

  • ◼️/◻️ 활성화 함수: 신경망에 뇌처럼 비선형 ‘판단력’을 넣어주는 핵심


7️⃣ 한 번 더, 초간단 요약

  • 입력층: “데이터 들어와!”

  • 은닉층: “이 정보들, 이렇게 저렇게 조합해서 의미 있는 특징으로 바꿔볼까?”

  • 출력층: “내 결론은 이거야!”

  • 활성화 함수: “그냥 계산 말고, 진짜 똑똑하게 판단해보자!”

이 네 가지만 이해해도,
『처음 배우는 딥러닝 수학』이나 딥러닝 입문서에서 나오는 구조 설명이 훨씬 가볍게 느껴질 거예요 🙌

딥러닝 기초개념
딥러닝 기초개념


다음 이전