딥러닝을 처음 배우는 분들을 위해 입력층·은닉층·출력층·활성화 함수를 색깔 있는
도식과 함께 쉽게 설명한 글입니다. 한빛미디어 『처음 배우는 딥러닝 수학』
수준의 내용을, 그림으로 한 번에 이해할 수 있게 풀어냈습니다. 이 글로 신경망
구조의 기본 개념을 깔끔하게 정리해보세요.
🧠 딥러닝 완전 기초: 입력층·은닉층·출력층·활성화 함수 한 번에 이해하기
딥러닝을 공부하다 보면 꼭 나오는 말들이 있어요.
입력층, 은닉층, 출력층, 활성화 함수
단어는 어려워 보이는데, 사실
흐름만 알면 꽤 단순한 구조입니다.
이번 글에서는 이 네 가지를
색깔·동그라미·네모 도식과 함께 아주 쉽게 정리해볼게요 🙌
1️⃣ 딥러닝 전체 구조를 한눈에 보기
먼저, 인공신경망(딥러닝)을 위에서 내려다본 구조는 이런 느낌입니다.
🟢 입력층 (Input Layer)
🟢 🟢 🟢 🟢
╲ │ ╱
╲ │ ╱
╲│╱
🔵 은닉층1 (Hidden Layer 1)
🔵 🔵 🔵
╲ │ ╱
╲ │ ╱
╲│╱
🔵 은닉층2 (Hidden Layer 2)
🔵 🔵
│
│
🔴 출력층 (Output Layer)
🔴
-
🟢 입력층: 데이터가 처음 들어오는 곳
-
🔵 은닉층들: 중간에서 열심히 계산·특징 추출을 하는 층
-
🔴 출력층: 최종 결과(예측값, 확률 등)가 나오는 층
2️⃣ 입력층 · 은닉층 · 출력층 흐름 이해하기
조금 더 단순화하면 흐름은 이렇게 볼 수 있어요.
[🟢 입력층]
🟢 🟢 🟢
│ │
▼ ▼
[🔵 은닉층]
🔵 🔵 🔵
│ │
▼ ▼
[🔴 출력층]
🔴
🟢 입력층 (Input Layer)
-
역할: 현실 세계의 데이터를 그대로 받아들이는 “입구”
-
예시
-
이미지 → 픽셀 값들이 쫙 입력층으로
-
키, 몸무게, 나이 → 각각 하나의 입력 노드 값
-
👉 입력층은 **“계산하는 층”이라기보다, “데이터를 받는 층”**이라고 생각하면 편합니다.
🔵 은닉층 (Hidden Layer)
-
역할: 입력을 받아서 가중치·편향·활성화 함수를 통해 더 의미 있는 형태로 가공
-
우리가 직접 볼 수 없어서 “은닉(hidden)”이라는 이름을 가짐
예를 들어,
-
이미지라면 → 선, 윤곽, 패턴 같은 특징을 뽑아주고
-
사용자 행동 데이터라면 → “이 사람은 어떤 취향인가?” 같은 특징을 추출
👉 **“머릿속에서 몰래 계산하는 생각 공간”**이라고 보면 됩니다.
🔴 출력층 (Output Layer)
-
역할: 네트워크가 최종적으로 내리는 **답(예측)**이 나오는 곳
-
예시
-
고양이/강아지 분류 → 각 동물의 확률
-
스팸/일반 메일 분류 → 스팸일 확률
-
집값 예측 → 예측된 집값 숫자 1개
-
👉 내가 알고 싶은 정답이 마지막에 튀어나오는 자리가 바로 출력층이에요.
3️⃣ 한 층 안에서 실제로 벌어지는 일 (선형계산 + 활성화 함수)
이제 각 층 안에서 어떤 일이 벌어지는지 도식으로 보겠습니다.
🟢 입력값 x
│
▼
◼️ 선형계산(Linear)
z = W·x + b
│
▼
◻️ 활성화 함수 f
a = f(z)
│
▼
🔵 출력값 a (다음 층으로 전달)
-
◼️ 선형계산:
-
입력 x에 가중치 W를 곱하고, 편향 b를 더해서
-
z = W·x + b계산 -
이건 그냥 일차식, 직선 같은 계산이에요.
-
-
◻️ 활성화 함수 (Activation Function):
-
z를 그대로 쓰지 않고,
-
a = f(z)형태로 활성화 함수 f에 한 번 더 통과시킵니다. -
이
f가 바로 비선형성을 넣어주는 중요한 역할을 합니다.
-
-
🔵 a가 다음 층의 입력이 됨
-
이렇게 층에서 층으로 계속 이어지면서 신경망이 깊어지는 것!
-
4️⃣ 왜 활성화 함수가 중요할까?
만약 활성화 함수를 쓰지 않고,
계속 z = W·x + b 같은 선형계산만 하면 어떻게 될까요?
-
층을 아무리 많이 쌓아도
-
결국에는 직선(또는 평면) 하나를 복잡하게 늘려놓은 것과 비슷해집니다.
-
즉, 복잡한 패턴을 학습할 수 없음 🙅♂️
그래서,
활성화 함수 = 단순 직선을 꺾어서, 신경망이 복잡한 패턴도 배울 수 있게 만드는 스위치
라고 기억하면 딱 좋아요.
5️⃣ 대표 활성화 함수들, 그림 느낌으로 보기
🟦 1) ReLU (Rectified Linear Unit)
f(x) = max(0, x)
-
x가 0보다 크면 → 그대로 출력
-
x가 0 이하면 → 0으로 잘라 버림
그래프 느낌은 이렇게 생겼습니다.
y
│
│ /
│ /
│ /
──────────┼───/──────── x
0
(왼쪽은 쭉 0, 오른쪽은 x에 비례해서 쭉 증가)
-
장점: 계산 빠름, 학습 잘 됨
-
특징: 은닉층에서 가장 많이 쓰이는 대표 활성화 함수
🟪 2) Sigmoid (시그모이드)
f(x) = 1 / (1 + e^(-x))
-
출력값이 항상 0 ~ 1 사이
-
확률처럼 해석하기 좋음
그래프 느낌:
y
1 ────────┐
╲ /
╲ /
╲ /
0 ─╱──────── x
0
(완만한 S자 곡선, 양쪽 끝으로 갈수록 0과 1에 가까워짐)
-
이진 분류(예: 스팸/일반, 맞다/아니다)에서 출력층에 자주 사용
🟥 3) Softmax (소프트맥스)
여러 클래스 중 하나를 고르는 다중 분류에서 사용됩니다.
입력 점수 (logits)
◼️ z1 ◼️ z2 ◼️ z3
│ │ │
└── Softmax ──┘
│
▼
출력 확률
🔴 p1 🔴 p2 🔴 p3 (p1 + p2 + p3 = 1)
예를 들면,
-
고양이일 확률: 0.1
-
강아지일 확률: 0.7
-
토끼일 확률: 0.2
👉 **“세 가지 중 어떤 것일지, 각각의 확률을 알려주는 함수”**라고 보면 됩니다.
6️⃣ 전체 흐름 최종 도식으로 마무리
지금까지 내용을 한 줄로 정리하면, 딥러닝은 이렇게 흘러갑니다.
🟢 입력층
→ 🔵 은닉층1 (선형계산 + 활성화 함수)
→ 🔵 은닉층2 (선형계산 + 활성화 함수)
→ …
→ 🔴 출력층 (최종 예측값 또는 확률)
-
🟢 입력층: 데이터를 받아들이는 입구
-
🔵 은닉층: 계산과 변환이 반복되는 생각 공간
-
🔴 출력층: 실제로 우리가 쓰게 되는 결과
-
◼️/◻️ 활성화 함수: 신경망에 뇌처럼 비선형 ‘판단력’을 넣어주는 핵심
7️⃣ 한 번 더, 초간단 요약
-
입력층: “데이터 들어와!”
-
은닉층: “이 정보들, 이렇게 저렇게 조합해서 의미 있는 특징으로 바꿔볼까?”
-
출력층: “내 결론은 이거야!”
-
활성화 함수: “그냥 계산 말고, 진짜 똑똑하게 판단해보자!”
이 네 가지만 이해해도,
『처음 배우는 딥러닝 수학』이나 딥러닝 입문서에서 나오는 구조 설명이 훨씬
가볍게 느껴질 거예요 🙌
![]() |
| 딥러닝 기초개념 |


