KOAI 2과목(신경망 및 딥러닝) 전 범위를 이론과 실전 코드로 숙달합니다. PyTorch로 MLP부터 트랜스포머 미니 모델까지 직접 구현하고, 옵티마이저·정규화·파인튜닝 기법을 데이터에 맞게 선택할 수 있는 수준에 도달합니다. F1에 이어 모든 KOAI 응시자가 거치는 필수 코스입니다.
게시일: 2026년 5월 16일 | 최종 수정: 2026년 5월 16일 · KOAI 2026 요강 기준
트랙
기초 (Foundation)
모든 KOAI 응시자 필수
대상
F1 이수자
중3 ~ 고2
권장 수업 시간
약 14시간
1:1 기준 · 10~20시간 변동
KOAI 매핑
2과목 전 범위
실라버스 2-1 ~ 2-2
F2를 마치면 학생은 KOAI 2과목(신경망 및 딥러닝) 전 범위를 이론·실전으로 숙달합니다. 퍼셉트론과 경사하강법의 수학적 도출부터 시작해, PyTorch로 MLP·트랜스포머 미니 모델까지 직접 구현하는 것이 목표입니다.
단순히 모델을 돌리는 데 그치지 않고, 옵티마이저·정규화·파인튜닝 기법을 데이터에 맞게 선택할 수 있는 수준까지 도달합니다. 1~2주차는 NumPy로 퍼셉트론·역전파를 직접 구현해 원리를 먼저 이해하고, 이후 PyTorch로 진입해 어텐션·트랜스포머·ViT·오토인코더·LoRA 파인튜닝까지 다룹니다. 실라버스 2-1 ~ 2-2 전 범위를 빠짐없이 커버하는 모든 KOAI 응시자의 공통 필수 코스입니다.
F2는 F1 이수자 대상입니다. 외부에서 동등 역량을 입증하는 경우 예외적으로 수강할 수 있습니다. F1을 아직 듣지 않았다면 F1. 기초 I을 먼저 이수하세요. F1에서 다진 NumPy·Pandas·고전 ML 토대 위에 신경망과 딥러닝을 쌓아 올립니다.
아래는 1:1 기준 표준 진행안입니다. 학생의 사전 지식과 흡수 속도에 따라 일부 주차를 가속·압축하거나 더 깊게 다룹니다. 핵심 도구: NumPy, PyTorch, torchvision, Matplotlib, Hugging Face, PEFT/LoRA.
| 주차 | 주제 | 핵심 산출물 |
|---|---|---|
| 1 | 퍼셉트론, 경사하강법 (수학적 도출) | NumPy로 single-layer 직접 구현 |
| 2 | 역전파, 활성화 함수 (ReLU, Sigmoid, Tanh) | NumPy로 backprop 직접 구현 |
| 3 | 손실 함수 (MSE, MAE, Cross Entropy) + PyTorch 입문 | 첫 PyTorch MLP |
| 4 | MLP, GPU 학습, 텐서 조작 | MNIST·Fashion-MNIST 분류 |
| 5 | SGD, 미니배치, 모멘텀, Adam/AdamW | 옵티마이저 비교 실험 |
| 6 | 학습률 스케줄링, 수렴성 진단 | LR finder + lr schedule 비교 |
| 7 | 정규화 (Dropout, Early Stopping, Weight Decay) | 과적합 통제 실험 |
| 8 | 가중치 초기화, 배치 정규화 | BN on/off ablation |
| 9 | 데이터 임베딩 (text/image/audio) + 풀링 | 임베딩 시각화 |
| 10 | 어텐션 메커니즘 (이론) | scaled dot-product attention 직접 구현 |
| 11 | 트랜스포머 텍스트 인코더 (이론+실전) | mini Transformer 학습 |
| 12 | 트랜스포머 비전 (ViT 이론) | ViT 사전학습 모델 추론 |
| 13 | 오토인코더 + 모델 파인튜닝 (full vs PEFT/LoRA) | 사전학습 모델 LoRA 파인튜닝 |
| 14 | 캡스톤: 자체 데이터셋으로 DL 파이프라인 | end-to-end repo + 리포트 |
※ 주차는 콘텐츠 단위이며 실제 소요 시간은 학생별로 다릅니다. 권장 약 14시간, 변동 범위 10~20시간.
매주 PyTorch 노트북과 결과 분석을 작성합니다. 한국어·영어를 병기 — 국제학교 학생의 영어 강점을 살리면서 KOAI 2차 한국어 서술형 시험도 동시에 대비합니다.
학생이 직접 정의한 문제(이미지/텍스트 중 선택)에 대한 딥러닝 파이프라인을 end-to-end로 구축합니다. 문제 정의·모델 설계·실험·리포트가 그대로 포트폴리오 자산이 됩니다.
F2는 GitHub repo 1개 koai-deep-learning를 누적 자산으로 남기고, 캡스톤은 Notion에 케이스 스터디 형태로 1편 작성합니다. 이 케이스 스터디는 KOAI 자기소개서 200~300자 문항 2의 소재로 직접 활용할 수 있습니다.
GitHub
정리된 repo 1개 koai-deep-learning
Notion
케이스 스터디 1편 (캡스톤)
자기소개서
문항 2 소재 (200~300자)
이 이력은 KOAI 1차 서류의 포트폴리오 40% · AI 역량 30% 항목에 일자가 찍힌 증빙으로 누적됩니다. 일찍 시작할수록 응시 시점의 깊이가 깊어집니다.
F2는 KOAI 커리큘럼 기초 트랙의 두 번째 코스입니다. 전체 트랙 구조는 KOAI 대비 커리큘럼 허브에서 확인하세요.
현재 코스
F2. 기초 II
신경망 & 딥러닝
네. F2는 F1 이수자 대상입니다. 외부에서 동등 역량을 입증하면 예외적으로 수강 가능합니다.
실라버스 2과목(신경망 및 딥러닝) 전 범위(2-1~2-2). 퍼셉트론·역전파부터 트랜스포머·LoRA 파인튜닝까지.
네. 3주차에 PyTorch 입문을 다루며, 그 전 1~2주차는 NumPy로 퍼셉트론·역전파를 직접 구현해 원리를 먼저 이해합니다.
1:1 기준 권장치이며 학생별 10~20시간으로 변동합니다. 첫 진단 세션에서 개별 시간 계획을 산정합니다.
고등부 응시자는 A1(CV)·A2(NLP&Audio)로 심화하고 C1·C2·C3로 대회 대비합니다. 중등부 응시자는 M1 중등부 종합반에서 F1·F2를 압축적으로 다룹니다. 정확한 일정은 KOAI 대회 안내(https://citcoding.com/competitions/koai.html).