Jinsoolve.

Categories

Tags

12월 안에는 꼭...

Portfolio

About

ALL CATEGORIES.

(46)

Batch Normalization을 하는 이유는 뭘까?

각 batch 데이터마다 분포가 다르게 되면 모델의 학습이 어렵다. 즉, 전에는 0 ~ 20 데이터가 들어와서 그거대로 학습했는데, 이번 batch에는 2000 ~ 4000…

2025/04/25

NEW POST
Quantized Side Tuning cover image

Quantized Side Tuning 논문 리뷰

Quantized Side Tuning: Fast and Memory-Efficient Tuning ofQuantized Large Language Models 논문에 대한 리뷰를 작성한 글입니다.

2025/03/11

NEW POST
intro-to-nlp-2 cover image

n-gram Language Models

언어 모델이란, 결국에는 그 다음으로 어떤 단어가 오는 것이 가장 자연스러운지를 확률로 보고 가장 높은 확률의 단어를 선택해서 문장을 구성하는 방식이다. 위 포스트에서는 n…

2025/03/10

NEW POST
profile

김진수

Currently Managed

Currently not managed

© 2025. jinsoolve all rights reserved.