728x90
๋ฐ˜์‘ํ˜•
๐Ÿ’ก
loss function : ๋ชจ๋ธ์˜ inference ๊ฒฐ๊ณผ(์˜ˆ์ธก๊ฐ’)์™€ ์‹ค์ œ ๊ฐ’(y) ์‚ฌ์ด์˜ ํ‹€๋ฆฐ ์ •๋„๋ฅผ ๊ณ„์‚ฐํ•˜๋Š” ํ•จ์ˆ˜
Source : https://datahacker.rs/003-pytorch-how-to-implement-linear-regression-in-pytorch/
  • y^\hat y๏ปฟ(predictied value)์™€ yy๏ปฟ(target value) ์‚ฌ์ด์˜ ์ฐจ์ด๋ฅผ ๊ณ„์‚ฐํ•ด์ฃผ๋Š” ํ•จ์ˆ˜.
  • ๋œ ํ‹€๋ฆด ์ˆ˜๋ก(= ์ฐจ์ด๊ฐ€ ์ ์„ ์ˆ˜๋ก) ํ•™์Šต์„ ์ž˜ํ•œ ๊ฒƒ์ž…๋‹ˆ๋‹ค.
  • ๊ทธ๋Ÿผ Loss function์˜ ๊ฒฐ๊ณผ์— ์˜ํ–ฅ์„ ์ฃผ๋Š” ๋ณ€์ˆ˜๋Š” ๋ฌด์—‡์ผ๊นŒ?

    โ†’ parameter! (eights)

  • Loss function์˜ ๊ณ„์‚ฐ ๊ฒฐ๊ณผ๊ฐ€ ๊ฐ€์žฅ ์ž‘์•„์งˆ ์ˆ˜ ์žˆ๋Š” parameter๋ฅผ ์ฐพ๋Š” ๊ฒƒ์ด ํ•™์Šต์˜ ๋ชฉํ‘œ๊ฐ€ ๋ฉ๋‹ˆ๋‹ค.

Loss Function Optimization

Source : https://www.kaggle.com/mrhippo/data-science-notes5-deep-learning-ann
  • Loss function์ด ์ตœ์ ์˜ ๊ฐ’์„ ๊ฐ€์งˆ ์ˆ˜ ์žˆ๋Š” ํŒŒ๋ผ๋ฏธํ„ฐ๋ฅผ ์ฐพ๊ธฐ ์œ„ํ•ด์„œ๋Š” ํŒŒ๋ผ๋ฏธํ„ฐ๋ฅผ ์ ์ ˆํ•˜๊ฒŒ ์—…๋ฐ์ดํŠธ ํ•ด์ฃผ์–ด์•ผ ํ•ฉ๋‹ˆ๋‹ค.
  • ์„ฑ๋Šฅ์ด ํ–ฅ์ƒ๋˜๋Š” ๋ฐฉํ–ฅ์œผ๋กœ ํŒŒ๋ผ๋ฏธํ„ฐ๋ฅผ ์—…๋ฐ์ดํŠธ ํ•ด์ฃผ๋Š” ๊ฒƒ์ด ์ค‘์š”ํ•ฉ๋‹ˆ๋‹ค!
  • Loss space์—์„œ ์ตœ์ ์˜ ํŒŒ๋ผ๋ฏธํ„ฐ ์กฐํ•ฉ์„ ์ฐพ๋Š” ๋ฌธ์ œ๋Š” ์ˆ˜ํ•™์ ์œผ๋กœ ๋งค์šฐ ์–ด๋ ต์Šต๋‹ˆ๋‹ค. (๊ณ ์ฐจ์›์—์„œ์˜ ์ตœ์ ํ™” ๋ฌธ์ œ๋Š” ํ•ด๋‹ต์„ ์ฐพ๊ธฐ๊ฐ€ ์–ด๋ ค์›€)
  • Gradient Descent algorithm์€ ์ž„์˜์˜ ํฌ์ธํŠธ์— ๋–จ์–ด์กŒ์„ ๋•Œ, ํ˜„์žฌ ์„œ ์žˆ๋Š” ์œ„์น˜์—์„œ ๊ฐ€์žฅ ๊ฐ€ํŒŒ๋ฅธ ๋ฐฉํ–ฅ์œผ๋กœ ํ•œ ๋ฐœ์ž๊ตญ์”ฉ ๋‚ด๋ ค๊ฐ€๋Š” ๋ฐฉ๋ฒ•์œผ๋กœ ์ตœ์„ ์„ ๋‹คํ•ด ๋ฐ‘๋ฐ”๋‹ฅ์œผ๋กœ ๋‚ด๋ ค๊ฐˆ ์ˆ˜ ์žˆ๋Š” ๋ฐฉ๋ฒ•์ž…๋‹ˆ๋‹ค.
  • practicalํ•˜๊ฒŒ ๊ต‰์žฅํžˆ ์ข‹์€ ํŒŒ๋ผ๋ฏธํ„ฐ ์กฐํ•ฉ์„ ์ž˜ ์ฐพ์•„์ฃผ๋ฉฐ, ๋Œ€๋ถ€๋ถ„์˜ ๋จธ์‹ ๋Ÿฌ๋‹ ๋ชจ๋ธ์— ์ ์šฉ๋˜์–ด ์žˆ๋Š” ์ตœ์ ํ™” ๋ฐฉ์‹์ž…๋‹ˆ๋‹ค.
  • Gradient Descent algorithm์€ ํŒŒ๋ผ๋ฏธํ„ฐ๊ฐ€ ์ ์ฐจ Loss function์—์„œ ์ตœ์†Œ๊ฐ’์„ ๊ฐ€์งˆ ์ˆ˜ ์žˆ๊ฒŒ ํŒŒ๋ผ๋ฏธํ„ฐ๋ฅผ ์—…๋ฐ์ดํŠธ ํ•ด์ค๋‹ˆ๋‹ค.
  • ๋‹จ, ๋ฌด์กฐ๊ฑด global minimum(์ตœ์†Œ๊ฐ’)์„ ์ฐพ๋Š” ๊ฒƒ์€ ์•„๋‹™๋‹ˆ๋‹ค. local minimum(๊ทน์†Œ ๊ฐ’)์„ ์ฐพ์„ ์ˆ˜๋„ ์žˆ์Šต๋‹ˆ๋‹ค. (ํ•˜์ง€๋งŒ, ๊ทน์†Œ๊ฐ’์€ ๋ฌด์กฐ๊ฑด ์ฐพ์Šต๋‹ˆ๋‹ค.)


Hands-on

  1. ๋จธ์‹ ๋Ÿฌ๋‹์—์„œ ์‚ฌ์šฉ๋˜๋Š” ๋Œ€ํ‘œ์ ์ธ Loss Function์„ 3๊ฐ€์ง€๋งŒ ์กฐ์‚ฌํ•ด๋ณด์„ธ์š”. (๋ถ„๋ฅ˜, ํšŒ๊ท€, ํด๋Ÿฌ์Šคํ„ฐ๋ง์—์„œ ํ•˜๋‚˜์”ฉ ์ฐพ์•„๋ณด๋ฉด ์ œ์ผ ์ข‹์Šต๋‹ˆ๋‹ค!)
  1. Loss function optimization์—์„œ ์ˆ˜ํ•™์ ์œผ๋กœ ์ตœ์†Œ๊ฐ’์„ ์ฐพ๋Š” analytic solution ๋Œ€์‹ , Gradient Descent๋ฅผ ์ฃผ๋กœ ์‚ฌ์šฉํ•˜๋Š” ์ด์œ ๋Š” ๋ฌด์—‡์ผ์ง€ ์ƒ๊ฐํ•ด๋ณด์„ธ์š”.

728x90
๋ฐ˜์‘ํ˜•

+ Recent posts