Rescale λ―ΈνŒ… μ˜ˆμ•½

μ‹ κ²½λ§μ΄λž€ λ¬΄μ—‡μž…λ‹ˆκΉŒ?

AI 101

μ‹ κ²½λ§μ΄λž€ λ¬΄μ—‡μž…λ‹ˆκΉŒ?

mm

인곡 신경망(ANN)μ΄λž€ λ¬΄μ—‡μž…λ‹ˆκΉŒ?

AI의 κ°€μž₯ 큰 λ°œμ „μ€ λ‹€μŒκ³Ό κ°™μŠ΅λ‹ˆλ‹€. 인곡 신경망에 μ˜ν•΄ ꡬ동. 인곡 신경망(ANN)은 μΈκ°„μ˜ λ‘λ‡Œμ—μ„œ λ°œκ²¬λ˜λŠ” μ‹ κ²½λ§μ—μ„œ μ˜κ°μ„ 받은 ν˜•μ‹μœΌλ‘œ κ²°ν•©λœ μˆ˜ν•™μ  κΈ°λŠ₯의 μ—°κ²°μž…λ‹ˆλ‹€. μ΄λŸ¬ν•œ ANN은 λ°μ΄ν„°μ—μ„œ λ³΅μž‘ν•œ νŒ¨ν„΄μ„ μΆ”μΆœν•˜κ³ , μ΄λŸ¬ν•œ νŒ¨ν„΄μ„ 보이지 μ•ŠλŠ” 데이터에 μ μš©ν•˜μ—¬ 데이터λ₯Ό λΆ„λ₯˜/인식할 수 μžˆμŠ΅λ‹ˆλ‹€. 이런 μ‹μœΌλ‘œ κΈ°κ³„λŠ” "ν•™μŠ΅"ν•©λ‹ˆλ‹€. μ΄λŠ” 신경망에 λŒ€ν•œ κ°„λž΅ν•œ μš”μ•½μ΄μ§€λ§Œ, 신경망이 무엇인지, μ–΄λ–»κ²Œ μž‘λ™ν•˜λŠ”μ§€ 더 잘 μ΄ν•΄ν•˜κΈ° μœ„ν•΄ 신경망을 μžμ„Ένžˆ μ‚΄νŽ΄λ³΄κ² μŠ΅λ‹ˆλ‹€.

λ‹€μΈ΅ νΌμ…‰νŠΈλ‘  μ„€λͺ…

더 λ³΅μž‘ν•œ 신경망을 μ‚΄νŽ΄λ³΄κΈ° 전에 κ°„λ‹¨ν•œ λ²„μ „μ˜ ANN을 μ‚΄νŽ΄λ³΄κ² μŠ΅λ‹ˆλ‹€. λ‹€μΈ΅ νΌμ…‰νŠΈλ‘ (MLP).

곡μž₯의 쑰립 라인을 상상해 λ³΄μ‹­μ‹œμ˜€. 이 쑰립 λΌμΈμ—μ„œ ν•œ μž‘μ—…μžκ°€ ν’ˆλͺ©μ„ λ°›μ•„ μ•½κ°„ μ‘°μ •ν•œ λ‹€μŒ λ™μΌν•œ μž‘μ—…μ„ μˆ˜ν–‰ν•˜λŠ” 라인의 λ‹€μŒ μž‘μ—…μžμ—κ²Œ μ „λ‹¬ν•©λ‹ˆλ‹€. 이 ν”„λ‘œμ„ΈμŠ€λŠ” 라인의 λ§ˆμ§€λ§‰ μž‘μ—…μžκ°€ ν•­λͺ©μ„ λ§ˆλ¬΄λ¦¬ν•˜κ³  곡μž₯μ—μ„œ κΊΌλ‚Ό λ²¨νŠΈμ— 놓을 λ•ŒκΉŒμ§€ κ³„μ†λ©λ‹ˆλ‹€. 이 λΉ„μœ μ—μ„œ 쑰립 λΌμΈμ—λŠ” μ—¬λŸ¬ "λ ˆμ΄μ–΄"κ°€ 있으며 μ œν’ˆμ€ μž‘μ—…μžμ—μ„œ μž‘μ—…μžλ‘œ 이동할 λ•Œ λ ˆμ΄μ–΄ 사이λ₯Ό μ΄λ™ν•©λ‹ˆλ‹€. 쑰립 λΌμΈμ—λŠ” μ§„μž…μ κ³Ό μ’…λ£Œμ μ΄ μžˆμŠ΅λ‹ˆλ‹€.

Multi-Layer Perceptron은 μž…λ ₯ λ ˆμ΄μ–΄, μˆ¨κ²¨μ§„ λ ˆμ΄μ–΄, 좜λ ₯ λ ˆμ΄μ–΄ 총 XNUMX개의 λ ˆμ΄μ–΄λ‘œ κ΅¬μ„±λœ 맀우 λ‹¨μˆœν•œ 생산 라인으둜 생각할 수 μžˆμŠ΅λ‹ˆλ‹€. μž…λ ₯ λ ˆμ΄μ–΄λŠ” 데이터가 MLP에 κ³΅κΈ‰λ˜λŠ” 곳이며 μˆ¨κ²¨μ§„ λ ˆμ΄μ–΄μ—μ„œ 일뢀 "μž‘μ—…μž"κ°€ 데이터λ₯Ό μ²˜λ¦¬ν•˜μ—¬ μ œν’ˆμ„ μ™ΈλΆ€ 세계에 μ œκ³΅ν•˜λŠ” 좜λ ₯ λ ˆμ΄μ–΄λ‘œ μ „λ‹¬ν•©λ‹ˆλ‹€. MLP의 경우 μ΄λŸ¬ν•œ μž‘μ—…μžλ₯Ό "λ‰΄λŸ°"(λ˜λŠ” λ•Œλ‘œλŠ” λ…Έλ“œ)이라고 ν•˜λ©° 데이터λ₯Ό μ²˜λ¦¬ν•  λ•Œ 일련의 μˆ˜ν•™ ν•¨μˆ˜λ₯Ό 톡해 데이터λ₯Ό μ‘°μž‘ν•©λ‹ˆλ‹€.

λ„€νŠΈμ›Œν¬ λ‚΄μ—λŠ” "λ…Έλ“œμ™€ λ…Έλ“œλ₯Ό μ—°κ²°ν•˜λŠ” ꡬ쑰가 μžˆμŠ΅λ‹ˆλ‹€.무게". κ°€μ€‘μΉ˜λŠ” λ„€νŠΈμ›Œν¬λ₯Ό 톡해 이동할 λ•Œ 데이터 ν¬μΈνŠΈκ°€ μ–΄λ–»κ²Œ κ΄€λ ¨λ˜μ–΄ μžˆλŠ”μ§€μ— λŒ€ν•œ κ°€μ •μž…λ‹ˆλ‹€. λ‹€μ‹œ λ§ν•΄μ„œ κ°€μ€‘μΉ˜λŠ” ν•œ λ‰΄λŸ°μ΄ λ‹€λ₯Έ λ‰΄λŸ°μ— λ―ΈμΉ˜λŠ” 영ν–₯의 μˆ˜μ€€μ„ λ°˜μ˜ν•©λ‹ˆλ‹€. κ°€μ€‘μΉ˜λŠ” 데이터λ₯Ό λ³€ν™˜ν•˜λŠ” μΌμ’…μ˜ μˆ˜ν•™ ν•¨μˆ˜μΈ ν˜„μž¬ λ…Έλ“œλ₯Ό λ– λ‚  λ•Œ "ν™œμ„±ν™” ν•¨μˆ˜"λ₯Ό ν†΅κ³Όν•©λ‹ˆλ‹€. μ„ ν˜• 데이터λ₯Ό λΉ„μ„ ν˜• ν‘œν˜„μœΌλ‘œ λ³€ν™˜ν•˜μ—¬ λ„€νŠΈμ›Œν¬κ°€ λ³΅μž‘ν•œ νŒ¨ν„΄μ„ 뢄석할 수 μžˆλ„λ‘ ν•©λ‹ˆλ‹€.

"인곡 신경망"이 μ•”μ‹œν•˜λŠ” 인간 λ‘λ‡Œμ— λŒ€ν•œ λΉ„μœ λŠ” 인간 λ‘λ‡Œλ₯Ό κ΅¬μ„±ν•˜λŠ” λ‰΄λŸ°μ΄ ANN의 λ…Έλ“œκ°€ μ—°κ²°λ˜λŠ” 방식과 μœ μ‚¬ν•œ λ°©μ‹μœΌλ‘œ ν•¨κ»˜ κ²°ν•©λœλ‹€λŠ” μ‚¬μ‹€μ—μ„œ λΉ„λ‘―λ©λ‹ˆλ‹€.

λ‹€μΈ΅ νΌμ…‰νŠΈλ‘ μ€ 1940λ…„λŒ€λΆ€ν„° μ‘΄μž¬ν–ˆμ§€λ§Œ 특히 μœ μš©ν•˜μ§€ λͺ»ν•œ μ—¬λŸ¬ κ°€μ§€ μ œν•œμ΄ μžˆμ—ˆμŠ΅λ‹ˆλ‹€. κ·ΈλŸ¬λ‚˜ μ§€λ‚œ μˆ˜μ‹­ λ…„ λ™μ•ˆ β€œμ—­ μ „νŒŒ"λŠ” λ„€νŠΈμ›Œν¬κ°€ λ‰΄λŸ°μ˜ κ°€μ€‘μΉ˜λ₯Ό μ‘°μ •ν•˜μ—¬ 훨씬 더 효과적으둜 ν•™μŠ΅ν•  수 μžˆλ„λ‘ λ§Œλ“€μ–΄μ‘ŒμŠ΅λ‹ˆλ‹€. μ—­μ „νŒŒλŠ” μ‹ κ²½λ§μ˜ κ°€μ€‘μΉ˜λ₯Ό λ³€κ²½ν•˜μ—¬ λ„€νŠΈμ›Œν¬κ°€ 데이터 λ‚΄μ˜ μ‹€μ œ νŒ¨ν„΄μ„ 더 잘 포착할 수 μžˆλ„λ‘ ν•©λ‹ˆλ‹€.

κΉŠμ€ 신경망

심측 신경망은 MLP의 κΈ°λ³Έ ν˜•νƒœλ₯Ό μ·¨ν•˜κ³  λͺ¨λΈ 쀑간에 더 λ§Žμ€ μˆ¨κ²¨μ§„ 계측을 μΆ”κ°€ν•˜μ—¬ 더 크게 λ§Œλ“­λ‹ˆλ‹€. λ”°λΌμ„œ μž…λ ₯ λ ˆμ΄μ–΄, 은닉 λ ˆμ΄μ–΄, 좜λ ₯ λ ˆμ΄μ–΄κ°€ μžˆλŠ” λŒ€μ‹  쀑간에 λ§Žμ€ 은닉 λ ˆμ΄μ–΄κ°€ 있고 데이터가 μ™„μ „νžˆ 생성될 λ•ŒκΉŒμ§€ ν•˜λ‚˜μ˜ 은닉 λ ˆμ΄μ–΄μ˜ 좜λ ₯이 λ‹€μŒ 은닉 λ ˆμ΄μ–΄μ˜ μž…λ ₯이 λ©λ‹ˆλ‹€. λ„€νŠΈμ›Œν¬λ₯Ό 톡해 λ°˜ν™˜λ˜μ—ˆμŠ΅λ‹ˆλ‹€.

심측 μ‹ κ²½λ§μ˜ μ—¬λŸ¬ μˆ¨κ²¨μ§„ λ ˆμ΄μ–΄λŠ” 기쑴의 λ‹€μΈ΅ νΌμ…‰νŠΈλ‘ λ³΄λ‹€ 더 λ³΅μž‘ν•œ νŒ¨ν„΄μ„ 해석할 수 μžˆμŠ΅λ‹ˆλ‹€. 심측 μ‹ κ²½λ§μ˜ μ„œλ‘œ λ‹€λ₯Έ 계측은 λ°μ΄ν„°μ˜ μ„œλ‘œ λ‹€λ₯Έ λΆ€λΆ„μ˜ νŒ¨ν„΄μ„ ν•™μŠ΅ν•©λ‹ˆλ‹€. 예λ₯Ό λ“€μ–΄, μž…λ ₯ 데이터가 μ΄λ―Έμ§€λ‘œ κ΅¬μ„±λœ 경우 λ„€νŠΈμ›Œν¬μ˜ 첫 번째 뢀뢄은 ν”½μ…€μ˜ 밝기 λ˜λŠ” 어둠을 해석할 수 있으며, 이후 λ ˆμ΄μ–΄λŠ” μ΄λ―Έμ§€μ—μ„œ 개체λ₯Ό μΈμ‹ν•˜λŠ” 데 μ‚¬μš©ν•  수 μžˆλŠ” λͺ¨μ–‘κ³Ό κ°€μž₯자리λ₯Ό μ„ νƒν•©λ‹ˆλ‹€.

λ‹€μ–‘ν•œ μœ ν˜•μ˜ 신경망

λ‹€μ–‘ν•œ μœ ν˜•μ˜ 신경망이 있으며 λ‹€μ–‘ν•œ 신경망 μœ ν˜• κ°κ°μ—λŠ” κ³ μœ ν•œ μž₯점과 단점(λ”°λΌμ„œ κ³ μœ ν•œ μ‚¬μš© 사둀)이 μžˆμŠ΅λ‹ˆλ‹€. μœ„μ—μ„œ μ„€λͺ…ν•œ 심측 신경망 μœ ν˜•μ€ κ°€μž₯ 일반적인 μœ ν˜•μ˜ 신경망이며 μ’…μ’… ν”Όλ“œν¬μ›Œλ“œ 신경망이라고도 ν•©λ‹ˆλ‹€.

μ‹ κ²½λ§μ˜ λ³€ν˜• 쀑 ν•˜λ‚˜λŠ” RNN(Recurrent Neural Network)μž…λ‹ˆλ‹€. μˆœν™˜ μ‹ κ²½λ§μ˜ 경우 루프 λ©”μ»€λ‹ˆμ¦˜μ€ 이전 뢄석 μƒνƒœμ˜ 정보λ₯Ό μœ μ§€ν•˜λŠ” 데 μ‚¬μš©λ©λ‹ˆλ‹€. 즉, μˆœμ„œκ°€ μ€‘μš”ν•œ 데이터λ₯Ό 해석할 수 μžˆμŠ΅λ‹ˆλ‹€. RNN은 순차적/μ—°λŒ€μˆœ λ°μ΄ν„°μ—μ„œ νŒ¨ν„΄μ„ λ„μΆœν•˜λŠ” 데 μœ μš©ν•©λ‹ˆλ‹€. μˆœν™˜ 신경망은 단방ν–₯μ΄κ±°λ‚˜ μ–‘λ°©ν–₯일 수 μžˆμŠ΅λ‹ˆλ‹€. μ–‘λ°©ν–₯ μ‹ κ²½λ§μ˜ 경우 λ„€νŠΈμ›Œν¬λŠ” μ‹œν€€μŠ€μ˜ 이전 λΆ€λΆ„λΏλ§Œ μ•„λ‹ˆλΌ μ‹œν€€μŠ€μ˜ λ’·λΆ€λΆ„μ—μ„œλ„ 정보λ₯Ό κ°€μ Έμ˜¬ 수 μžˆμŠ΅λ‹ˆλ‹€. μ–‘λ°©ν–₯ RNN은 더 λ§Žμ€ 정보λ₯Ό κ³ λ €ν•˜λ―€λ‘œ λ°μ΄ν„°μ—μ„œ μ˜¬λ°”λ₯Έ νŒ¨ν„΄μ„ 더 잘 λ„μΆœν•  수 μžˆμŠ΅λ‹ˆλ‹€.

컨볼루셔널 신경망(Convolutional Neural Network)은 이미지 λ‚΄μ—μ„œ 발견된 νŒ¨ν„΄μ„ ν•΄μ„ν•˜λŠ” 데 λŠ₯μˆ™ν•œ νŠΉμˆ˜ν•œ μœ ν˜•μ˜ μ‹ κ²½λ§μž…λ‹ˆλ‹€. CNN은 μ΄λ―Έμ§€μ˜ 픽셀에 ν•„ν„°λ₯Ό μ „λ‹¬ν•˜κ³  이미지 λ‚΄μ˜ 픽셀을 수치둜 ν‘œν˜„ν•œ λ‹€μŒ νŒ¨ν„΄μ„ λΆ„μ„ν•˜λŠ” λ°©μ‹μœΌλ‘œ μž‘λ™ν•©λ‹ˆλ‹€. CNN은 μ΄λ―Έμ§€μ—μ„œ 픽셀을 λŒμ–΄λ‚΄λŠ” μ»¨λ³Όλ£¨μ…˜ λ ˆμ΄μ–΄κ°€ λ¨Όμ € 였고, κ·Έ λ‹€μŒ μ‘°λ°€ν•˜κ²Œ μ—°κ²°λœ ν”Όλ“œν¬μ›Œλ“œ λ ˆμ΄μ–΄(μ‹€μ œλ‘œ 객체λ₯Ό μΈμ‹ν•˜λŠ” 방법을 ν•™μŠ΅ν•˜λŠ” λ ˆμ΄μ–΄)κ°€ κ·Έ 뒀에 μ˜€λ„λ‘ κ΅¬μ‘°ν™”λ˜μ–΄ μžˆμŠ΅λ‹ˆλ‹€.

μ „λ¬Έ λΆ„μ•Όμ˜ λΈ”λ‘œκ±° 및 ν”„λ‘œκ·Έλž˜λ¨Έ λ¨Έμ‹  λŸ¬λ‹ 그리고 λ”₯λŸ¬λ‹ 주제. λ‹€λ‹ˆμ—˜μ€ λ‹€λ₯Έ μ‚¬λžŒλ“€μ΄ μ‚¬νšŒμ  이읡을 μœ„ν•΄ AI의 νž˜μ„ μ‚¬μš©ν•˜λ„λ‘ 돕기λ₯Ό ν¬λ§ν•©λ‹ˆλ‹€.