activations_2
activation function
linear
ν¨μ μ΄λ¦: linear_activate, linear_gradient
μ λ ₯:
x: floatν λ³μ
λμ:
linear_activate ν¨μλ μ λ ₯ xλ₯Ό κ·Έλλ‘ μΆλ ₯νλ ν¨μμ΄λ€.
linear_gradient ν¨μλ μ λ ₯ xμ λν λ―ΈλΆκ°μ κ³μ°νμ¬ λ°ννλ ν¨μμ΄λ€. μ ν ν¨μλ λ―ΈλΆκ°μ΄ νμ μΌμ νλ―λ‘ linear_gradient ν¨μλ μμ κ°μ λ°ννλ€.
μ€λͺ :
μ ν ν¨μλ μ λ ₯ κ°μ λν΄ μ§μ ννλ‘ μΆλ ₯ κ°μ κ³μ°νλ ν¨μμ΄λ€. λ₯λ¬λμμλ μ λ ₯ κ°μ λ³ννμ§ μκ³ κ·Έλλ‘ μΆλ ₯νλ κ²½μ°κ° λ§μλ°, μ΄λ μ ν ν¨μλ₯Ό νμ±ν ν¨μλ‘ μ¬μ©ν μ μλ€.
linear_activate ν¨μλ μ λ ₯ xλ₯Ό κ·Έλλ‘ μΆλ ₯νκΈ° λλ¬Έμ, μ λ ₯ κ°μ λ³ννμ§ μκ³ κ·Έλλ‘ μ¬μ©νκ³ μ ν λ νμ©λλ€.
linear_gradient ν¨μλ μ ν ν¨μμ λ―ΈλΆκ°μ κ³μ°νλ€. μ ν ν¨μλ κΈ°μΈκΈ°κ° νμ μΌμ νλ―λ‘, λ―ΈλΆκ°μ νμ 1μ΄λ€. λ°λΌμ linear_gradient ν¨μλ μ λ ₯ κ°μ κ΄κ³μμ΄ 1μ λ°ννλ€.
logistic
ν¨μ μ΄λ¦: logistic_activate, logistic_gradient
μ λ ₯:
x: μ€μ κ°
λμ:
logistic_activate: λ‘μ§μ€ν± ν¨μμ νμ±ν κ°μ κ³μ°νμ¬ λ°ννλ€.
logistic_gradient: λ‘μ§μ€ν± ν¨μμ λ―ΈλΆ κ°μ κ³μ°νμ¬ λ°ννλ€.
μ€λͺ :
logistic_activate: λ‘μ§μ€ν± ν¨μλ Sμ ννμ 곑μ μΌλ‘, μ λ ₯ xκ° ν΄μλ‘ 1μ κ°κΉμ΄ κ°μ μΆλ ₯νκ³ , μμμλ‘ 0μ κ°κΉμ΄ κ°μ μΆλ ₯νλ€. logistic_activate ν¨μλ μ΄λ¬ν λ‘μ§μ€ν± ν¨μμ νμ±ν κ°μ κ³μ°νμ¬ λ°ννλ€.
logistic_gradient: λ‘μ§μ€ν± ν¨μμ λ―ΈλΆ κ°μ κ³μ°νμ¬ λ°ννλ€. λ‘μ§μ€ν± ν¨μλ μΆλ ₯ κ°μ΄ yμΌ λ, y(1-y)μ λ―ΈλΆ κ°μ κ°μ§λλ°, logistic_gradient ν¨μλ μ΄ κ°μ κ³μ°νμ¬ λ°ννλ€.
loggy
ν¨μ μ΄λ¦: loggy_activate, loggy_gradient
μ λ ₯:
loggy_activate: floatν λ³μ x
loggy_gradient: floatν λ³μ x
λμ:
loggy_activate: μ λ ₯ xμ λν΄ λ‘μ§μ€ν± ν¨μλ₯Ό λ³νν ν¨μλ₯Ό κ³μ°νμ¬ λ°ννλ€.
loggy_gradient: λ‘μ§μ€ν± ν¨μλ₯Ό λ³νν ν¨μμ λ―ΈλΆ κ°μ κ³μ°νμ¬ λ°ννλ€.
μ€λͺ :
λ‘μ§μ€ν± ν¨μλ₯Ό λ³νν ν¨μλ‘, xκ°μ΄ 0μΌ λ κ°μ΄ 0, xκ°μ΄ ν° μμμΌ λ κ°μ΄ 1μ κ°κΉμμ§κ³ , xκ°μ΄ ν° μμμΌ λ κ°μ΄ -1μ κ°κΉμμ§λ ν¨μμ΄λ€.
λ‘μ§μ€ν± ν¨μλ₯Ό λ³νν ν¨μμ λ―ΈλΆ κ°μ μ λ ₯ xκ° 0μΌ λ μ΅λκ° 1/4μ κ°μ§λ©°, xκ°μ΄ 컀μ§κ±°λ μμμ§μ λ°λΌ κ°μνλ€.
relu
ν¨μ μ΄λ¦: relu_activate, relu_gradient μ λ ₯:
relu_activate: float νμ μ x (νμ±ν ν¨μλ₯Ό μ μ©ν μ λ ₯ κ°)
relu_gradient: float νμ μ x (νμ±ν ν¨μλ₯Ό λ―ΈλΆν μ λ ₯ κ°)
λμ:
relu_activate: xκ° 0λ³΄λ€ ν¬λ©΄ xλ₯Ό λ°ννκ³ , κ·Έλ μ§ μμΌλ©΄ 0μ λ°ννμ¬ μ λ ₯ κ°μ λΉμ νμ μΌλ‘ λ³ννλ€.
relu_gradient: xκ° 0λ³΄λ€ ν¬λ©΄ 1μ λ°ννκ³ , κ·Έλ μ§ μμΌλ©΄ 0μ λ°ννμ¬ μ λ ₯ κ°μ λν λ―ΈλΆ κ°μ κ³μ°νλ€.
μ€λͺ :
relu(Rectified Linear Unit) ν¨μλ μΈκ³΅μ κ²½λ§μμ κ°μ₯ λ§μ΄ μ¬μ©λλ νμ±ν ν¨μ μ€ νλμ΄λ€.
relu_activate ν¨μλ μ λ ₯ κ° xκ° 0λ³΄λ€ ν¬λ©΄ xλ₯Ό λ°ννκ³ , 0λ³΄λ€ μκ±°λ κ°μΌλ©΄ 0μ λ°ννμ¬ μ λ ₯ κ°μ λΉμ νμ μΌλ‘ λ³ννλ€.
relu_gradient ν¨μλ μ λ ₯ κ° xκ° 0λ³΄λ€ ν¬λ©΄ 1μ λ°ννκ³ , 0λ³΄λ€ μκ±°λ κ°μΌλ©΄ 0μ λ°ννμ¬ μ λ ₯ κ°μ λν λ―ΈλΆ κ°μ κ³μ°νλ€.
relu ν¨μλ μ λ ₯ κ°μ΄ μμμΈ κ²½μ° λ―ΈλΆ κ°μ΄ 1μ΄λ―λ‘ μμ ν κ³Όμ μμ κΈ°μΈκΈ° μμ€ λ¬Έμ (vanishing gradient problem)κ° λ°μνμ§ μμ μΈκ³΅μ κ²½λ§μμ λ§μ΄ μ¬μ©λλ€.
elu
ν¨μ μ΄λ¦: elu_activate, elu_gradient
μ λ ₯:
x (νμ±ν ν¨μμ μ λ ₯ κ°)
λμ:
elu_activate: Exponential Linear Unit(ELU) νμ±ν ν¨μλ‘, μ λ ₯ κ° xκ° 0λ³΄λ€ ν¬κ±°λ κ°μΌλ©΄ xλ₯Ό κ·Έλλ‘ μΆλ ₯νκ³ , 0λ³΄λ€ μμΌλ©΄ exp(x)-1μ μΆλ ₯νλ€.
elu_gradient: ELU νμ±ν ν¨μμ λν¨μλ‘, μ λ ₯ κ° xκ° 0λ³΄λ€ ν¬κ±°λ κ°μΌλ©΄ 1μ μΆλ ₯νκ³ , 0λ³΄λ€ μμΌλ©΄ x+1μ μΆλ ₯νλ€.
μ€λͺ :
ELU νμ±ν ν¨μλ ReLU ν¨μμ λ¨μ μ 보μν ν¨μλ‘, μ λ ₯ κ°μ΄ μμμΈ κ²½μ°μλ μΆλ ₯ κ°μ μμ±ν μ μλ€.
λν¨μμμ x+1μ μ¬μ©ν μ΄μ λ, xκ° 0λ³΄λ€ μμ λ exp(x)-1μ κ°μ΄ μμκ° λ μ μκΈ° λλ¬Έμ, κ°μ μ‘°μ νμ¬ λ―ΈλΆμ΄ κ°λ₯νλλ‘ νλ€.
selu
: 1.6732, : 1.0507
ν¨μ μ΄λ¦: selu_activate, selu_gradient
μ λ ₯:
activate ν¨μλ floatν xκ° νλλ₯Ό μ λ ₯
gradient ν¨μλ floatν xκ° νλλ₯Ό μ λ ₯
λμ:
selu_activate ν¨μλ μ λ ₯κ° xμ λν΄ SELU(Scaled Exponential Linear Units) ν¨μλ₯Ό μ μ©νμ¬ κ²°κ³Όκ°μ λ°ννλ€.
selu_gradient ν¨μλ μ λ ₯κ° xμ λν΄ SELU ν¨μμ λν¨μλ₯Ό κ³μ°νμ¬ κ²°κ³Όκ°μ λ°ννλ€.
μ€λͺ :
SELU ν¨μλ deep neural network νμ΅ μ activation functionμΌλ‘ μ¬μ©λλ ν¨μ μ€ νλμ΄λ€. μ λ ₯κ° xκ° 0λ³΄λ€ μμ κ²½μ°, μ§μν¨μλ₯Ό μ μ©νμ¬ μΆλ ₯κ°μ΄ μμμμμμ λΆλλ½κ² λ³νλλ‘ νλ€. λ°λΌμ μ λ ₯κ°μ λΆν¬κ° νκ· 0, λΆμ° 1λ‘ μ κ·νλλ ν¨κ³Όλ₯Ό κ°κ² λλ€. μ΄λ vanishing gradient λ¬Έμ λ₯Ό ν΄κ²°νλ λ° λμμ΄ λλ€.
selu_activate ν¨μλ μ λ ₯κ° xκ° 0λ³΄λ€ μμ κ²½μ°, μ§μν¨μλ₯Ό μ μ©νλ κ³Όμ μμ μ»΄ν¨ν°μμ νν κ°λ₯ν λ²μλ₯Ό λ²μ΄λκ² λλ―λ‘ 1.0507κ³Ό 1.6732λΌλ μμκ°μ μ¬μ©νμ¬ κ³μ°νλ€.
selu_gradient ν¨μλ μ λ ₯κ° xκ° 0λ³΄λ€ μμ κ²½μ°, μ λ ₯κ° xμ λν λν¨μ κ³μ° μ μμκ° 1.0507κ³Ό 1.6732λ₯Ό μ¬μ©νλ€.
lecun normal
relie
ν¨μ μ΄λ¦: relie_activate, relie_gradient
μ λ ₯:
x (νμ±ν ν¨μμ μ λ ₯ κ°)
λμ:
relie_activate: xκ° 0λ³΄λ€ ν¬λ©΄ xλ₯Ό λ°ννκ³ , 0λ³΄λ€ μκ±°λ κ°μΌλ©΄ 0.01*xλ₯Ό λ°ννλ€. μ΄ ν¨μλ ReLU(Rectified Linear Unit) ν¨μμ λ³νμΌλ‘, μ λ ₯κ°μ΄ 0 μ΄νμΌ λ μ½κ°μ κ°μ κ°μ§κ² λμ΄ μ£½μ λ΄λ°(dead neuron) λ¬Έμ λ₯Ό ν΄κ²°νλ λ° λμμ΄ λλ€.
relie_gradient: xκ° 0λ³΄λ€ ν¬λ©΄ 1μ λ°ννκ³ , 0λ³΄λ€ μκ±°λ κ°μΌλ©΄ 0.01μ λ°ννλ€. ReLU ν¨μμ λ§μ°¬κ°μ§λ‘ xκ° 0 μ΄νμ΄λ©΄ κΈ°μΈκΈ°κ° 0μ΄ λμ΄ μμ ν(Backpropagation) κ³Όμ μμ λ΄λ°μ΄ νμ΅λμ§ μλ λ¬Έμ λ₯Ό ν΄κ²°νκΈ° μν΄ μ¬μ©λλ€.
μ€λͺ :
relie_activate ν¨μλ μ λ ₯κ° xλ₯Ό λ°μμ ReLU ν¨μμ λ³νλ ννλ‘ λ°ννλ€.
μ λ ₯κ°μ΄ 0λ³΄λ€ μμ κ²½μ°, xκ°μ 0.01μ κ³±ν κ°μ λ°ννλ―λ‘, ReLU ν¨μμ λ¬λ¦¬ 0 μ΄νμ κ°μ κ°μ§ μ μλ€.
relie_gradient ν¨μλ μ λ ₯κ° xλ₯Ό λ°μμ ReLU ν¨μμ λ³νλ ννμ λ―ΈλΆκ°μ λ°ννλ€. μ λ ₯κ°μ΄ 0λ³΄λ€ μκ±°λ κ°μΌλ©΄ 0.01μ, 0λ³΄λ€ ν¬λ©΄ 1μ λ°ννλ―λ‘, ReLU ν¨μμ λ¬λ¦¬ 0 μ΄νμ κ°μμλ λ΄λ°μ΄ νμ΅λ μ μλλ‘ λμμ€λ€.
ramp
ν¨μ μ΄λ¦: ramp_activate, ramp_gradient
μ λ ₯:
x (νμ±ν ν¨μμ μ λ ₯ κ°)
λμ:
ramp_activate ν¨μλ μ λ ₯κ° xκ° 0λ³΄λ€ ν¬λ©΄ xλ₯Ό λ°ννκ³ , 0 μ΄νμ΄λ©΄ 0.1xλ₯Ό λ°νν©λλ€.
ramp_gradient ν¨μλ μ λ ₯κ° xκ° 0λ³΄λ€ ν¬λ©΄ 1μ λ°ννκ³ , 0 μ΄νμ΄λ©΄ 0.1μ λ°νν©λλ€.
μ€λͺ :
ramp_activate ν¨μλ Rectified Linear Unit (ReLU) ν¨μμ μ μ¬νμ§λ§, μ λ ₯κ°μ΄ 0 μ΄νμΌ λ 0.1xλ₯Ό λ°ννλ―λ‘ κΈ°μΈκΈ°κ° 0μ΄ λλ λΆλΆμ΄ λΆλλ½κ² μ°κ²°λ©λλ€.
ramp_gradient ν¨μλ ramp_activate ν¨μμ λ―ΈλΆκ°μ κ³μ°νμ¬ λ°νν©λλ€.
leaky relu
ν¨μ μ΄λ¦: leaky_activate, leaky_gradient
μ λ ₯:
x (νμ±ν ν¨μμ μ λ ₯ κ°)
λμ:
leaky_relu ν¨μμ νμ±ν κ°μ κ³μ°νκ±°λ κ·ΈλλμΈνΈ κ°μ κ³μ°νλ ν¨μμ λλ€.
leaky_relu νμ±ν ν¨μλ ReLU ν¨μμ λ³ν λ²μ μ λλ€.
xκ° μμμΈ κ²½μ° xλ₯Ό λ°ννκ³ , μμμΈ κ²½μ° 0.1*xλ₯Ό λ°νν©λλ€.
μ΄ ν¨μλ μμ μμμμλ μμ κΈ°μΈκΈ°λ₯Ό κ°μ§κΈ° λλ¬Έμ, ReLU ν¨μμλ λ¬λ¦¬ 0μ΄ μλ κ°μ κ°μ§λ μ λ ₯μ λν΄μλ κ·ΈλλμΈνΈλ₯Ό κ³μ°ν μ μμ΅λλ€.
μ€λͺ :
leaky_activate ν¨μλ μ£Όμ΄μ§ x κ°μ λν΄ leaky_relu νμ±ν κ°μ κ³μ°νκ³ , leaky_gradient ν¨μλ μ£Όμ΄μ§ x κ°μ λν΄ leaky_relu νμ±ν ν¨μμ κ·ΈλλμΈνΈ κ°μ κ³μ°ν©λλ€.
leaky_reluλ μ λ ₯κ° xκ° μμμΈ κ²½μ°, xλ₯Ό κ·Έλλ‘ λ°ννκ³ μμμΈ κ²½μ° 0.1xλ₯Ό λ°ννλ ν¨μμ λλ€.
λ°λΌμ leaky_activate ν¨μλ xκ° μμμΈ κ²½μ° xλ₯Ό λ°ννκ³ , μμμΈ κ²½μ° 0.1xλ₯Ό λ°νν©λλ€.
leaky_gradient ν¨μλ μ λ ₯ κ° xκ° μμμΈ κ²½μ° 1μ λ°ννκ³ , μμμΈ κ²½μ° 0.1μ λ°νν©λλ€.
μ΄ ν¨μλ xκ° μμμΌ λλ ReLU ν¨μμ κ·ΈλλμΈνΈμ κ°κ³ , xκ° μμμΌ λλ 0.1μ κ³ μ κ·ΈλλμΈνΈ κ°μ κ°μ΅λλ€.
tanh
ν¨μ μ΄λ¦: tanh_activate, tanh_gradient
μ λ ₯:
x (νμ±ν ν¨μμ μ λ ₯ κ°)
λμ:
tanh_activate ν¨μλ μ λ ₯λ xκ°μ λν΄ hyperbolic tangent κ°μ κ³μ°νμ¬ λ°νν¨
tanh_gradient ν¨μλ μ λ ₯λ xκ°μ λν΄ hyperbolic tangent ν¨μμ λν¨μ κ°μ κ³μ°νμ¬ λ°νν¨
μ€λͺ :
tanh ν¨μλ μ λ ₯λ κ°μ -1κ³Ό 1 μ¬μ΄μ κ°μΌλ‘ λ³νν΄μ£Όλ ν¨μλ‘, κΈ°μΈκΈ° μμ€ λ¬Έμ λ₯Ό μννκΈ° μν΄ μ¬μ©λ μ μμ
tanh_activate ν¨μλ μ λ ₯λ xκ°μ λν΄ tanh ν¨μλ₯Ό μ μ©ν κ°μ λ°νν¨
tanh_gradient ν¨μλ μ λ ₯λ xκ°μ λν΄ tanh ν¨μμ λν¨μμΈ 1 - tanh^2(x)λ₯Ό κ³μ°νμ¬ λ°νν¨. μ΄ κ°μ μ λ ₯κ° xκ° 0μ κ°κΉμΈμλ‘ 1μ κ°κΉμμ§κ³ , μ λ ₯κ° xκ° λ¨Ό κ²½μ° 0μ κ°κΉμμ§λ νΉμ§μ κ°μ§.
plse
ν¨μ μ΄λ¦: plse_activate, plse_gradient
μ λ ₯:
x (νμ±ν ν¨μμ μ λ ₯ κ°)
λμ:
plse_activate ν¨μ: μ λ ₯ κ° xμ λν΄, xκ° -4 μ΄νμΈ κ²½μ° 0.01*(x+4) κ°μ, xκ° 4 μ΄μμΈ κ²½μ° 0.01*(x-4)+1 κ°μ, κ·Έ μΈμ κ²½μ° 0.125*x+0.5 κ°μ λ°ννλ€.
plse_gradient ν¨μ: μ λ ₯ κ° xμ λν΄, xκ° 0λ³΄λ€ μκ±°λ 1λ³΄λ€ ν° κ²½μ° 0.01 κ°μ, κ·Έ μΈμ κ²½μ° 0.125 κ°μ λ°ννλ€.
μ€λͺ :
plse_activate ν¨μλ "piecewise linear squashing function"μ μ½μλ‘, μ λ ₯ κ°μ -4μ 4λ₯Ό κΈ°μ€μΌλ‘ piecewise linearνκ² λ³ννμ¬ λ°ννλ ν¨μμ΄λ€. μ΄ ν¨μλ λΉμ ν ν¨μ μ€ νλλ‘, sigmoid ν¨μμ μ μ¬ν ννλ₯Ό κ°μ§λ©° μ λ ₯ κ°μ΄ ν¬κ±°λ μμμλ‘ ννν κΈ°μΈκΈ°λ₯Ό κ°μ§λ€.
plse_gradient ν¨μλ plse_activate ν¨μμ λ―ΈλΆ κ°μ λ°ννλ ν¨μμ΄λ€. μ λ ₯ κ° xκ° 0λ³΄λ€ μκ±°λ 1λ³΄λ€ ν¬λ©΄ 0.01 κ°μ, κ·Έ μΈμ κ²½μ° 0.125 κ°μ λ°ννλλ°, μ΄λ plse_activate ν¨μμ κΈ°μΈκΈ°λ₯Ό λνλ΄λ κ°μΌλ‘ μ¬μ©λλ€.
stair
ν¨μ μ΄λ¦: stair_activate, stair_gradient
μ λ ₯:
x (νμ±ν ν¨μμ μ λ ₯ κ°)
λμ:
stair_activate ν¨μ: μ λ ₯λ x κ°μ΄ μμ μ μμΌ λ, x/2 κ°μ λ°ννκ³ , μμ μ μμΌ λ, (x - n) + floor(x/2.) κ°μ λ°νν©λλ€. μ¬κΈ°μ nμ xμ λ°λ₯κ°(floor)μ λλ€.
stair_gradient ν¨μ λμ: μ λ ₯λ x κ°μ΄ μ μμΌ λ, 0μ λ°ννκ³ , μλλ©΄ 1μ λ°νν©λλ€.
μ€λͺ :
stair_activate ν¨μλ κ³λ¨ ν¨μ(stair function)λ₯Ό ꡬνν κ²μ λλ€.
κ³λ¨ ν¨μλ μ λ ₯κ°μ λ°λΌ μΆλ ₯κ°μ΄ μ΄μ°μ μΌλ‘ λ³ννλ ν¨μλ‘, μ λ ₯κ°μ΄ μ μμΌ λλ§ 0 λλ 1μ λ°νν©λλ€.
stair_activate ν¨μλ μ΄λ¬ν κ³λ¨ ν¨μλ₯Ό νμ±ν ν¨μλ‘ μ¬μ©ν μ μμ΅λλ€.
stair_gradient ν¨μλ μ λ ₯κ°μ΄ μ μμΌ λλ 0μ λ°ννκ³ , μ μκ° μλλ©΄ 1μ λ°ννμ¬, μμ ν(backpropagation)μμ κ³λ¨ ν¨μμ λ―ΈλΆκ°μ κ³μ°ν©λλ€.
hardtan
ν¨μ μ΄λ¦: hardtan_activate, hardtan_gradient
μ λ ₯:
x (νμ±ν ν¨μμ μ λ ₯ κ°)
λμ:
hardtan_activate: xκ° -1λ³΄λ€ μμΌλ©΄ -1, 1λ³΄λ€ ν¬λ©΄ 1μ λ°ννκ³ , κ·Έ μΈμ κ²½μ°λ xλ₯Ό λ°ννλ€.
hardtan_gradient: xκ° -1κ³Ό 1 μ¬μ΄μ μμΌλ©΄ 1μ λ°ννκ³ , κ·Έ μΈμ κ²½μ°λ 0μ λ°ννλ€.
μ€λͺ :
hard tanh ν¨μλ tanh ν¨μλ₯Ό κ°λ¨νκ² λ³νν ν¨μλ‘, xκ° -1κ³Ό 1 μ¬μ΄μΌ λλ μ λ ₯κ° κ·Έλλ‘ λ°ννκ³ , κ·Έ μΈμ κ²½μ°μλ -1 λλ 1μ λ°ννλ ν¨μμ΄λ€.
hardtan_activate ν¨μμμλ xκ° -1λ³΄λ€ μμΌλ©΄ -1, 1λ³΄λ€ ν¬λ©΄ 1μ λ°ννκ³ , κ·Έ μΈμ κ²½μ°λ xλ₯Ό λ°ννλ€.
hardtan_gradient ν¨μμμλ xκ° -1κ³Ό 1 μ¬μ΄μ μμΌλ©΄ 1μ λ°ννκ³ , κ·Έ μΈμ κ²½μ°λ 0μ λ°ννλ€. μ΄λ xκ° -1κ³Ό 1 μ¬μ΄μ μμ λλ λ―ΈλΆκ°μ΄ 1μ΄ λλ―λ‘ μμ ν κ³Όμ μμ κΈ°μΈκΈ°κ° μ λ¬λλλ‘ νκΈ° μν΄μμ΄λ€.
lhtan
ν¨μ μ΄λ¦: lhtan_activate, lhtan_gradient
μ λ ₯:
x (νμ±ν ν¨μμ μ λ ₯ κ°)
λμ:
lhtan_activate: μ λ ₯κ° xμ λν΄ λ€μ 쑰건μ λ°λΌ μΆλ ₯κ°μ κ³μ°νλ€.
xκ° 0λ³΄λ€ μμΌλ©΄ 0.001*xλ₯Ό μΆλ ₯νλ€.
xκ° 1λ³΄λ€ ν¬λ©΄ 0.001*(x-1) + 1μ μΆλ ₯νλ€.
κ·Έ μΈμ κ²½μ°μλ xλ₯Ό μΆλ ₯νλ€.
lhtan_gradient: μ λ ₯κ° xμ λν΄ λ€μ 쑰건μ λ°λΌ μΆλ ₯κ°μ κ³μ°νλ€.
0 < x < 1μ΄λ©΄ 1μ μΆλ ₯νλ€.
κ·Έ μΈμ κ²½μ°μλ 0.001μ μΆλ ₯νλ€.
μ€λͺ :
lhtan_activate ν¨μλ "linearly hard-tanh activation" ν¨μμ΄λ©°, μ λ ₯κ° xκ° 0λ³΄λ€ μκ±°λ 1λ³΄λ€ ν° κ²½μ°μλ κ·Έ κ°μ μΌμ λΉμ¨λ‘ μ€μ΄κ±°λ λλ¦¬κ³ , κ·Έ μΈμ κ²½μ°μλ xκ°μ κ·Έλλ‘ μΆλ ₯νλ ν¨μμ΄λ€.
lhtan_gradient ν¨μλ lhtan_activate ν¨μμ λ―ΈλΆκ°μ κ³μ°νλ ν¨μλ‘, xκ° 0κ³Ό 1 μ¬μ΄μΈ κ²½μ°μλ λ―ΈλΆκ°μ΄ 1μ΄ λκ³ , κ·Έ μΈμ κ²½μ°μλ 0.001μ΄ λλ€.
Reference
Last updated
Was this helpful?