Vi har alla hanterat aktiveringsfunktioner när vi arbetar med neurala nätverk. -Sigmoid -Tanh - ReLu och läckande ReLu - Spår av Gelu Har du någonsin undrat varför de är så viktiga❓🤔 Låt mig förklara... 👇