We hebben allemaal te maken gehad met activatiefuncties bij het werken met neurale netwerken. - Sigmoid - Tanh - ReLu & Leaky ReLu - Gelu Heb je je ooit afgevraagd waarom ze zo belangrijk zijn❓🤔 Laat me het uitleggen... 👇