Wir haben alle mit Aktivierungsfunktionen gearbeitet, während wir an neuronalen Netzen gearbeitet haben. - Sigmoid - Tanh - ReLu & Leaky ReLu - Gelu Hast du dich jemals gefragt, warum sie so wichtig sind❓🤔 Lass mich erklären... 👇