Todos nós lidamos com funções de ativação ao trabalhar com redes neurais. - Sigmoid - Tanh - ReLu & Leaky ReLu - Gelu Já se perguntou por que elas são tão importantes❓🤔 Deixe-me explicar... 👇