Todos hemos tratado con funciones de activación al trabajar con redes neuronales. - Sigmoide - Tanh - ReLu y Leaky ReLu - Gelu ¿Alguna vez te has preguntado por qué son tan importantes❓🤔 Déjame explicarte... 👇