Todos hemos lidiado con funciones de activación mientras trabajábamos con redes neuronales. -Sigmoide -Tanh - ReLu y ReLu con fugas - Gelu ¿Alguna vez te has preguntado por qué son tan importantes❓🤔? Déjame explicarte... 👇