A partir de duas camadas intermediárias, já é possível aproximar funções não lineares, desde que sejam utilizados neurônios suficientes. Existem vários tipos de funções não lineares, das quais podemos destacar as funções erro, custo, sigmoide, tangente hiperbólica e Rectified Linear Unit (ReLU). Considerando as funções sigmoide, tangente hiperbólica e ReLU, analise as características descritas abaixo e as relacione adequadamente aos termos aos quais se referem.
1 – Sigmoide.
2 – Tangente hiperbólica.
3 – ReLU.
I – Função normalmente utilizada na última layer (output layer).
II – Pode ser vista como uma versão deslocada de uma outra função (centrada em zero).
III – Essa talvez seja a função de ativação mais utilizada nos hidden layers.
Assinale a alternativa que correlaciona adequadamente os dois grupos:
Lista de comentários
Resposta: A alternativa correta é: 1-I; 2-II; 3-III.
Conferido no AVA.