PERGUNTA 2 1. A partir de duas camadas intermediárias, já é possível aproximar funções não lineares, desde que sejam utilizados neurônios suficientes. Existem vários tipos de funções não lineares, das quais podemos destacar as funções erro, custo, sigmoide, tangente hiperbólica e Rectified Linear Unit (ReLU). Considerando as funções sigmoide, tangente hiperbólica e ReLU, analise as características descritas abaixo e as relacione adequadamente aos termos aos quais se referem.
1 – Sigmoide. 2 – Tangente hiperbólica. 3 – ReLU.
I – Função normalmente utilizada na última layer (output layer). II – Pode ser vista como uma versão deslocada de uma outra função (centrada em zero). III – Essa talvez seja a função de ativação mais utilizada nos hidden layers.
Assinale a alternativa que correlaciona adequadamente os dois grupos:
Lista de comentários
Resposta: c. 1-I; 2-II; 3-III.
Explicação: Corrigido pelo AVA
Resposta:
1-I; 2-II; 3=III.
Explicação: