A partir de duas camadas intermediárias, já é possível aproximar funções não lineares, desde que sejam utilizados neurônios suficientes. Existem vários tipos de funções não lineares, das quais podemos destacar as funções erro, custo, sigmoide, tangente hiperbólica e Rectified Linear Unit (ReLU). Considerando as funções sigmoide, tangente hiperbólica e ReLU, analise as características descritas abaixo e as relacione adequadamente aos termos aos quais se referem.



1 – Sigmoide.

2 – Tangente hiperbólica.

3 – ReLU.



I – Função normalmente utilizada na última layer (output layer).

II – Pode ser vista como uma versão deslocada de uma outra função (centrada em zero).

III – Essa talvez seja a função de ativação mais utilizada nos hidden layers.


Assinale a alternativa que correlaciona adequadamente os dois grupos:

a.
1-III; 2-II; 3-I.

b.
1-II; 2-I; 3-III.

c.
1-I; 2-II; 3-III.

d.
1-I; 2-III; 3-II.

e.
1-III; 2-I; 3-II.
Please enter comments
Please enter your name.
Please enter the correct email address.
You must agree before submitting.

Lista de comentários


Helpful Social

Copyright © 2024 ELIBRARY.TIPS - All rights reserved.