A partir de duas camadas intermediárias, já é possível aproximar funções não lineares, desde que sejam utilizados neurônios suficientes. Existem vários tipos de funções não lineares, das quais podemos destacar as funções erro, custo, sigmoide, tangente hiperbólica e Rectified Linear Unit (ReLU). Considerando as funções sigmoide, tangente hiperbólica e ReLU, analise as características descritas abaixo e as relacione adequadamente aos termos aos quais se referem.



1 – Sigmoide.

2 – Tangente hiperbólica.

3 – ReLU.



I – Função normalmente utilizada na última layer (output layer).

II – Pode ser vista como uma versão deslocada de uma outra função (centrada em zero).

III – Essa talvez seja a função de ativação mais utilizada nos hidden layers.


Assinale a alternativa que correlaciona adequadamente os dois grupos:

a.
1-III; 2-II; 3-I.

b.
1-II; 2-I; 3-III.

c.
1-I; 2-II; 3-III.

d.
1-I; 2-III; 3-II.

e.
1-III; 2-I; 3-II.
Please enter comments
Please enter your name.
Please enter the correct email address.
You must agree before submitting.

Lista de comentários


More Questions From This User See All
De uma forma geral, podemos dizer que as sucessivas operações de convolução nos sucessivos layers da rede vão extraindo as características da imagem em um nível cada vez mais complexo. É comum a realização de algumas operações em alguns desses layers, denominadas: convolução, padding e stride. Assinale a alternativa correta que demonstra a operação padding. a. A operação de convolução causa uma redução da dimensionalidade nas matrizes de saída e a técnica de padding é utilizada para compensar a redução na dimensionalidade por meio da adição de zeros nas "bordas" da matriz de entrada. b. A operação de convolução causa um aumento da dimensionalidade nas matrizes de saída e a técnica de padding atua para compensar o aumento na dimensionalidade por meio da adição de zeros nas "bordas" da matriz de saída. c. A operação de convolução causa uma redução da dimensionalidade nas matrizes de saída e a técnica de padding atua para compensar a redução na dimensionalidade por meio da adição de uns (1s) nas "bordas" da matriz de saída. d. A operação de convolução causa uma redução da dimensionalidade nas matrizes de entrada e a técnica de padding atua para compensar a redução na dimensionalidade por meio da adição de zeros nas "bordas" da matriz de entrada. e. A operação de convolução causa uma redução da dimensionalidade nas matrizes de entrada e a técnica de padding atua para compensar a redução na dimensionalidade por meio da adição de uns (1s) nas "bordas" da matriz de entrada.
Responda

Helpful Social

Copyright © 2025 ELIBRARY.TIPS - All rights reserved.