A partir de duas camadas intermediárias, já é possível aproximar funções não lineares, desde que sejam utilizados neurônios suficientes. Existem vários tipos de funções não lineares, das quais podemos destacar as funções erro, custo, sigmoide, tangente hiperbólica e Rectified Linear Unit (ReLU). Considerando as funções sigmoide, tangente hiperbólica e ReLU, analise as características descritas abaixo e as relacione adequadamente aos termos aos quais se referem. 1 – Sigmoide. 2 – Tangente hiperbólica. 3 – ReLU. I – Função normalmente utilizada na última layer (output layer). II – Pode ser vista como uma versão deslocada de uma outra função (centrada em zero). III – Essa talvez seja a função de ativação mais utilizada nos hidden layers. Assinale a alternativa que correlaciona adequadamente os dois grupos: a. 1-III; 2-II; 3-I. b. 1-I; 2-II; 3-III. c. 1-III; 2-I; 3-II. d. 1-II; 2-I; 3-III. e. 1-I; 2-III; 3-II.