Leia o texto:
Stephen Hawking, um dos físicos mais brilhantes do mundo, acredita que a inteligência artificial criada pela humanidade é uma grande ameaça. Ela pode ser a última coisa significativa criada pelos humanos, e servir para a ruína da civilização.
O físico em companhia de outros cientistas, como Stuart Russell, Max Tegmark e Frank Wilczek, dizem que os benefícios potenciais desta superinteligência são imensos. Mas não é possível prever o que de mal pode vir quando a tecnologia for mais desenvolvida.
Isso pode levar a desastres como vimos em algumas obras da ficção científica, vide O Exterminador do Futuro e a Skynet, Eu, Robô, Inteligência Artificial, entre muitas outras obras.
Abaixo você confere na íntegra o depoimento do físico, enviado para o jornal The Independent:
“Olhando para o futuro, não há limites fundamentais para o que pode ser alcançado: não há nenhuma lei física impedindo partículas de se organizarem de forma que executem cálculos ainda mais avançados do que os arranjos de partículas em cérebros humanos. Uma transição explosiva é possível, apesar de talvez ser um pouco diferente de um filme: como Irving Good percebeu em 1965, máquinas com inteligência sobre-humana podem repetidamente melhorar o próprio design, ativando o que Vernor Vinge chamou de “singularidade” e o personagem do filme de Johnny Depp chama de “transcendência”.
Alguém pode pensar que tal tecnologia pode ser mais inteligente que mercados financeiros, superar pesquisadores humanos, ficar além da manipulação de líderes humanos e desenvolver armas que nem conseguimos entender. Considerando que o impacto de curto prazo da IA depende de quem a controla, o impacto a longo prazo depende [de] se ela pode ser de alguma forma controlada.
Então, encarando possíveis futuros de benefícios e riscos incalculáveis, os especialistas certamente vão fazer tudo possível para garantir o melhor resultado, certo? Errado. Se uma civilização alienígena superior nos envia uma mensagem “Estamos chegando dentro de algumas décadas”, nós responderíamos apenas “Ok, ligue quando estiverem por aqui – vamos deixar as luzes acesas”? Provavelmente não – mas é mais ou menos isso o que está acontecendo com a inteligência artificial. Apesar de estarmos prestes a encarar o que potencialmente será a melhor ou pior coisa da história da humanidade, pouca pesquisa séria está sendo feita sobre essas questões fora de instituições sem fins lucrativos como o Centro de Estudos de Risco Existencial em Cambridge, o Instituto do Futuro da Humanidade, o Instituto de Pesquisa de Inteligência de Máquina, e o Instituto de Vida Futura. Todos devíamos nos perguntar o que podemos fazer para melhorar as chances de colher os benefícios e evitar os riscos."
(Autor: Flávio Croffi)
Assinale o trecho que resume o tema central do texto, apresentando os lados opostos da controvérsia sobre a IA (Inteligência Artificial).
A
Alguém pode pensar que tal tecnologia pode ser mais inteligente que mercados financeiros, superar pesquisadores humanos [...]
B
[...] dizem que os benefícios potenciais desta superinteligência são imensos. Mas não é possível prever o que de mal pode vir quando a tecnologia for mais desenvolvida.
C
[...] não há nenhuma lei física impedindo partículas de se organizarem de forma que executem cálculos ainda mais avançados do que os arranjos de partículas em cérebros humanos.
D
Se uma civilização alienígena superior nos envia uma mensagem “Estamos chegando dentro de algumas décadas”, nós responderíamos apenas “Ok, ligue quando estiverem por aqui – vamos deixar as luzes acesas”?
Lista de comentários
Alternativa B
GABARITO COMENTADO:
O trecho da alternativa B refere-se ao otimismo dos que aprovam a criação da IA e às dúvidas dos que, como o físico Stephen Hawking, temem os males que ela pode causar no futuro.
DISTRATORES:
O trecho da alternativa A refere-se apenas ao otimismo dos que aprovam a criação da IA. O da alternativa C não indica um posicionamento de aprovação ou reprovação, mas apenas a potencialidade da IA (essa potencialidade e suas consequências será argumento para a reprovação de Hawking). O trecho da alternativa D apresenta um exemplo hipotético de descaso em relação a um risco para a humanidade, que será utilizado na argumentação de Hawking contra a IA, mas, isolado do texto, não formula um posicionamento favorável ou contrário.
HABILIDADE(S):
(EF69LP03) Identificar [...] em reportagens e fotorreportagens o fato ou a temática retratada e a perspectiva de abordagem, [...]
Resposta:a) Modelo de resposta: Stephen Hawking reconhece o potencial benéfico da IA, mas reprova as pesquisas por não serem feitos estudos sérios sobre os riscos que ela pode representar para a humanidade. Assim, sua posição é de preocupação e reprovação.
b) Ele se baseia em hipóteses. Segundo ele, com o aperfeiçoamento da tecnologia, a IA pode se tornar um grande risco para a humanidade, como nos filmes de ficção científica sobre o assunto. A hipótese é de que as máquinas venham a aperfeiçoar seu próprio design, ou seja, sua capacidade de solucionar problemas. As máquinas se tornariam autossuficientes e o ser humano perderia o controle sobre elas.
Explicação:HABILIDADE(S):
(EF89LP04) Identificar e avaliar teses/opiniões/posicionamentos explícitos e implícitos, argumentos e contra-argumentos em textos argumentativos do campo (carta de leitor, comentário, artigo de opinião, resenha crítica etc.), posicionando-se frente à questão controversa de forma sustentada.
(EF89LP14) Analisar, em textos argumentativos e propositivos, os movimentos argumentativos de sustentação, refutação e negociação e os tipos de argumentos, avaliando a força/tipo dos argumentos utilizados.HABILIDADE(S):