01/10/2012
-
05h00
Computadores vão se equiparar à mente humana no ano 2029
SALVADOR NOGUEIRA
COLABORAÇÃO PARA A FOLHA
COLABORAÇÃO PARA A FOLHA
Em coisa de 50 anos, a humanidade será completamente diferente do que
sempre foi. Máquinas menores que a espessura de um fio de cabelo
ajudarão a manter a saúde no interior do corpo e participarão da
atividade cerebral, tornando mundos virtuais tão realistas para os
sentidos quanto o mundo verdadeiro. E a imortalidade estará ao nosso
alcance.
Maluquice? Pode ser. Mas o maior proponente dessas ideias certamente não
é maluco. Um dos inventores mais brilhantes das últimas décadas, o
americano Ray Kurzweil é um importante impulsor da inteligência
artificial há mais de 30 anos. Entre suas criações estão sistemas de
reconhecimento de caracteres e de voz.
Aos que torcem o nariz para a sua futurologia, Kurzweil lembra que,
usando o mesmo raciocínio, ele foi capaz de prever a explosão mundial da
internet quando ela se resumia a 2.000 cientistas usuários, na década
de 1980. Ele prevê alguns avanços notáveis que podem servir de balisas
para o seu poder de previsão. O inventor sugere, por exemplo, que um
computador poderá exibir comportamento que imite de forma indistinguível
um ser humano em 2029.
Confira a seguir trechos da entrevista que ele concedeu à Folha durante sua última passagem por São Paulo, durante o evento de gestão Fórum HSM.
17. mar. 2012 - Kaushik Roy/India Today Group/Getty Images | ||
O inventor norte-americano Ray Kurzweil se apresenta emevento emNova Déli, Índia |
Folha - O sr. fala do aumento exponencial da tecnologia, mas há quem
já fique irritado de ter de comprar um iPhone novo todo ano. O próprio
perfil de consumo não vai frear o ritmo de avanço tecnológico?
Ray Kurzweil - Isso não vai acontecer, porque a tecnologia está evoluindo para se adaptar ao ser humano. Quando eu era jovem, computadores eram só para engenheiros e técnicos. Hoje, a interface está cada vez mais simples e intuitiva. Hoje, as pessoas conhecem faixas muito estreitas do conhecimento, mas temos nossas ferramentas computadorizadas para encontrar as informações de que precisamos. Então, já estamos expandindo nossas mentes por essas ferramentas. No fim das contas, elas vão parar dentro do nosso corpo e do nosso cérebro.
Ray Kurzweil - Isso não vai acontecer, porque a tecnologia está evoluindo para se adaptar ao ser humano. Quando eu era jovem, computadores eram só para engenheiros e técnicos. Hoje, a interface está cada vez mais simples e intuitiva. Hoje, as pessoas conhecem faixas muito estreitas do conhecimento, mas temos nossas ferramentas computadorizadas para encontrar as informações de que precisamos. Então, já estamos expandindo nossas mentes por essas ferramentas. No fim das contas, elas vão parar dentro do nosso corpo e do nosso cérebro.
Como o sr. vê o percurso futuro da tecnologia, uma vez que mesmo
eventos como guerras mundiais ou recessões econômicas fortes parecem ser
incapazes de frear seu avanço? Há um limite?
Os limites definitivos, que vêm das leis da física, na verdade não são muito limitadores. Podemos expandir nossa inteligência trilhões de vezes antes de alcançar esse limiar. Agora, o que pode parar tudo é um derretimento existencial da civilização. Isso não é impossível. Nós temos armas atômicas em número suficiente para fazer isso.
Os limites definitivos, que vêm das leis da física, na verdade não são muito limitadores. Podemos expandir nossa inteligência trilhões de vezes antes de alcançar esse limiar. Agora, o que pode parar tudo é um derretimento existencial da civilização. Isso não é impossível. Nós temos armas atômicas em número suficiente para fazer isso.
E quanto ao risco representado por novas tecnologias?
Eu escrevi muito sobre o risco existencial vindo da genética, da nanotecnologia e da robótica. Eu não acho que a solução certa seria banir essas tecnologias. Primeiro, estaríamos nos privando dos benefícios. Ainda há muito sofrimento no mundo. Não acho que queremos dizer aos pacientes de câncer, "bem, estamos muito próximos de reprogramar a biologia e eliminar o câncer, mas vamos cancelar tudo isso por causa do risco de bioterrorismo".
Eu escrevi muito sobre o risco existencial vindo da genética, da nanotecnologia e da robótica. Eu não acho que a solução certa seria banir essas tecnologias. Primeiro, estaríamos nos privando dos benefícios. Ainda há muito sofrimento no mundo. Não acho que queremos dizer aos pacientes de câncer, "bem, estamos muito próximos de reprogramar a biologia e eliminar o câncer, mas vamos cancelar tudo isso por causa do risco de bioterrorismo".
Em segundo lugar, seria preciso um sistema totalitário para impor um banimento em biotecnologia.
Mais importante, contudo, isso não funcionaria. Só empurraríamos essas
tecnologias para o submundo, onde as únicas pessoas que teriam acesso a
elas seriam os criminosos.
Cientistas responsáveis, com quem contaríamos para nos proteger, não teriam acesso às ferramentas para fazer isso.
Cientistas responsáveis, com quem contaríamos para nos proteger, não teriam acesso às ferramentas para fazer isso.
Embora sua visão seja extremamente otimista quanto ao avanço da
medicina, temos um sistema de desenvolvimento e aprovação de novos
medicamentos que consome muitos anos. Isso não impedirá a evolução
acelerada?
Eu acho que há problemas com a regulação. Mas não acho que seja um problema com a FDA [agência que regula remédios nos EUA] e com as agências reguladoras de outros países, e sim com as expectativas públicas e a ideia do juramento de Hipócrates, que eu acho errada. Ele diz: "em primeiro lugar, não faça mal". Se você quer não fazer mal, demita todos os médicos e feche todos os hospitais, porque então você nunca faria mal nenhum. Sempre que você tenta ajudar as pessoas, há uma possibilidade de fazer mal a elas.
Eu acho que há problemas com a regulação. Mas não acho que seja um problema com a FDA [agência que regula remédios nos EUA] e com as agências reguladoras de outros países, e sim com as expectativas públicas e a ideia do juramento de Hipócrates, que eu acho errada. Ele diz: "em primeiro lugar, não faça mal". Se você quer não fazer mal, demita todos os médicos e feche todos os hospitais, porque então você nunca faria mal nenhum. Sempre que você tenta ajudar as pessoas, há uma possibilidade de fazer mal a elas.
Sim, mas a ideia é ser cauteloso...
Não é um jogo de risco zero, você tem de considerar o risco da doença. E isso não recebe igual atenção na regulamentação. Se houver uma pequena chance de prejudicar o paciente, isso vai segurar o processo, mesmo que haja uma chance enorme de ajudar o paciente.
Não é um jogo de risco zero, você tem de considerar o risco da doença. E isso não recebe igual atenção na regulamentação. Se houver uma pequena chance de prejudicar o paciente, isso vai segurar o processo, mesmo que haja uma chance enorme de ajudar o paciente.
O sr. tem defendido que o desenvolvimento de máquinas capazes de
pensar passa por usar o cérebro humano como modelo, e o sr. também fala
de superinteligência, muito superior à do cérebro humano. Entretanto,
temos exemplos de supercapacidades em humanos, como os savants, que têm
memória e habilidades prodigiosas, mas, em compensação, apresentam um
sério deficit em outras áreas da cognição. Será que não há aí uma
barreira intransponível para a superinteligência?
O cérebro humano tem limitações. Faz certas coisas muito bem, e só podemos nos beneficiar aprendendo como funciona e então evitando algumas de suas limitações. Uma delas diz respeito à capacidade. Estimo que haja cerca de 300 milhões de reconhecedores de padrões no neocórtex. É isso que pode caber lá, biologicamente, por causa da arquitetura do crânio.
O cérebro humano tem limitações. Faz certas coisas muito bem, e só podemos nos beneficiar aprendendo como funciona e então evitando algumas de suas limitações. Uma delas diz respeito à capacidade. Estimo que haja cerca de 300 milhões de reconhecedores de padrões no neocórtex. É isso que pode caber lá, biologicamente, por causa da arquitetura do crânio.
Uma vez que possamos criar um córtex artificial que funcione do mesmo
modo, não existe razão pela qual o limitemos em 300 milhões, porque não
teremos essa limitação física. Você pode ir para 1 bilhão, 1 trilhão...
Mas como saber que vai funcionar? Talvez haja uma limitação inerente à
arquitetura do sistema. Não há como saber se ele continuará operando se
você aumentar a escala ou se simplesmente haverá uma sobrecarga.
Você obviamente terá de tentar construir [esse supercérebro] para saber se ele funciona. Até agora funciona bem. Ainda não estamos no nível humano de inteligência. Mas, quando os computadores aprendem a fazer alguma coisa, conseguem fazê-la muito bem, na verdade melhor que os humanos.
Você obviamente terá de tentar construir [esse supercérebro] para saber se ele funciona. Até agora funciona bem. Ainda não estamos no nível humano de inteligência. Mas, quando os computadores aprendem a fazer alguma coisa, conseguem fazê-la muito bem, na verdade melhor que os humanos.
Temos muito caminho a percorrer, mas não acho que estejamos muito longe.
A data que eu sugiro é 2029, quando os computadores estarão no nível
dos humanos.
E quanto à diferença entre inteligência e consciência? O sr. acha que
máquinas serão capazes de fazer esse salto de autopercepção?
Bem, é uma questão filosófica. Algumas pessoas acham que a consciência é pensar sobre pensar; se você pode descrever seu processo de pensamento, isso é consciência. Minha posição é de que algumas teorias a esse respeito soam científicas, mas não são. Não são diferentes da crença religiosa de que há um ser supremo que atribui consciência a certas coisas, como humanos. Minha conclusão: você não pode evitar saltos de fé.
Bem, é uma questão filosófica. Algumas pessoas acham que a consciência é pensar sobre pensar; se você pode descrever seu processo de pensamento, isso é consciência. Minha posição é de que algumas teorias a esse respeito soam científicas, mas não são. Não são diferentes da crença religiosa de que há um ser supremo que atribui consciência a certas coisas, como humanos. Minha conclusão: você não pode evitar saltos de fé.
A aceleração da tecnologia leva, numa expressão que o sr. tomou
emprestado da física, a uma singularidade -uma realidade imprevisível
que não podemos ver agora porque está escondida de nós da mesma forma
que um buraco negro. Queria levar essa metáfora um pouco mais adiante.
Se eu fosse um viajante espacial e passasse perto de uma singularidade,
faria tudo para evitá-la. Nós devemos evitar a singularidade
tecnológica?
É uma ótima pergunta. Eu acho que estamos sendo puxados para ela e não podemos evitá-la. Nós temos inteligência suficiente para falar de como seria cair numa singularidade. Nós não necessariamente perceberíamos que cruzamos o horizonte dos eventos. Acho que é a mesma coisa aqui.
É uma ótima pergunta. Eu acho que estamos sendo puxados para ela e não podemos evitá-la. Nós temos inteligência suficiente para falar de como seria cair numa singularidade. Nós não necessariamente perceberíamos que cruzamos o horizonte dos eventos. Acho que é a mesma coisa aqui.
O mais difícil de encarar é a noção de uma IA (inteligência artificial)
não amigável, que seria mais inteligente que nós e defenderia valores
que não reconhecemos em nosso sistema moral.
Acho que o melhor jeito de nos defendermos disso é enfatizar os valores
que respeitamos em nossa sociedade hoje, valores como democracia,
tolerância, apreciação pelo próximo, liberdade de expressão e por aí
vai.
O mundo do futuro não virá de um único laboratório. Ele emergirá do
mundo de hoje. Se praticarmos esses valores agora, temos a melhor chance
de refleti-lo no mundo do futuro. Não é uma estratégia infalível. Mas
acho que é o melhor que podemos fazer.
Mas como os nossos valores vão ser transferidos às máquinas?
Bem, acho que nossas máquinas estão tremendamente integradas à nossa sociedade. Elas não estão isoladas em algum laboratório. Há 6 bilhões de celulares, 1 bilhão de smartphones, uma criança na África tem mais poder na sua mão que o presidente dos Estados Unidos tinha 15 anos atrás, em termos de acesso ao conhecimento e à informação. Indivíduos, jovens, têm o poder de mudar o mundo. Não é uma abstração. E as máquinas não estão lá fora com sua própria cultura. Nós já somos uma civilização homem-máquina.
Bem, acho que nossas máquinas estão tremendamente integradas à nossa sociedade. Elas não estão isoladas em algum laboratório. Há 6 bilhões de celulares, 1 bilhão de smartphones, uma criança na África tem mais poder na sua mão que o presidente dos Estados Unidos tinha 15 anos atrás, em termos de acesso ao conhecimento e à informação. Indivíduos, jovens, têm o poder de mudar o mundo. Não é uma abstração. E as máquinas não estão lá fora com sua própria cultura. Nós já somos uma civilização homem-máquina.
FONTE: Folha.com/Ciência
Nenhum comentário:
Postar um comentário