Princípios importantes
- Novas pesquisas sugerem que pode não haver como controlar a inteligência artificial superinteligente.
- Um artigo de jornal argumenta que controlar a IA exigiria uma tecnologia muito mais avançada do que possuímos atualmente.
- Alguns especialistas dizem que a IA verdadeiramente inteligente pode estar aqui mais cedo do que pensamos.
Se os humanos algum dia desenvolverem inteligência artificial superinteligente, pode não haver como controlá-la, dizem os cientistas.
AI há muito tempo é apontada como uma cura para todos os problemas da humanidade ou um apocalipse no estilo Terminator. Até agora, porém, a IA não chegou nem perto da inteligência de nível humano. Mas manter uma rédea na IA avançada pode ser um problema muito complexo para os humanos se for desenvolvido, de acordo com um artigo recente publicado no Journal of Artificial Intelligence Research.
"Uma máquina superinteligente que controla o mundo parece ficção científica", disse Manuel Cebrian, um dos coautores do artigo, em um comunicado à imprensa.
"Mas já existem máquinas que executam certas tarefas importantes de forma independente, sem que os programadores compreendam completamente como as aprenderam. Portanto, surge a questão de saber se isso pode em algum momento se tornar incontrolável e perigoso para a humanidade."
Em breve em um supercomputador perto de você
O jornal argumenta que controlar a IA exigiria uma tecnologia muito mais avançada do que possuímos atualmente.
Em seu estudo, a equipe concebeu um algoritmo de contenção teórica que garante que uma IA superinteligente não possa prejudicar as pessoas em nenhuma circunstância, simulando o comportamento da IA primeiro e interrompendo-a se considerada prejudicial. Mas os autores descobriram que tal algoritmo não pode ser construído.
"Se você quebrar o problema em regras básicas da ciência da computação teórica, acontece que um algoritmo que comandaria uma IA para não destruir o mundo poderia inadvertidamente interromper suas próprias operações." Iyad Rahwan, diretor do Centro para Humanos e Máquinas do Instituto Max Planck para Desenvolvimento Humano na Alemanha, disse no comunicado à imprensa.
"Se isso acontecesse, você não saberia se o algoritmo de contenção ainda está analisando a ameaça ou se parou para conter a IA prejudicial. Na verdade, isso torna o algoritmo de contenção inutilizável."
A IA verdadeiramente inteligente pode estar aqui mais cedo do que pensamos, argumenta Michalis Vazirgiannis, professor de ciência da computação na École Polytechnique, na França. "A IA é um artefato humano, mas está rapidamente se tornando uma entidade autônoma", disse ele em um e-mail para a Lifewire.
"O ponto crítico será se/quando a singularidade ocorrer (ou seja, quando os agentes de IA terão consciência como uma entidade) e, portanto, eles reivindicarão independência, autocontrole e eventual domínio."
A Singularidade Está Chegando
Vazirgiannis não está sozinho na previsão da chegada iminente da super IA. Os verdadeiros crentes na ameaça da IA gostam de falar sobre a "singularidade", que Vazirgiannis explica ser o ponto de que a IA substituirá a inteligência humana e "que os algoritmos de IA potencialmente perceberão sua existência e começarão a se comportar de forma egoísta e cooperativa".
De acordo com Ray Kurzweil, diretor de engenharia do Google, a singularidade chegará antes de meados do século XXI. "2029 é a data consistente que eu previ para quando uma IA passará por um teste de Turing válido e, portanto, atingirá níveis humanos de inteligência", disse Kurzweil ao Futurism.
Se não podemos limpar nossa própria casa, que código devemos pedir à IA para seguir?
"Eu estabeleci a data de 2045 para a 'Singularidade', que é quando multiplicaremos nossa inteligência efetiva em um bilhão de vezes, fundindo-se com a inteligência que criamos."
Mas nem todos os especialistas em IA pensam que as máquinas inteligentes são uma ameaça. A IA que está em desenvolvimento tem maior probabilidade de ser útil para o desenvolvimento de medicamentos e não está mostrando nenhuma inteligência real, disse o consultor de IA Emmanuel Maggiori em uma entrevista por e-mail. "Há um grande hype em torno da IA, o que faz parecer que é realmente revolucionário", acrescentou. "Os sistemas atuais de IA não são tão precisos quanto divulgados e cometem erros que um ser humano nunca cometeria."
Assuma o controle da IA, agora
Regular a IA para que não fuja do nosso controle pode ser difícil, diz Vazirgiannis. As empresas, e não os governos, controlam os recursos que alimentam a IA. "Mesmo os algoritmos, em si, geralmente são produzidos e implantados nos laboratórios de pesquisa dessas entidades grandes e poderosas, geralmente multinacionais", disse ele.
"É evidente, portanto, que os governos dos estados têm cada vez menos controle sobre os recursos necessários para controlar a IA."
Alguns especialistas dizem que, para controlar a IA superinteligente, os humanos precisarão gerenciar recursos de computação e energia elétrica. "Filmes de ficção científica como Matrix fazem profecias sobre um futuro distópico onde os humanos são usados pela IA como fontes de bioenergia", disse Vazirgiannis.
"Mesmo com impossibilidades remotas, a humanidade deve certificar-se de que há controle suficiente sobre os recursos de computação (ou seja, clusters de computadores, GPUs, supercomputadores, redes/comunicações) e, claro, as usinas de energia que fornecem eletricidade que é absolutamente prejudicial à função da IA."
O problema de controlar a IA é que os pesquisadores nem sempre entendem como esses sistemas tomam suas decisões, disse Michael Berthold, cofundador e CEO da empresa de software de ciência de dados KNIME, em uma entrevista por e-mail. "Se não fizermos isso, como podemos 'controlar'?"
Ele acrescentou: "Nós não entendemos quando uma decisão totalmente diferente é tomada com base, para nós, em entradas irrelevantes."
A única maneira de controlar o risco de usar a IA é garantir que ela seja usada apenas quando esse risco for gerenciável, disse Berthold. "Em outras palavras, dois exemplos extremos: não coloque a IA no comando de sua usina nuclear, onde um pequeno erro pode ter efeitos colaterais catastróficos", acrescentou.
"Por outro lado, a IA prevê que se a temperatura do seu quarto deve ser ajustada para cima ou para baixo um pouco pode valer a pena o pequeno risco para o benefício do conforto de vida."
Se não podemos controlar a IA, é melhor ensiná-la boas maneiras, disse o ex-engenheiro de computação da NASA Peter Scott em uma entrevista por e-mail. "Não podemos, em última análise, garantir a controlabilidade da IA mais do que podemos garantir a de nossos filhos", disse ele.
"Nós os criamos bem e esperamos o melhor; até agora, eles não destruíram o mundo. Para criá-los bem, precisamos de uma melhor compreensão da ética; se não podemos limpar nossa própria casa, o que código que devemos pedir à IA para seguir?"
Mas nem toda esperança está perdida para a raça humana, diz o pesquisador de IA Yonatan Wexler, vice-presidente executivo de P&D da OrCam. "Embora os avanços sejam realmente impressionantes, minha crença pessoal é que a inteligência humana não deve ser subestimada", disse ele em uma entrevista por e-mail. "Nós, como espécie, criamos coisas incríveis, incluindo a própria IA."
A busca por uma IA cada vez mais inteligente continua. Mas talvez seja melhor considerar como controlamos nossas criações antes que seja tarde demais.