Como a IA poderia monitorar seus filhos perigosos

Índice:

Como a IA poderia monitorar seus filhos perigosos
Como a IA poderia monitorar seus filhos perigosos
Anonim

Princípios importantes

  • Um novo artigo afirma que a inteligência artificial pode determinar quais projetos de pesquisa podem precisar de mais regulamentação do que outros.
  • É parte de um esforço crescente para descobrir que tipo de IA pode ser perigosa.
  • Um especialista diz que o perigo real da IA é que ela pode tornar os humanos burros.

Image
Image

A inteligência artificial (IA) oferece muitos benefícios, mas também alguns perigos potenciais. E agora, pesquisadores propuseram um método para ficar de olho em suas criações computadorizadas.

Uma equipe internacional diz em um novo artigo que a IA pode determinar quais tipos de projetos de pesquisa podem precisar de mais regulamentação do que outros. Os cientistas usaram um modelo que combina conceitos de biologia e matemática e faz parte de um esforço crescente para descobrir que tipo de IA pode ser perigoso.

"É claro que, embora o uso perigoso da 'ficção científica' da IA possa surgir se assim decidirmos […], o que torna a IA perigosa não é a IA em si, mas [como a usamos] " Thierry Rayna, o presidente da Technology for Change, na École Polytechnique na França, disse à Lifewire em uma entrevista por e-mail. "Implementar a IA pode tanto aumentar a competência (por exemplo, reforça a relevância das habilidades e conhecimentos do ser humano/trabalhador) quanto destruir a competência, ou seja, a IA torna as habilidades e conhecimentos existentes menos úteis ou obsoletos."

Manter Abas

Os autores do artigo recente escreveram em um post que construíram um modelo para simular competições hipotéticas de IA. Eles executaram a simulação centenas de vezes para tentar prever como as corridas de IA do mundo real poderiam funcionar.

"A variável que achamos particularmente importante foi a "duração" da corrida - o tempo que nossas corridas simuladas levaram para atingir seu objetivo (um produto funcional de IA) ", escreveram os cientistas. "Quando as corridas de IA atingiram seu objetivo rapidamente, descobrimos que os competidores que codificamos para sempre ignorar as precauções de segurança sempre venciam."

Por outro lado, os pesquisadores descobriram que projetos de IA de longo prazo não eram tão perigosos porque os vencedores nem sempre eram aqueles que negligenciavam a segurança. “Dadas essas descobertas, será importante que os reguladores estabeleçam quanto tempo as diferentes corridas de IA provavelmente durarão, aplicando diferentes regulamentações com base em suas escalas de tempo esperadas”, escreveram eles. "Nossas descobertas sugerem que uma regra para todas as corridas de IA - de sprints a maratonas - levará a alguns resultados que estão longe do ideal."

David Zhao, diretor administrativo da Coda Strategy, uma empresa que presta consultoria em IA, disse em uma entrevista por e-mail à Lifewire que identificar IA perigosa pode ser difícil. Os desafios estão no fato de que as abordagens modernas de IA adotam uma abordagem de aprendizado profundo.

"Sabemos que o aprendizado profundo produz melhores resultados em vários casos de uso, como detecção de imagem ou reconhecimento de fala", disse Zhao. "No entanto, é impossível para os humanos entenderem como um algoritmo de aprendizado profundo funciona e como ele produz sua saída. Portanto, é difícil dizer se uma IA que está produzindo bons resultados é perigosa porque é impossível para os humanos entenderem o que está acontecendo."

O software pode ser "perigoso" quando usado em sistemas críticos, que possuem vulnerabilidades que podem ser exploradas por agentes mal-intencionados ou produzir resultados incorretos, disse Matt Shea, diretor de estratégia da empresa de IA MixMode, por e-mail. Ele acrescentou que a IA insegura também pode resultar na classificação inadequada de resultados, perda de dados, impacto econômico ou danos físicos.

"Com o software tradicional, os desenvolvedores codificam algoritmos que podem ser examinados por uma pessoa para descobrir como conectar uma vulnerabilidade ou corrigir um bug observando o código-fonte", disse Shea."Com a IA, no entanto, uma grande parte da lógica é criada a partir dos próprios dados, codificados em estruturas de dados como redes neurais e similares. Isso resulta em sistemas que são "caixas pretas" que não podem ser examinadas para encontrar e corrigir vulnerabilidades como software normal."

Perigos à frente?

Embora a IA tenha sido retratada em filmes como O Exterminador do Futuro como uma força maligna que pretende destruir a humanidade, os perigos reais podem ser mais prosaicos, dizem os especialistas. Rayna, por exemplo, sugere que a IA poderia nos tornar mais burros.

“Isso pode privar os humanos de treinar seus cérebros e desenvolver conhecimentos”, disse ele. “Como você pode se tornar um especialista em capital de risco se não passa a maior parte do tempo lendo aplicativos de startups? Pior, a IA é notoriamente “caixa preta” e pouco explicável. Não saber por que uma decisão específica de IA foi tomada significa que haverá muito pouco a aprender com ela, assim como você não pode se tornar um corredor experiente dirigindo pelo estádio em um Segway.”

É difícil dizer se uma IA que está produzindo bons resultados é perigosa, porque é impossível para os humanos entenderem o que está acontecendo.

Talvez a ameaça mais imediata da IA seja a possibilidade de fornecer resultados tendenciosos, disse Lyle Solomon, advogado que escreve sobre as implicações legais da IA, em uma entrevista por e-mail.

"A IA pode ajudar a aprofundar as divisões sociais. A IA é essencialmente construída a partir de dados coletados de seres humanos", acrescentou Solomon. "[Mas] apesar dos vastos dados, ele contém subconjuntos mínimos e não inclui o que todos pensam. Assim, dados coletados de comentários, mensagens públicas, resenhas, etc., com vieses inerentes, farão com que a IA amplifique a discriminação e o ódio."

Recomendado: