Você não está conectado. Conecte-se ou registre-se

[OFFTopic] Pesquisadores de IA querem banir armas autônomas

Ver o tópico anterior Ver o tópico seguinte Ir para baixo  Mensagem [Página 1 de 1]

sonic2099

sonic2099
Co-Administrador
[OFFTopic] Pesquisadores de IA querem banir armas autônomas MWj98QB

Embora ainda faça parte da ficção, o cenário dos filmes da franquia “Exterminador do Futuro” é assustadoramente possível de acontecer no futuro. Tanto é que uma carta aberta publicada pelo Future of Life Institute (FLI) pede que a Nações Unidas determine o banimento do desenvolvimento de armas autônomas entre seus países-membros.

Entre aqueles que assinaram o documento estão personalidades como Stephen Hawking, Elon Musk e Noam Chomsky, que alertam que armas desse tipo podem se tornar as “Kalashnikovs do amanhã”. Segundo eles, armamentos que usam a inteligência artificial para dispensar a ação direta de humanos podem facilmente ser usados para causar guerras, promover o terrorismo e causar instabilidade em nível global.

“A inteligência artificial atingiu um ponto no qual o uso de sistemas do tipo é — praticamente, se não legalmente — provável dentro de anos, senão décadas”, afirma a carta. Embora o uso de armas do tipo possa diminuir mortes humanas em um primeiro momento, isso em si pode ser um erro, pois pode reduzir os limites necessários para que países declarem guerra.


Potencial perigoso

“Ao contrário das armas atômicas, as armas autônomas não exigem componentes caros ou difíceis de obter, então elas vão se tornar comuns e baratas para todos os poderes militares significativos que quiserem produzi-las em massa”, afirma o documento. “Vai ser só questão de tempo até que elas apareçam no mercado negro e caiam na mão de terroristas, ditadores que querem controlar sua população, senhores da guerra interessados em limpeza étnica, etc. Armas autônomas são ideais para assassinatos, desestabilizar nações, submeter populações e matar seletivamente um grupo étnico”.

[OFFTopic] Pesquisadores de IA querem banir armas autônomas LMkueuM

Além disso, o FLI alerta que o desenvolvimento de armas autônomas pode fazer com que a opinião pública considere negativo todo o campo da inteligência artificial. A conclusão a que os pesquisadores e celebridades envolvidas chegam é que deve haver o total banimento do desenvolvimento de sistemas de armamentos que não dependem de um controle humano significativo.

Apesar da crítica do FLI e de outras organizações, a Força Aérea dos Estados Unidos já usa sistemas semiautônomos e há a previsão de que, até 2030, as capacidades de máquinas vão aumentar a ponto de o fator humano ser o elo mais fraco desse sistema. Outros nomes que assinaram o documento são Steve Wozniak, cofundador da Apple, Jaan Talinn, cofundador do Skype e Demis Hassabis, CEO da empresa britânica de pesquisas em inteligência artificial DeepMind.


Fonte: TecMundo

Ver o tópico anterior Ver o tópico seguinte Ir para o topo  Mensagem [Página 1 de 1]

Permissões neste sub-fórum
Não podes responder a tópicos