quarta-feira, 29 de julho de 2015

Cientistas pedem que inteligência artificial não mate

Inteligência artificial
ientistas destacaram que seria só questão de tempo para armas de inteligência artificial terminarem no mercado negro

 Especialistas em tecnologia, cientistas como Stephen Hawking e filósofos como Noam Chomsky advertiram nesta terça-feira para o perigo de usar a inteligência artificial para o desenvolvimento de armas em carta divulgada em um congresso em Buenos Aires.

"Se alguma potência militar global der início ao desenvolvimento de armas de inteligência artificial, uma corrida armamentista é virtualmente inevitável. O ponto final nessa trajetória é óbvio: armas autônomas se tornarão os Kalashnikovs de amanhã", alertaram os signatários do texto, apresentado hoje na Conferência Internacional de Inteligência Artificial de Buenos Aires.

Entre eles estão o cofundador da Apple, Steve Wozniak; Elon Musk, presidente de Tesla e SpaceXel; e o responsável pelo setor de inteligência artificial do Google, Demis Hassabis.

"Se não houver limites, é factível que em questão de anos, não décadas nos deparemos com equipes capazes de selecionar, fixar e atacar alvos sem nenhuma intervenção humana", assinalaram.

Os cientistas destacaram que seria só questão de tempo para essas armas terminarem no mercado negro e nas mãos de terroristas e do crime organizado.

"Diferentemente de bombas nucleares, essas armas não exigem materiais de alto custo ou difíceis de serem encontrados. Elas se espalhariam facilmente e seriam baratas para qualquer potência militar desenvolver em massa".

O grupo destacou que "a maioria dos pesquisadores de inteligência artificial não têm interesse em construir armas com inteligência artificial - e não querem que outros interfiram em seu campo".

"Há muitas maneiras que a inteligência artificial pode fazer campos de batalha mais seguros para os seres humanos, especialmente os civis, sem criar novas ferramentas para matar pessoas", ressaltou o texto, assinado por mais de 8.700 cientistas. 

Fonte: Exame
Reações:

0 comentários:

Postar um comentário