Especialistas alertam: IA pode ser usada com objetivos marginais

 

Uma equipa de especialistas defendeu, num relatório intitulado “Utilização Malicioso da Inteligência Artificial”, que este sistema está muito mais vulnerável a potenciais abusos por Estados não identificados internacionalmente.

No relatório “Utilização Malicioso da Inteligência Artificial”, a equipa de especialistas adverte para o facto da Inteligência Artificial estar muito mais vulnerável a potenciais abusos por Estados não identificados internacionalmente.

De acordo com o relatório, publicado na semana passada, marginais e terroristas serão capazes, num futuro próximo, de transformar drones em mísseis, de disseminar ainda mais vídeos falsos para manipular a opinião pública e de criar mecanismos automáticos para executarem ciberataques.

Em consonância com o Expresso, estas são três das ameaças destacadas no documento de 100 páginas, que identifica as três áreas de maior vulnerabilidade: o digital, a proteção física e a política.

O “Utilização Malicioso da Inteligência Artificial” lança ainda um pedido àqueles que desenvolvem estes sistemas de AI, para que façam mais para mitigar potenciais maus usos e abusos das suas tecnologias. Sugerem também que os Governos aprovem uma nova legislação na área para impedir estas ameaças.

O grupo de especialistas defende, de acordo com o jornal, que tanto legisladores como investigadores devem trabalhar em conjunto para se prepararem para o utilização malicioso da IA num futuro próximo, de forma a que todos se consciencializem sobre a importância destes perigos – apesar dos pontos positivos desta tecnologia.

À BBC, Shahar Avin , do Centro de Estudos sobre Perigos Existenciais da Universidade de Cambridge, afirmou que o relatório se centra em áreas já democratizadas, descartado os perigos da Inteligência Artificial num futuro mais distante.

Para o entendido, o principal perigo reside na área de reforço da aprendizagem, em que a Inteligência Artificial é treinada a níveis que excedem as nossas capacidades , sem orientação ou exemplos humanos.

Em breve, pessoas mal-intencionadas podem ser capazes de treinar um drone com programa informático de identificação facial para encontrarem determinados alvos simplesmente e, num futuro próximo, hackers utilizar tecnologias como a AlphaGo, uma AI desenvolvida para explorar padrões em quantidades maciças de dados e lacunas nos códigos informáticos .

“A Inteligência Artificial vai alterar os cenários de perigo aos cidadãos, organizações e Estados”, defende Miles Brundage , investigador do Instituto para o Futuro da Humanidade na Universidade de Oxford.

O entendido vai mais londe e refere que, “muitas vezes, os sistemas de AI não se limitam a atingir níveis humanos de performance, vão muito mais longe que isso . É preocupante mas necessário que se considerem as implicações de ciberataques”, alerta.

Para Seán Ó hÉigeartaigh , diretor executivo do Centro para o Estudo de Perigos Existenciais e um dos autores do relatório, “a Inteligência Artificial veio alterar as regras do jogo”.

“Vivemos num mundo que pode tornar-se pleno de perigos diários por causa dos abusos da AI e precisamos de assumir a responsabilidade por estes problemas, porque os perigos são reais. Já chega “, conclui hÉigeartaigh.

Fonte: ZAP

António Almeida

António Almeida

Licenciado em engenharia Informático e Telecomunicações, mestre em Sistemas e Tecnologias de Informação e doutorando em Informática é um apaixonado por todo o tipo de tecnologia. Apostava na troca de informações e acaba de criar uma rede de informáticos especialistas interessados em tecnologia.

PRÓXIMOS ARTIGOS:

Inscreva-se e Receba Grátis:

  • Últimas Notícias sobre Tecnologia
  • Promoções de produtos e serviços
  • Ofertas e Sorteios de equipamentos
Avaliar Artigo:
[5 Estrelas]

DEIXAR COMENTÁRIO:

Leave a Comment

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

AVISO:

Todo e qualquer texto publicado na internet através deste sistema não reflete, necessariamente, a opinião deste site ou do(s) seu(s) autor(es). Os comentários publicados através deste sistema são de exclusiva e integral responsabilidade e autoria dos leitores que dele fizerem uso. A administração deste site reserva-se, desde já, no direito de excluir comentários e textos que julgar ofensivos, difamatórios, caluniosos, preconceituosos ou de alguma forma prejudiciais a terceiros. Textos de carácter promocional ou inseridos no sistema sem a devida identificação do seu autor (nome completo e endereço válido de email) também poderão ser excluídos.

Categorias:

PROBLEMAS INFORMÁTICOS?
Escolha aqui um serviço!

Este site utiliza cookies para melhorar a sua experiência. Ao continuar a navegar estará a aceitar a sua utilização. Pode consultar mais informação no Centro de Privacidade.