Uma equipa de especialistas defendeu, num relatório intitulado “Utilização Malicioso da Inteligência Artificial”, que este sistema está muito mais vulnerável a potenciais abusos por Estados não identificados internacionalmente.
No relatório “Utilização Malicioso da Inteligência Artificial”, a equipa de especialistas adverte para o facto da Inteligência Artificial estar muito mais vulnerável a potenciais abusos por Estados não identificados internacionalmente.
De acordo com o relatório, publicado na semana passada, marginais e terroristas serão capazes, num futuro próximo, de transformar drones em mísseis, de disseminar ainda mais vídeos falsos para manipular a opinião pública e de criar mecanismos automáticos para executarem ciberataques.
Em consonância com o Expresso, estas são três das ameaças destacadas no documento de 100 páginas, que identifica as três áreas de maior vulnerabilidade: o digital, a proteção física e a política.
O “Utilização Malicioso da Inteligência Artificial” lança ainda um pedido àqueles que desenvolvem estes sistemas de AI, para que façam mais para mitigar potenciais maus usos e abusos das suas tecnologias. Sugerem também que os Governos aprovem uma nova legislação na área para impedir estas ameaças.
O grupo de especialistas defende, de acordo com o jornal, que tanto legisladores como investigadores devem trabalhar em conjunto para se prepararem para o utilização malicioso da IA num futuro próximo, de forma a que todos se consciencializem sobre a importância destes perigos – apesar dos pontos positivos desta tecnologia.
À BBC, Shahar Avin , do Centro de Estudos sobre Perigos Existenciais da Universidade de Cambridge, afirmou que o relatório se centra em áreas já democratizadas, descartado os perigos da Inteligência Artificial num futuro mais distante.
Para o entendido, o principal perigo reside na área de reforço da aprendizagem, em que a Inteligência Artificial é treinada a níveis que excedem as nossas capacidades , sem orientação ou exemplos humanos.
Em breve, pessoas mal-intencionadas podem ser capazes de treinar um drone com programa informático de identificação facial para encontrarem determinados alvos simplesmente e, num futuro próximo, hackers utilizar tecnologias como a AlphaGo, uma AI desenvolvida para explorar padrões em quantidades maciças de dados e lacunas nos códigos informáticos .
“A Inteligência Artificial vai alterar os cenários de perigo aos cidadãos, organizações e Estados”, defende Miles Brundage , investigador do Instituto para o Futuro da Humanidade na Universidade de Oxford.
O entendido vai mais londe e refere que, “muitas vezes, os sistemas de AI não se limitam a atingir níveis humanos de performance, vão muito mais longe que isso . É preocupante mas necessário que se considerem as implicações de ciberataques”, alerta.
Para Seán Ó hÉigeartaigh , diretor executivo do Centro para o Estudo de Perigos Existenciais e um dos autores do relatório, “a Inteligência Artificial veio alterar as regras do jogo”.
“Vivemos num mundo que pode tornar-se pleno de perigos diários por causa dos abusos da AI e precisamos de assumir a responsabilidade por estes problemas, porque os perigos são reais. Já chega “, conclui hÉigeartaigh.
Fonte: ZAP