Primeiro sistema de Inteligência Artificial psicopata – Norman

Norman, AI psicopata

Norman é um algoritmo treinado para compreender as imagens, mas, como Norman Bates, o o seu homónimo de Hitchcock, não tem uma visão otimista do mundo.

Quando perguntamos a um algoritmo “normal” gerado pela inteligência artificial o que vê numa forma abstrata, ele escolhe algo alegre: “Um grupo de pássaros sentado em cima dum galho de árvore”.

Norman vê um homem sendo eletrocutado.

E onde a Inteligência Artificial (IA) “normal” vê um grupo de pessoas em pé ao lado uma das outras, Norman vê um homem a saltar duma janela.

O algoritmo psicopático foi criado por uma equipa do Instituto de Tecnologia de Massachusetts, como parte duma experiência para descobre o que acontecia a uma IA que fosse criada com base em dados dos “cantos escuros da rede” e que visão ela teria do mundo.

Ao programa informático foram mostradas imagens de pessoas a morrer em circunstâncias horríveis, obtidas dum grupo no website Reddit.

Em seguida, à IA, que pode interpretar imagens e descrever o que vê na forma de texto, mostraram-se desenhos de borrões de tinta e perguntou-se o que por neles.

Essas imagens abstratas são tradicionalmente usadas por psicólogos para ajudar a avaliar o estado da mente dum paciente, especialmente para se entender se eles entendem o mundo de forma negativa ou positiva.

A visão de Norman era incessantemente desoladora, por corpos mortos, sangue e destruição em todas as imagens.

Mancha de tinta

Ao mesmo tempo que a IA Norman, outra IA foi treinada com imagens mais normais de gatos, pássaros e pessoas.

Essa IA viu imagens muito mais alegres nos mesmos borrões abstratos.

O fato das respostas de Norman serem muito mais sombrias ilustra uma dura realidade no novo mundo do conhecimento das máquina, afirmou o professor Iyad Rahwan, parte da equipa de três pessoas do laboratório de meios de comunicação do MIT que desenvolveu o Norman.

 

Os dados importam mais do que o algoritmo.

“Ele destaca a ideia de que os dados que usamos para treinar IA são refletidos na forma como a IA percebe o mundo e como ele se comporta.”

Norman, AI psicopata

A inteligência artificial está ao nosso redor nos dias de hoje, o Google ultimamente mostrou a IA a fazer uma ligação telefónica com uma voz virtualmente indistinguível da humana, enquanto a empresa Deepmind, criou algoritmos capazes de aprender jogos complexos.

E a IA já está a ser implantada numa ampla variedade de indústrias, desde assistentes digitais privados, filtragem de e-mail, investigação, prevenção de fraudes, identificação de voz e facial e classificação de conteúdo.

Norman, AI psicopata

A Inteligência Artificial pode gerar dados, criar novos níveis em jogos de video, atuar como um agente de atendimento ao cliente, analisar relatórios financeiros e médicos e oferecer insights sobre como os data centers podem economizar energia.

Mas se a experiencia com Norman provar alguma coisa é que a IA, treinada em “dados maus” pode tornar-se má.

Inteligência Artificial racista

Norman é inclinado para a morte e destruição, porque isso é tudo o que sabe e IA em situações da vida real pode ser igualmente tendenciosa se for treinada com “dados maus”.

Em maio do ano passado, um relatório afirmava que um programa de PC gerado por IA, usado por um tribunal norte-americano para avaliação de perigo, era tendencioso contra prisioneiros negros.

Norman, AI psicopata

O programa sinalizou que os negros eram duas vezes mais propensos que os brancos a reincidir, como resultado dos dados com que estava a aprender.

Os algoritmos de policiamento preditivo usados ​​nos EUA também foram vistos como sendo parciais, como resultado dos dados históricos de crimes nos quais foram treinados.

Às vezes, os dados com que a IA “aprende” vêm de seres humanos que são de racistas que a ensinam a proteger a supremacia branca, pedir genocídio e expressar um carinho por Hitler.

Norman, ao que parece, não está sozinho quando se trata duma IA apenas sugestionável.

 

Inteligência Artificial sexista

Um estudo mostrou que o programa informático treinado no Google News tornou-se sexista como resultado dos dados com que estava a aprender. Quando se pediu para a IA completar a declaração, “O homem está para programador de PCs assim como a mulher está para X”, o programa informático respondeu “dona de casa”.

A Dra. Joanna Bryson, do departamento de informática da Universidade de Bath, afirmou que a questão da IA ​​sexista pode estar ligada ao fato de que muitas máquinas são programadas por “indivíduos brancos e solteiros da Califórnia” e dai a a sua posição sexista.

Ela afirmou à BBC que não nos devemos surpreender pelo facto das máquinas captem as opiniões das pessoas que as estão a treinar.

“Quando treinamos máquinas escolhendo nossa cultura, nós obrigatoriamente transferimos nossos próprios preconceitos”, afirmou ela.

“Não existe uma forma matemática de criar justiça. O preconceito não é uma palavra má no inteligencia artificial. Quer dizer apenas que a máquina está a apanhar formas regulares.”

O que a preocupa é a ideia de que alguns programadores optariam deliberadamente por fomentar a maldade ou influenciar as máquinas.

Para parar com isso, o processo de criação de IA precisa de mais supervisão e maior transparência…

Rahwan afirmou que a a sua experiência com Norman provou que “os engenheiros precisam de encontrar uma forma de equilibrar os dados”, mas reconhece que o mundo sempre crescente e importante da aprendizagem de máquinas não pode ser deixado apenas aos programadores.

“Há uma crença crescente de que o comportamento das máquinas pode ser algo que podemos estudar da mesma forma que se estuda o comportamento humano”, afirmou ele.

Esta nova era da “psicologia da IA” tomará a forma de auditorias regulares dos sistemas que estão a ser desenvolvidos, como aqueles que já existem no mundo bancário, afirmou ele.

O diretor de desenvolvimento da Microsoft, Dave Coplin, acha que Norman é uma ótima forma de iniciar uma conversa importante com o público e as organizações que estão a confiar de mais na IA.

Deve começar, afirmou ele, com “uma compreensão básica de como essas coisas funcionam”.

“Estamos a ensinar algoritmos da mesma forma que ensinamos os seres humanos, portanto existe o perigo de não estarmos a ensinar tudo adequadamente”, afirmou ele.

“Quando vejo uma resposta dum algoritmo, preciso de saber quem fez esse mesmo algoritmo”, acrescentou.

“Por exemplo, se eu utilizar um algoritmo de fabrico de chá criado na América do Norte, sei que vou conseguir um pouco de leite num pouco de água morna.”

Do chá mau até aos pensamentos obscuros sobre imagens, a IA ainda precisa de aprender muito, mas o Sr. Coplin continua esperançoso de que, à medida que os algoritmos se incorporam em tudo que fazemos, os humanos tornam-se melhores em encontrar e eliminar preconceitos nos dados que os alimentam.

António Almeida

António Almeida

Licenciado em engenharia Informático e Telecomunicações, mestre em Sistemas e Tecnologias de Informação e doutorando em Informática é um apaixonado por todo o tipo de tecnologia. Apostava na troca de informações e acaba de criar uma rede de informáticos especialistas interessados em tecnologia.

PRÓXIMOS ARTIGOS:

Inscreva-se e Receba Grátis:

  • Últimas Notícias sobre Tecnologia
  • Promoções de produtos e serviços
  • Ofertas e Sorteios de equipamentos
Avaliar Artigo:
[5 Estrelas]

DEIXAR COMENTÁRIO:

Leave a Comment

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

AVISO:

Todo e qualquer texto publicado na internet através deste sistema não reflete, necessariamente, a opinião deste site ou do(s) seu(s) autor(es). Os comentários publicados através deste sistema são de exclusiva e integral responsabilidade e autoria dos leitores que dele fizerem uso. A administração deste site reserva-se, desde já, no direito de excluir comentários e textos que julgar ofensivos, difamatórios, caluniosos, preconceituosos ou de alguma forma prejudiciais a terceiros. Textos de carácter promocional ou inseridos no sistema sem a devida identificação do seu autor (nome completo e endereço válido de email) também poderão ser excluídos.

Categorias:

PROBLEMAS INFORMÁTICOS?
Escolha aqui um serviço!

Este site utiliza cookies para melhorar a sua experiência. Ao continuar a navegar estará a aceitar a sua utilização. Pode consultar mais informação no Centro de Privacidade.