Cientistas suecos querem criar cópias digitais de mortos

 Cientistas suecos querem criar cópias digitais de mortos 1

Especialistas suecos decidiram criar cópias digitais de pessoas mortas. O próximo passo é criar robôs com um aspecto similar com o dos falecidos.

Uma empresa funerária sueca, a Fenix, está a pesquisar voluntários para um projeto que promete revolucionar a forma como encaramos a morte. O projeto tem como principal objetivo fazer com que as famílias sejam capazes de comunicar com os familiares que já faleceram, através do utilização da inteligência artifical .

A ideia é criar cópias digitais dos ente queridos através de bots conversacionais, programas informáticos que oferecem respostas automáticas e simulam e mantêm uma conversa com um individuo, informa a Dagen. O passo seguinte é conseguir copiar a personalidade do defunto, para que os familiares enfrentem o luto de forma diferente.

Na primeira fase do projeto, os cientistas planeiam recriar, com a ajuda de inteligência artificial, a voz do falecido .

As cópias digitais serão capazes, num primeiro momento, de responder a perguntas fáceis, como por exemplo, respostas relacionadas com os preparativos funerários. Em seguida, o programa informático será capaz de responder com a voz do falecido às perguntas mais difíceis, como perguntas sobre o clima ou a vida quotidiana.

Os inventores dizem que, há 30 anos, os familiares não tinham outra opção para lembrar os seus familiares próximos, senão por fotografias . Hoje em dia, graças à inteligência artificial, eles terão a possibilidade de “falar” com o programa computacional, imaginando que falam com o ente querido.

Entretanto, alguns dos cientistas mais conhecidos do mundo, incluindo Stephen Hawking e Elon Musk , advertiram diversas vezes para o perigo que representa a inteligência artificial.

Apesar de admitir o grande potencial da IA na hora de lidar com a pobreza e algumas doenças, o físico britânico Stephen Hawking afirmou que a inteligência artificial está associada a diversos perigos .

Em novembro, o fundador da empresa espacial SpaceX, Elon Musk, afirmou que a inteligência artificial pode ser mais perigosa do que armas nucleares . De acordo com Musk, é muito provável que a IA saia do controlo dos humanos e decida se livrar deles.

Fonte: ZAP

António Almeida

António Almeida

Licenciado em engenharia Informático e Telecomunicações, mestre em Sistemas e Tecnologias de Informação e doutorando em Informática é um apaixonado por todo o tipo de tecnologia. Apostava na troca de informações e acaba de criar uma rede de informáticos especialistas interessados em tecnologia.

PRÓXIMOS ARTIGOS:

  • Últimas Notícias sobre Tecnologia
  • Promoções de produtos e serviços
  • Ofertas e Sorteios de equipamentos

RECEBER GRÁTIS:

DEIXAR COMENTÁRIO:

Deixe uma resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

AVISO:

Todo e qualquer texto publicado na internet através deste sistema não reflete, necessariamente, a opinião deste site ou do(s) seu(s) autor(es). Os comentários publicados através deste sistema são de exclusiva e integral responsabilidade e autoria dos leitores que dele fizerem uso. A administração deste site reserva-se, desde já, no direito de excluir comentários e textos que julgar ofensivos, difamatórios, caluniosos, preconceituosos ou de alguma forma prejudiciais a terceiros. Textos de carácter promocional ou inseridos no sistema sem a devida identificação do seu autor (nome completo e endereço válido de email) também poderão ser excluídos.
Whatsapp Viber Telegram Ligar Agora Skype Enviar SMS

Bem Vindo!

Ao clicar em ENTRAR, declara que leu e que aceita a nossa Política de Privacidade.

ajudar-informatico-pt

Mantenha-se Informado!

Inscreva-se para receber conteúdo exclusivo, brindes, ofertas e promoções…

Share on facebook
Share on pinterest
Share on twitter
Share on email
Share on linkedin

Formulário Agendamento

assistencia ao domicilio

Formulário Contato

formulario de contato

Registar

Ao clicar em REGISTAR, declara que leu e que aceita a nossa Política de Privacidade.