Foi divulgado que a Microsoft está trabalhando em um projeto que visa a criação de uma simulação de um ser humano, no formato de um chatbot - IA (inteligência artificial).
COMO ESSA TECNOLOGIA CHATBOT FUNCIONA?
O site Protocol afirma que uma patente da empresa idealiza um sistema que captura conteúdo digital de um usuário...
(arquivos como fotografias, postagens em redes sociais, gravações de voz, mensagens de conversas online e até mesmo cartas),
...o intento é usar tais informações para treinar um robô para simular como essa pessoa seria (em inteligência artificial).
O objetivo é tornar uma máquina o mais semelhante o possível do humano, o software precisa simular o comportamento humano natural durante interações sociais.
A ideia é vencer o Teste de Turnig, de forma que a máquina responda às questões de maneira a dar uma impressão de que trata-se de um ser humano, e não de um programa de computador.
Ilustração representando o Teste de Turning, escrevi um artigo complementar sobre o assunto, para ler basta clicar aqui.
USANDO PERFIS DE HUMANOS (VIVOS E MORTOS)
PARA "DAR LUZ" AO CHATBOT
Até então nada fora do normal, chatbot já é algo bem comum, porém a proposta da Microsoft é algo mais ousado, é aqui que as coisas começam a ficar estranhas.
Ao fazer uso do conteúdo criado pela pessoa à compor a simulação, a empresa pode ser capaz de desenvolver um sistema de chatbot que possibilitaria criar avatares pessoas que já morreram, isso com base em suas informações criadas em vida.
Parece ficção, mas quem entende de tecnologia sabe muito bem que isso é possível através da IA (Inteligência Artificial), não estou falando de ressuscitar os mortos, mas sobre usar suas personalidades (ou parte delas) para desenvolver "personas artificiais", que são os chatbots.
Isso me lembra um post que compartilhei aqui no Blog Mortalha em 2019, expondo 6 tecnologias da série Black Mirror que já existem na vida real.
Dentre essas tecnologias está o chatbot, o episódio aborda os mesmos objetivos que a Microsoft pretende alcançar, "a humanização de um robô", seria algo profético se não fosse previsível, e mais, já existe uma versão semelhante feita por uma engenheira russa chamada Eugenia Kuyda.
Ela criou um aplicativo chamado Luka, idêntico ao serviço da série... usou como base informações das mídias sociais de um amigo falecido.
O projeto funciona e está no ar, para quem quiser ver com seus próprios olhos, o link está no artigo citado, para acessar basta clicar aqui ou nas imagens.
“Os dados sociais podem ser usados para criar ou modificar um índice especial no tema da personalidade de uma pessoa específica. O índice especial pode ser usado para treinar um chatbot que replicaria a personalidade da pessoa específica”, diz o texto da patente.
APLICAÇÕES, CONTROVÉRSIAS
E QUESTIONAMENTOS
A Microsoft ainda considera usar modelos 2D ou 3D da pessoa replicada, usando imagens e vídeos de arquivo, tornando a experiência mais imersiva.
São diversas as aplicações para essa tecnologia.
A patente da Microsoft não tem grandes exigências sobre quem pode ser escolhido para ser um dos chatbots, e a pessoa pode estar viva ou morta.
“A pessoa específica (representada pelo chatbot) pode corresponder a uma personalidade do passado ou presente (ou uma versão disso), como um amigo, um parente, um conhecido, uma celebridade, um personagem fictício, uma figura histórica ou qualquer outra pessoa.”
A patente ainda afirma:
“a pessoa específica também pode corresponder a si mesma (o usuário que cria ou treina o chatbot), criando a possibilidade de que pessoas treinem a versão digital de si mesmas antes de morrerem.”
Se o chatbot não possuir dados suficientes para dar respostas a determinados tópicos, podem ser utilizados arquivos de conversas, obtidos por meio fontes acessíveis, no intuito de preencher lacunas, o que é literalmente colocar palavras na boca das pessoas, ou melhor, dos robôs.
A patente também trabalha questões de complicações em relação à abordagem do perfil de pessoas falecidas, o que, de certo modo, implica que o chatbot pode ter consciência de que está "interpretando o papel" de uma pessoa que já morreu.
Um bom exemplo é se alguém perguntasse um bot de alguém falecido o que aconteceu após a sua morte na vida real:
“essas perguntas podem indicar que a pessoa específica representada por uma personalidade indicadora (a personalidade falecida) processa uma consciência percebida de que, na verdade, ele ou ela está morto.”
Por fim, essa ideia de usar avatares de pessoas como chatbots gera controvérsias em diversos pontos, como a privacidade das pessoas, que não é discutida na patente, cujo foco é direcionado às questões técnicas do sistema.
Aqueles que forem inseridos, terão a escolha de sair desse sistema?
Quais seriam as regras? Qual seria o limite? Ou melhor, haveriam limites?
Comentários
Postar um comentário