Home > Sociedade > Deadbots: não é magia, é tecnologia
Redação Momento 2 | 19 de maio de 2022 | Tags: , , ,

Deadbots: não é magia, é tecnologia

Deadbots podem falar por você após sua morte.

Não temos dúvidas que o marchine learning nos surpreende cada dia mais, muitas vezes colocando a ética em pauta.

Dessa vez, a questão é: seria correto fazer bots para conversar com pessoas que já morreram?

Isso porque Joshua Barbeau, um homem de 33 anos, usou um site chamado Project December para criar um robô conversacional (chatbot) que simularia uma conversa com sua falecida noiva, Jessica.

Conhecido como deadbot, ele permitiu que Barbeau trocasse mensagens de texto com uma “Jessica” artificial.

O Project December foi criado pelo desenvolvedor de jogos Jason Rohrer para permitir que as pessoas personalizem chatbots com a personalidade com a qual desejam interagir. O projeto foi construído com base em uma API do GPT-3, um modelo de linguagem geradora de texto da empresa de pesquisa em inteligência artificial OpenAI.

O caso de Barbeau abriu uma brecha entre Rohrer e OpenAI porque as diretrizes da empresa proíbem explicitamente que o GPT-3 seja usado para fins sexuais, amorosos, automutilação ou bullying.

Chamando a posição da OpenAI de hipermoralista e argumentando que pessoas como Barbeau eram “adultos consensuais”, Rohrer encerrou a versão GPT-3 do Projeto December.

Mas, seria ético produzir um deadbot?

Mesmo quando morrem, as pessoas não são meras coisas com as quais os outros podem fazer o que quiserem. É por isso que nossas sociedades consideram errado profanar ou desrespeitar a memória dos mortos. Em outras palavras, temos certas obrigações morais para com os mortos.

Outro ponto relevante para a conversa é se devemos proteger os direitos fundamentais dos mortos (privacidade e dados pessoais). Desenvolver um deadbot replicando a personalidade de alguém requer grandes quantidades de informações pessoais, como dados de redes sociais.

Se temos políticas de privacidade para pessoas vivas, por que não continuar com elas após a morte?

Nesse debate, parece razoável concluir que se o desenvolvimento ou uso do deadbot não corresponder ao que a pessoa imitada concordou, seu consentimento deve ser considerado inválido.

Assim, podemos afirmar que:

– A pessoa imitada, a que personaliza e a que interage precisam dar o seu consentimento livre para uma descrição tão detalhada quanto possível.

– São proibidos desenvolvimentos e usos que não respeitem o consentimento do imitado ou que contrariem a sua dignidade.

– As pessoas envolvidas no desenvolvimento assumem a responsabilidade por seus potenciais resultados negativos.

A ética e o machine learning são muito importantes um para o outro.

Você faria um deadbot?

Mais de Sociedade

É hora de jogar à favor da natureza

A indústria de videogames pode ser mais verde


Energia noturna pode ser realidade

A energia solar já é bastante comum no nosso dia a dia. Mas cientistas estão próximos de conseguir captar energia do céu à noite.


Robótica e IA revolucionarão a agricultura?

Agricultura de precisão tem um promissor futuro ao incorporar robótica e IA

M2TV
Outros Assuntos

O FUTURO NA SUA CAIXA DE ENTRADA

Receba nossos principais destaques de sociedade, tecnologia e espaço em sua caixa de entrada, alem de avisos de lives e conteúdos adicionais.


Seus dados estarão protegidos e serão usados somente para fins de envio de newsletter. Você poderá descadastrar a quaquer momento. Confira nossa política de privacidade.

O futuro, hoje! Esse é o nosso propósito, trazer a você um vislumbre sobre as transformações e os impactos sociais da tecnologia para o amanhã, o Momento2.

Conecte-se

Momento 2. Sociedade. Tecnologia. Espaço. @ 2022.