Não temos dúvidas que o marchine learning nos surpreende cada dia mais, muitas vezes colocando a ética em pauta.
Dessa vez, a questão é: seria correto fazer bots para conversar com pessoas que já morreram?
Isso porque Joshua Barbeau, um homem de 33 anos, usou um site chamado Project December para criar um robô conversacional (chatbot) que simularia uma conversa com sua falecida noiva, Jessica.
Conhecido como deadbot, ele permitiu que Barbeau trocasse mensagens de texto com uma “Jessica” artificial.
O Project December foi criado pelo desenvolvedor de jogos Jason Rohrer para permitir que as pessoas personalizem chatbots com a personalidade com a qual desejam interagir. O projeto foi construído com base em uma API do GPT-3, um modelo de linguagem geradora de texto da empresa de pesquisa em inteligência artificial OpenAI.
O caso de Barbeau abriu uma brecha entre Rohrer e OpenAI porque as diretrizes da empresa proíbem explicitamente que o GPT-3 seja usado para fins sexuais, amorosos, automutilação ou bullying.
Chamando a posição da OpenAI de hipermoralista e argumentando que pessoas como Barbeau eram “adultos consensuais”, Rohrer encerrou a versão GPT-3 do Projeto December.
Mas, seria ético produzir um deadbot?
Mesmo quando morrem, as pessoas não são meras coisas com as quais os outros podem fazer o que quiserem. É por isso que nossas sociedades consideram errado profanar ou desrespeitar a memória dos mortos. Em outras palavras, temos certas obrigações morais para com os mortos.
Outro ponto relevante para a conversa é se devemos proteger os direitos fundamentais dos mortos (privacidade e dados pessoais). Desenvolver um deadbot replicando a personalidade de alguém requer grandes quantidades de informações pessoais, como dados de redes sociais.
Se temos políticas de privacidade para pessoas vivas, por que não continuar com elas após a morte?
Nesse debate, parece razoável concluir que se o desenvolvimento ou uso do deadbot não corresponder ao que a pessoa imitada concordou, seu consentimento deve ser considerado inválido.
Assim, podemos afirmar que:
– A pessoa imitada, a que personaliza e a que interage precisam dar o seu consentimento livre para uma descrição tão detalhada quanto possível.
– São proibidos desenvolvimentos e usos que não respeitem o consentimento do imitado ou que contrariem a sua dignidade.
– As pessoas envolvidas no desenvolvimento assumem a responsabilidade por seus potenciais resultados negativos.
A ética e o machine learning são muito importantes um para o outro.
Você faria um deadbot?
O futuro, hoje! Esse é o nosso propósito, trazer a você um vislumbre sobre as transformações e os impactos sociais da tecnologia para o amanhã, o Momento2.
Conecte-se
Alguns Assuntos