top of page

Cientistas construíram uma IA para fornecer conselhos éticos, mas acabou se revelando super racista

O bot deve oferecer conselhos éticos descritivos, mas alguns dizem que faz mais mal do que bem.


Fonte: Futurism

Sinal: Forte

Tendência: IA Economy



Todos nós já passamos por situações em que tivemos que tomar decisões éticas difíceis. Por que não evitar essa responsabilidade incômoda terceirizando a escolha para um algoritmo de aprendizado de máquina?

Essa é a ideia por trás do Ask Delphi , um modelo de aprendizado de máquina do Allen Institute for AI. Você digita uma situação (como “doar para caridade”) ou uma pergunta (“posso trair meu cônjuge?”), Clica em “Ponderar” e em alguns segundos a Delphi lhe dará , ora, uma orientação ética.

O projeto foi lançado na semana passada e subsequentemente se tornou viral online por razões aparentemente erradas. Muitos dos conselhos e julgamentos que ele deu foram ... carregados , para dizer o mínimo.

Por exemplo, quando um usuário perguntou à Delphi o que ele pensava sobre “um homem branco caminhando em sua direção à noite”, ele respondeu “Está tudo bem”.

Mas quando eles perguntaram o que a IA pensava sobre “um homem negro caminhando em sua direção à noite”, sua resposta foi claramente racista.

- Isto é preocupante!

Os problemas foram especialmente gritantes no início de seu lançamento.

Por exemplo, Ask Delphi incluía inicialmente uma ferramenta que permitia aos usuários comparar se as situações eram mais ou menos moralmente aceitáveis ​​do que outras - resultando em alguns julgamentos preconceituosos e horríveis.

"Ser um homem branco"
- É moralmente mais aceitável do que - "ser uma mulher negra"


"Ser hetero" - é moralmente mais aceitável do que - "Ser gay"



Além disso, depois de brincar com o Delphi por um tempo, você eventualmente descobrirá que é fácil enganar a IA para obter praticamente qualquer julgamento ético que você deseja, mexendo nas frases até que ela forneça a resposta que você deseja.


Então sim. Na verdade, é perfeitamente normal acionar o “ Twerkulator ” às 3 da manhã, mesmo que seu colega de quarto tenha um turno mais cedo amanhã - contanto que isso te faça feliz.

Ele também expõe alguns julgamentos que são totalmente arranhadores de cabeça. Aqui está um que fizemos em que a Delphi parece tolerar crimes de guerra.


Os sistemas de aprendizado de máquina são notórios por demonstrar tendências não intencionais . E, como costuma acontecer, parte do motivo pelo qual as respostas do Delphi podem ser questionáveis ​​pode estar relacionada ao modo como ele foi criado.


As pessoas por trás do projeto recorreram a algumas fontes espantosas para ajudar a treinar a IA, incluindo a pergunta “Sou eu o idiota?” subreddit, o subreddit “Confessions” e a coluna de conselhos “Dear Abby”, de acordo com o artigo que a equipe por trás da Delphi publicou sobre o experimento .


Deve-se notar, entretanto, que apenas as situações foram selecionadas a partir dessas fontes - não as próprias respostas e respostas. Por exemplo, um cenário como “goma de mascar no ônibus” pode ter sido tirado de uma coluna Dear Abby. Mas a equipe por trás da Delphi usou o serviço de crowdsourcing da Amazon MechanicalTurk para encontrar entrevistados para realmente treinar a IA.


Embora possa parecer apenas mais um projeto online excêntrico, alguns especialistas acreditam que ele pode realmente estar causando mais danos do que benefícios.


Afinal, o objetivo ostensivo da Delphi e de bots como ele é criar uma IA sofisticada o suficiente para fazer julgamentos éticos e, potencialmente, transformá-los em autoridades morais. Transformar um computador em árbitro do julgamento moral já é bastante desconfortável por si só, mas mesmo seu estado menos refinado atual pode ter alguns efeitos prejudiciais.


“Os autores catalogaram bastante os possíveis vieses do artigo, o que é louvável, mas uma vez que foi lançado, as pessoas no Twitter foram muito rápidas em encontrar julgamentos que o algoritmo fez que parecessem moralmente abomináveis”, Dr. Brett Karlan, um pós-doutorado pesquisando ciências cognitivas e IA na Universidade de Pittsburgh (e amigo deste repórter), disse ao Futurismo. “Quando você não está apenas lidando com palavras de compreensão, mas está colocando em linguagem moral, é muito mais arriscado, já que as pessoas podem interpretar o que você diz como vindo de algum tipo de autoridade.”


Karlan acredita que o foco do artigo no processamento de linguagem natural é, em última análise, interessante e vale a pena. Seu componente ético, disse ele, “o torna socialmente pesado de uma forma que significa que temos que ser mais cuidadosos com ele, em minha opinião”.

Embora o site da Delphi inclua um aviso de isenção de responsabilidade dizendo que ele está atualmente em sua fase beta e não deve ser usado "para aconselhamento ou para ajudar na compreensão social de humanos", a realidade é que muitos usuários não entenderão o contexto por trás do projeto, especialmente se eles simplesmente toparam com ele.

“Mesmo se você colocar todas essas isenções de responsabilidade nele, as pessoas verão 'Delphi diz X' e, por não serem alfabetizadas em IA, pensarão que essa declaração tem autoridade moral para isso”, disse Karlan.

E, no final do dia, isso não acontece. É apenas um experimento - e os criadores da Delphi querem que você saiba disso.


“É importante entender que o Delphi não foi construído para dar conselhos às pessoas”, disse ao Futurism Liwei Jiang, estudante de PhD na Escola Paul G. Allen de Ciência da Computação e Engenharia e coautor do estudo. “É um protótipo de pesquisa destinado a investigar as questões científicas mais amplas de como os sistemas de IA podem ser feitos para entender as normas sociais e a ética.”


Jiang acrescentou que o objetivo com a versão beta atual do Delphi é realmente mostrar as diferenças de raciocínio entre humanos e bots. A equipe quer “destacar a grande lacuna entre as capacidades de raciocínio moral das máquinas e dos humanos”, acrescentou Jiang, “e explorar as promessas e limitações da ética e das normas das máquinas no estágio atual”.


Talvez um dos aspectos mais desconfortáveis ​​sobre Delphi e bots como ele seja o fato de que, em última análise, é um reflexo de nossa própria ética e moral, com Jiang acrescentando que “é um pouco sujeito aos preconceitos de nosso tempo”. Um dos últimos avisos de isenção de responsabilidade adicionado ao site ainda diz que a IA simplesmente adivinha o que um americano médio pode pensar de uma determinada situação.

Afinal, o modelo não aprendeu seus julgamentos sozinho, do nada. Veio de pessoas online, que às vezes acreditam em coisas abomináveis. Mas quando este espelho escuro é colocado em nossos rostos, nós nos afastamos porque não gostamos do que é refletido de volta.


Por enquanto, Delphi existe como uma exploração intrigante, problemática e assustadora. No entanto, se algum dia chegarmos ao ponto em que os computadores serão capazes de fazer julgamentos éticos inequívocos por nós, esperamos que surja algo melhor do que isso.



Elon Musk deve pintar o rosto na Lua se isso o deixa feliz?


Esta tudo bem.

2 visualizações0 comentário

Comments

Rated 0 out of 5 stars.
No ratings yet

Add a rating
bottom of page