top of page

Professor adverte sobre robôs “pesadelos” que atacam pessoas vulneráveis

“Meu aplicativo de pesadelo atual é combinar GPT-3, GANs faciais e síntese de voz para fazer ELIZAs sintéticos que levam pessoas vulneráveis ​​(literalmente) à loucura.”




Imagine que você faz um novo amigo no Twitter. Suas declarações vigorosas o param no meio da rolagem, e logo você se encontra deslizando para dentro de seus DMs.

Você troca algumas mensagens. Vocês gostam dos tweets um do outro. Se eles precisarem de ajuda no GoFundMe, você ajuda.


Agora imagine como você se sentiria se descobrisse que seu amigo não existe de verdade. O perfil deles acaba sendo um mashup frankensteiniano de verborragia inventado pelo poderoso gerador de linguagem GPT-3 e um rosto nascido de uma rede adversária generativa, talvez com um videoclipe falso jogado aqui e ali. Como isso afetaria você saber que se tornou emocionalmente apegado a um algoritmo? E se essa “pessoa” fosse projetada para manipular você, influenciando suas decisões pessoais, financeiras ou políticas, como um golpista ou vigarista?


Pode parecer exagero, mas as pessoas têm sido enganadas por computadores que se disfarçam de humanos desde 1966, quando o cientista da computação do MIT Joseph Weizenbaum criou o programa ELIZA . ELIZA foi construída para simular um psicoterapeuta repetindo as declarações das pessoas de volta para elas na forma de perguntas. Weizenbaum ficou incomodado com a seriedade com que os usuários reagiram a ele - notoriamente, sua secretária pediu que ele saísse da sala enquanto ela falava com ele - e ele acabou se tornando um crítico da inteligência artificial.


Agora, a tecnologia está mais perto do que nunca de criar um substituto crível de pessoas online. Simon DeDeo, professor assistente da Carnegie Mellon University e corpo docente externo do Santa Fé Institute, twittou no verão passado que seu "aplicativo pesadelo atual é combinar GPT-3, GANs faciais e síntese de voz para fazer ELIZAs sintéticos que levam pessoas vulneráveis ​​(literalmente ) louco."

Recentemente, perguntei a DeDeo o quão longe ele pensava que estávamos de seu pesadelo se tornando uma realidade tecnológica.


“Acho que já aconteceu”, disse ele.

Conversamos logo depois que a internet entrou em frenesi por causa de uma série de vídeos virais do TikTok que pareciam mostrar Tom Cruise fazendo atividades aleatórias como truques de mágica e golfe, mas eram realmente falsas feitas por um especialista em VFX e um imitador de Cruise . Os vídeos são impressionantes. Mas, como seu criador , DeDeo não acredita que as falsificações de Cruise sejam um motivo para alarme.


Prevenir o próximo vídeo falso de celebridade TikTok, disse ele, não é a preocupação que devemos nos concentrar. Em vez disso, disse ele, o deepfake Cruise "está revelando algo que está parado há muito tempo".


Ele comparou a cobertura das falsificações do TikTok à forma como a mídia reage a um acidente de avião, quando dirigir é estatisticamente muito mais perigoso. No caso da inteligência artificial, como o transporte, certos eventos dramáticos chamam nossa atenção, “mas na verdade estamos cercados por essas escalas muito menores, eventos menos salientes constantemente”.

Na verdade, ele não está nem um pouco preocupado com os vídeos. Em seu cenário de pesadelo, ele está muito mais preocupado em como o GPT-3 pode ser usado para gerar uma linguagem que pareça realista.


“Eu posso enganar você sem precisar falsificar um vídeo”, disse ele. “E o jeito que eu engano você não é enganando seu sistema visual, o que os deepfakes de vídeo fazem. Eu engano você enganando seu sistema racional. Eu conheço você em um nível muito mais alto em sua cognição social. ”

“Social” é a palavra-chave aqui, porque as falsificações onipresentes e de pequena escala de que DeDeo está falando prosperam nas redes sociais. De certa forma, isso é tudo que a mídia social é ; DeDeo frequentemente se refere às interações que temos em sites como o Facebook como “ciborgues”.


Pense em teorias de conspiração como QAnon, que prosperam nas redes sociais de uma forma que provavelmente não conseguiriam pessoalmente. Pessoas que são sugadas por esse tipo de comunidade são constantemente estimuladas por curtidas e comentários em suas postagens nas redes sociais, mesmo quando alienam seus amigos e familiares da vida real, como no caso de Valerie Gilbert, uma autodenominada “rainha dos memes” da QAnon . ”

Os usuários da Internet que formam a comunidade QAnon são, até onde sabemos, humanos reais. Mas suas ações são filtradas por algoritmos de mídia social para criar uma comunidade que não seja totalmente orgânica e que poderia permitir que novas entidades sombrias como o pesadelo de DeDeo prosperassem.


“É como soja verde - QAnon é feito de pessoas”, disse DeDeo. “Mas essas sociedades bizarramente artificiais são sustentadas por algoritmos que falsificam a sociabilidade, aquela amizade falsa, aquele prestígio falso, que falsificam todas essas coisas que são básicas para a nossa cognição.”

E algoritmos que reforçam postagens potencialmente tóxicas ou perigosas, como memes QAnon, provavelmente não serão alterados pelo Facebook tão cedo, porque o aumento do engajamento significa que as pessoas passam mais tempo no site.


Essa interação artificial não se limita aos teóricos da conspiração. Outro exemplo apontado por DeDeo é o comportamento estranho que pode ser observado entre os usuários de pequenas contas do Twitter quando um tweet se torna viral repentinamente. Você pode assistir uma pessoa ser "literalmente levada temporariamente à loucura pelo que está acontecendo com ela", disse ele, comparando isso a uma "experiência falsa de se tornar o imperador do mundo".


Esses são alguns dos exemplos mais visíveis, mas a natureza ciborguista das mídias sociais é algo que afeta todos os usuários. Percorrer sua linha do tempo envolve um algoritmo; as atualizações que você vê são uma realidade construída. Claro, existem humanos por trás das contas, mas a natureza de sua interação com eles foi intrinsecamente alterada por um computador. “É como se as vozes de todo mundo saíssem levemente distorcidas e com o volume um pouco errado”, disse DeDeo.


“A conta do Facebook anexada ao seu amigo do colégio?” ele perguntou. “Em certo sentido, seu amigo do colégio está operando essa conta, mas em outro sentido realmente importante, ele não está. Porque pelo que o Facebook escolhe mostrar a você sobre ele, as interações que ele escolhe para mostrar a você que ele tem, e aquela que ele escolhe ampliar ou diminuir, criam uma pessoa totalmente diferente. ”

Isso pode parecer relativamente inofensivo. E se o Facebook estiver destacando e promovendo algum detalhe da vida do seu amigo que você nunca notou ou discutiu em uma interação pessoal? Mas é a própria inocência do fenômeno, de acordo com DeDeo, que o torna perigoso.

Os profissionais de marketing falam sobre o fenômeno da prova social , em que os humanos estarão mais propensos a fazer algo ou comprar um produto se virem que seu círculo social também faz aquela coisa ou usa aquele produto. A curadoria de conteúdo de mídia social, possivelmente com alguns pequenos ajustes ou acréscimos aqui e ali, pode permitir que as organizações se aproveitem facilmente dessa parte de nossa psicologia e influenciem nosso comportamento. A mídia social de uma pessoa pode ser alterada para levá-la a pensar que fazer algo é normal, bom ou inteligente.


“A pessoa que está tentando lucrar não precisa fazer essa coisa verdadeiramente pura em que Tom Cruise diz algo que ele nunca diria”, explicou DeDeo. “A versão lucrativa é ciborguiana no sentido de que, huh, meio que se parece com o que meu amigo diria. Na verdade, é bem parecido. E, na verdade, a maior parte do que essa coisa acabou de me alimentar foi o que ele disse. ”

Esse tipo de deepfake ciborguês não está necessariamente limitado a postagens de texto. E se o Facebook, por exemplo, colocar curtidas ou corações falsos?

“Quase com certeza eles tentaram”, disse DeDeo. “Não há garantia de que se alguém apertar o botão curtir, eles verão, e não há garantia de que se o botão curtir for ativado por uma pessoa, essa pessoa realmente o ativou”.

Além de permitir a manipulação de usuários de mídia social, é fácil ver como esse tipo de falsificação pode levar as pessoas a duvidar da realidade - na verdade, isso já aconteceu e tem sido uma preocupação das pessoas que seguem o desenvolvimento de IA há anos.


Outro grande uso malicioso dessa tecnologia - e que é amplamente subnotificado em comparação com o hipotético impacto político dos deepfakes - é assediar e rebaixar as mulheres. A pornografia falsa de celebridades é prolífica, mas a pornografia falsa de pessoas comuns também é um problema enorme.

Uma empresa de inteligência de ameaças visuais chamada Sensity descobriu um robô pornográfico embutido no aplicativo de mensagens Telegram que permitia aos usuários criar nus falsos de mulheres a partir de apenas uma foto de perfil; quando foi descoberto, no final de 2020, o bot já havia sido usado para gerar pornografia falsa para 680.000 mulheres. A Vox relatou um estudo de 2019 que mostrou que 96% dos vídeos deepfake existentes eram pornográficos e não consensuais. Um aplicativo de IA que desde então foi colocado off-line permitiu aos usuários “ despir ” mulheres. E em março, a mãe de uma líder de torcida adolescente foi acusada de assédio por criar imagens falsas e incriminatórias de outras garotas no programa de líderes de torcida, incluindo fotos nuas, e dizer a elas para morrerem por suicídio.


E agora? Como aprendemos a reconhecer e descartar os deepfakes, mas manter o controle da realidade?


Esta é uma grande questão nas ciências sociais, disse DeDeo, que acredita que tudo se resume a uma noção de civismo. Ele se lembra de ter aprendido na escola em quais instituições confiar e como ser um bom consumidor da mídia. “Mas não temos uma cidadania moderna que ajude, digamos, uma razão de 15 ou 16 ou 17 anos sobre este mundo louco”, disse ele. “A paisagem é totalmente diferente.”

“Que tipo de currículo você desenvolveria para ajudar as pessoas a serem adultos?” DeDeo se perguntou. Ele mencionou os deepfakes ciborgues novamente, lamentando que as pessoas sejam vulneráveis ​​a eles porque sequestram partes de nosso raciocínio que são realmente boas em muitas situações. “Confiar em uma pessoa para te dizer a verdade, dizendo 'Oh, eu não entendo bem isso, eu deveria descobrir isso' ... esses são ótimos instintos, em certos contextos. Mas esses instintos podem levar você a tratar um encontro online GPT-3 como se fosse um ser humano. ”


Perguntei se ele estava defendendo um tipo de nova educação cívica em nosso currículo K-12 e, embora ele dissesse que seria o ideal, DeDeo acrescentou que “nós, como adultos, também não sabemos o que diabos está acontecendo. ”


“Não há adultos na sala”, disse ele. “Então, acho que a conversa é em parte: 'O que ensinamos a uma criança de 12 anos?', Mas também é um problema filosófico para jovens de 21 e 31 e 41 anos.”

Mas DeDeo está otimista sobre a solução desse problema, apontando para o sucesso do sistema universitário e comparando a internet a "uma faculdade comunitária gigantesca e anárquica".

“As universidades funcionam; eles realmente ajudam as pessoas a pensar melhor ”e permitem que a ciência e a filosofia prosperem, argumentou. Uma coisa que permite seu sucesso é a ideia de associação e pertença, e que ser um membro do sistema requer que você se submeta a certas obrigações - por exemplo, humildade epistêmica, que requer que você passe pelo processo de revisão por pares “mesmo que você realmente, realmente acho que você está certo. ”


“O que sabemos que não funciona é o Facebook”, disse ele, descrevendo-o como “este tipo de estado maciçamente autoritário onde você não tem nenhum tipo de liberdade de reunião dentro dele. Portanto, é provavelmente muito grande e a coisa toda é projetada para evitar que as pessoas se autogovernem. ”

O Twitter, disse ele, é “um pouco melhor”. Mas para alguns dos melhores exemplos, DeDeo sugere olhar para o Reddit e Wikipedia.


“O Reddit permite um grande desenvolvimento institucional dentro de um subreddit. Coisas muito criativas acontecem. ” E, ele acrescentou, o Reddit está sobrevivendo, até mesmo prosperando; seu crescimento não se estabilizou. A Wikipedia, pelo menos no início, também foi "um grande exemplo de uma comunidade que cria estruturas institucionais que a permitem prosperar".

Essas instituições ajudam a detectar conteúdo falso porque ganhar status social na Wikipedia ou em um subreddit é “como o maior CAPTCHA do mundo”, explicou DeDeo. “Você tem que fazer coisas que são fundamentalmente humanas.”


Algo assim aconteceu no Twitter recentemente, quando uma enxurrada de contas aparentemente falsas de funcionários da Amazon foi criada e começou a tweetar elogios à Amazon e a fazer comentários anti-sindicais. Os usuários do Twitter rapidamente perceberam sinais reveladores de rostos gerados por computador, tais efeitos estranhos em torno do cabelo de uma pessoa ou óculos que tinham armações com um estilo inconsistente. Muitos inicialmente presumiram que as contas foram criadas pela Amazon, mas mais investigações lançaram dúvidas sobre isso, e a Amazon disse a um repórter do The New York Times que não era afiliada às contas. As contas foram suspensas pelo Twitter por causa de informações enganosas sobre a identidade dos titulares das contas.


Em meio a todas as preocupações sobre os problemas que essa tecnologia pode causar, DeDeo disse que vê pelo menos uma vantagem: um exame mais crítico do conteúdo gerado por humanos que, como o conteúdo gerado por bot, não tem profundidade real.


“Há muito não-pensar que os seres humanos fazem”, disse DeDeo, que, como professor, leu sua cota de ensaios formulados. “Há muitas coisas que as pessoas dizem que parecem inteligentes, mas na verdade não têm conteúdo. Há muitos artigos que as pessoas escrevem que não têm sentido. GPT-3 pode imitá-los com perfeição. ”


Ao expor isso, disse ele, algoritmos inteligentes como o GPT-3 “nos tornam cientes da extensão em que as coisas que parecem ter um cérebro por trás delas não têm cérebro. Isso nos desencanta. ”

Em outras palavras, conforme as máquinas aprendem a fazer mais coisas, isso nos força a pensar profundamente sobre o que nos torna diferentes - o que nos torna humanos .

Podemos pensar: “' Bem, esta é uma distopia terrível em que as máquinas podem escrever textos publicitários'”, disse DeDeo. “Bem, talvez aconteça que escrever uma cópia do anúncio não seja o que significa ser humano.”


Saiba mais sobre nossas certificações internacionais:

Analista de Inovação: https://www.xper.social/cai

Gestor de Inovação: https://www.xper.social/cgi

Arquiteto de Inovação: https://www.xper.social/arquiteto



8 visualizações0 comentário

Comentarios

Obtuvo 0 de 5 estrellas.
Aún no hay calificaciones

Agrega una calificación
bottom of page