top of page

O que acontece quando uma IA sabe como você se sente?

Tecnologia usada apenas para entregar nossas mensagens. Agora quer escrevê-los para nós, entendendo nossas emoções.


Fonte: Wired Magazine

Sinal: Forte

Tendência: Inteligência Artificial



EM MAIO DE 2021,Twitter, uma plataforma notória por abusos e teimosia, lançou um recurso de “prompts” que sugere que os usuários pensem duas vezes antes de enviar um tweet. No mês seguinte, o Facebook anunciou “alertas de conflito” de IA para grupos, para que os administradores possam tomar medidas onde possam ocorrer “conversas contenciosas ou prejudiciais”. Respostas inteligentes por e-mail e mensagens terminam bilhões de frases para nós todos os dias. O Halo da Amazon , lançado em 2020, é uma banda de fitness que monitora o tom da sua voz. Bem-estar não é mais apenas o acompanhamento de um batimento cardíaco ou a contagem de passos, mas a maneira como nos deparamos com as pessoas ao nosso redor. Ferramentas terapêuticas algorítmicas estão sendo desenvolvidas para prever e prevenir o comportamento negativo.

Jeff Hancock, professor de comunicação da Universidade de Stanford, define a comunicação mediada por IA como quando "um agente inteligente opera em nome de um comunicador, modificando, aumentando ou gerando mensagens para cumprir os objetivos de comunicação". Essa tecnologia, diz ele, já está implantada em escala.

Por trás de tudo, está uma crença crescente de que nossos relacionamentos estão apenas um empurrãozinho para longe da perfeição. Desde o início da pandemia, muitos de nossos relacionamentos dependem de canais mediados por computador. Em meio a um oceano agitado de discussões online, mensagens tóxicas do Slack e zoom infinito, os algoritmos poderiam nos ajudar a ser mais legais uns com os outros? Um app consegue ler nossos sentimentos melhor do que nós? Ou a terceirização de nossas comunicações para a IA diminui o que torna um relacionamento humano humano?


Codificação Co-Paternidade


VOCÊ PODERIA DIZER que Jai Kissoon cresceu no sistema de tribunal de família. Ou, pelo menos, em torno disso. Sua mãe, Kathleen Kissoon, era advogada de direito da família e, quando ele era adolescente, costumava ir ao escritório dela em Minneapolis, Minnesota, e ajudá-la a ordenar documentos. Isso foi antes das “copiadoras chiques” e, enquanto Kissoon vasculhava as intermináveis ​​pilhas de papel que esvoaçavam pelos corredores de um escritório de advocacia, ele ouvia histórias sobre as muitas maneiras como as famílias podiam se desintegrar.


Nesse sentido, não mudou muito para Kissoon, que é cofundador do OurFamilyWizard, uma ferramenta de agendamento e comunicação para casais divorciados e co-pais que foi lançada em 2001. Era o conceito de Kathleen, enquanto Jai desenvolvia o plano de negócios, inicialmente lançando OurFamilyWizard como Um website. Isso logo chamou a atenção dos que trabalhavam no sistema legal, incluindo o juiz James Swenson, que dirigiu um programa piloto com a plataforma no tribunal de família em Hennepin County, Minneapolis, em 2003. O projeto levou 40 do que Kissoon diz serem “ a maioria das famílias hardcore ”, configurou-os na plataforma - e“ eles desapareceram do sistema judicial ”. Quando alguém acabou indo parar no tribunal - dois anos depois - foi depois que um pai parou de usá-lo.


Duas décadas depois, OurFamilyWizard foi usado por cerca de um milhão de pessoas e obteve a aprovação do tribunal em todos os Estados Unidos. Em 2015, foi lançado no Reino Unido e um ano depois na Austrália. Agora está em 75 países; produtos semelhantes incluem coParenter, Cozi, Amicable e TalkingParents. Brian Karpf, secretário da American Bar Association, Family Law Section, diz que muitos advogados agora recomendam aplicativos de co-parentalidade como prática padrão, especialmente quando eles querem ter um “efeito inibidor” na forma como um casal se comunica. Esses aplicativos podem ser um impedimento para o assédio e seu uso nas comunicações pode ser ordenado pelo tribunal.


Em uma tentativa de encorajar a civilidade, a IA se tornou uma característica cada vez mais proeminente. OurFamilyWizard tem uma função “ToneMeter” que usa análise de sentimento para monitorar mensagens enviadas no aplicativo - “algo para dar um sinal de rendimento”, diz Kissoon. A análise de sentimento é um subconjunto do processamento da linguagem natural, a análise da fala humana. Treinados em vastos bancos de dados de linguagem, esses algoritmos dividem o texto e pontuam o sentimento e a emoção com base nas palavras e frases que ele contém. No caso do ToneMeter, se uma frase com carga emocional for detectada em uma mensagem, um conjunto de barras de intensidade do sinal ficará vermelho e as palavras problemáticas serão sinalizadas. “É sua culpa estarmos atrasados”, por exemplo, poderia ser sinalizado como “agressivo”. Outras frases podem ser sinalizadas como "humilhantes" ou "perturbadoras". Cabe ao usuário decidir se ele ainda deseja enviar.


O ToneMeter foi originalmente usado no serviço de mensagens, mas agora está sendo codificado para todos os pontos de troca entre os pais no aplicativo. Shane Helget, diretor de produtos, diz que em breve isso não apenas desencorajará a comunicação negativa, mas também incentivará a linguagem positiva. Ele está reunindo percepções de uma vasta gama de interações com a visão de que o aplicativo poderia ser usado para estimular de forma proativa os pais a se comportarem positivamente um com o outro, além de conversas normais. Pode haver lembretes para comunicar horários com antecedência ou oferecer a troca de datas por aniversários ou feriados - gestos que podem não ser exigidos, mas podem ser bem recebidos.


O CoParenter, lançado em 2019, também usa a análise de sentimento. Os pais negociam por texto e um aviso aparece se uma mensagem for muito hostil - da mesma forma que um mediador humano pode silenciar seu cliente. Se o sistema não resultar em um acordo, existe a opção de trazer uma pessoa para o chat.

Adiar para um aplicativo para negociações tão emocionalmente carregadas tem problemas. Kissoon estava consciente de não permitir que o ToneMeter avaliasse os pais sobre o quão positivo ou negativo eles pareciam, e Karpf diz que percebeu um efeito definitivo no comportamento dos usuários. “As comunicações se tornam mais robóticas”, diz ele. “Agora você está escrevendo para um público, certo?”


Aplicativos de co-parentalidade podem ajudar a orientar um relacionamento problemático, mas não podem resolvê-lo. Às vezes, eles podem piorar as coisas. Karpf diz que alguns pais usam o aplicativo como uma arma e enviam mensagens de "isca" para convencer seus cônjuges a enviarem uma mensagem problemática: "Um pai idiota sempre será um pai idiota". Kisson se lembra de uma conversa que teve com um juiz quando lançou o programa piloto. “O que devemos lembrar sobre as ferramentas é que posso lhe dar uma chave de fenda e você pode consertar um monte de coisas com ela”, disse o juiz. "Ou você pode ir se cutucar no olho."


Computador Diz Abraço


EM 2017, ADELA Timmons era uma estudante de doutorado em psicologia que realizou um estágio clínico na UC San Francisco e no San Francisco General Hospital, onde trabalhou com famílias que tinham filhos pequenos de baixa renda que haviam sido expostos a traumas. Enquanto estava lá, ela percebeu um padrão emergente: os pacientes progrediam na terapia apenas para que se perdessem no caos da vida cotidiana entre as sessões. Ela acreditava que a tecnologia poderia “preencher a lacuna entre a sala do terapeuta e o mundo real” e viu o potencial da tecnologia vestível que poderia intervir apenas no momento em que um problema estivesse surgindo.

No campo, esta é uma “Intervenção Adaptativa Just in Time”. Em teoria, é como ter um terapeuta pronto para sussurrar em seu ouvido quando um alarme emocional toca. “Mas para fazer isso de forma eficaz”, diz Timmons, agora diretor do Laboratório de Intervenções Tecnológicas para Sistemas Ecológicos (TIES) da Florida International University, “você precisa sentir os comportamentos de interesse ou detectá-los remotamente”.


A pesquisa de Timmons, que envolve a construção de modelos computacionais do comportamento humano, está focada na criação de algoritmos que podem prever efetivamente o comportamento em casais e famílias. Inicialmente, ela se concentrou em casais. Para um estudo, os pesquisadores conectaram 34 casais jovens com monitores de pulso e tórax e monitoraram a temperatura corporal, batimentos cardíacos e transpiração. Eles também deram a eles smartphones que ouviam suas conversas. Cruzando esses dados com pesquisas de hora em hora nas quais os casais descreviam seu estado emocional e quaisquer discussões que tivessem, Timmons e sua equipe desenvolveram modelos para determinar quando um casal tinha grandes chances de brigar. Os fatores desencadeantes seriam uma frequência cardíaca alta, o uso frequente de palavras como “você” e elementos contextuais, como a hora do dia ou a quantidade de luz em uma sala.


Timmons está expandindo esses modelos para examinar a dinâmica familiar, com foco na melhoria dos laços entre pais e filhos. TIES está desenvolvendo aplicativos móveis que visam sentir passivamente as interações positivas usando smartphones, Fitbits e Apple Watches (a ideia é que deve ser viável com a tecnologia de consumo existente). Primeiro, os dados são coletados - predominantemente, frequência cardíaca, tom de voz e idioma. O hardware também detecta a atividade física e se pais e filhos estão juntos ou separados.

No estudo de casais, o algoritmo foi 86 por cento preciso na detecção de conflitos e foi capaz de gerar uma correlação com estados emocionais relatados pelos próprios. Em um contexto familiar, espera-se que, ao detectar esses estados, o aplicativo seja capaz de intervir ativamente. “Pode ser um aviso, como 'vá dar um abraço em seu filho' ou 'diga a seu filho algo que ele fez bem hoje'”, diz Timmons. “Também estamos trabalhando em algoritmos que podem detectar estados negativos e enviar intervenções para ajudar os pais a regular suas emoções. Sabemos que quando a emoção dos pais é regulada, as coisas tendem a melhorar. ”


As informações contextuais ajudam a melhorar as taxas de previsão: A pessoa dormiu bem na noite anterior? Eles se exercitaram naquele dia? As instruções podem assumir a forma de sugestões para meditar, tentar um exercício de respiração ou se envolver com algumas técnicas de terapia cognitivo-comportamental. Já existem aplicativos de atenção plena, mas eles dependem de o usuário se lembrar de usá-los em um momento em que provavelmente ficará zangado, chateado ou emocionalmente sobrecarregado. “Na verdade, é nos momentos em que você menos consegue puxar seus recursos cognitivos”, diz Timmons. “A esperança é que possamos encontrar a pessoa no meio do caminho, alertando-a sobre o momento em que ela precisa usar essas habilidades.” De acordo com sua experiência de trabalho com famílias, a estrutura tradicional da terapia - sessões de 50 minutos uma vez por semana - não é necessariamente a maneira mais eficaz de causar impacto.


O trabalho é apoiado por uma doação dos Institutos Nacionais de Saúde e da Fundação Nacional de Ciências como parte de um fundo para criar sistemas de tecnologia comercialmente viáveis, e Timmons espera que a pesquisa leve a cuidados de saúde psicológicos que sejam acessíveis, escalonáveis ​​e sustentáveis . Depois que seu laboratório tiver os dados para provar que é eficaz e seguro para as famílias - e não causa danos inesperados -, será necessário tomar decisões sobre como essa tecnologia pode ser implantada.


À medida que o atendimento à saúde baseado em dados se expande, a privacidade é uma preocupação. A Apple é a mais recente grande empresa de tecnologia a se expandir neste espaço; está no meio de um estudo de três anos com pesquisadores da UCLA, lançado em 2020, para estabelecer se iPhones e Apple Watches poderiam detectar - e, em última instância, prever e intervir em - casos de depressão e transtornos de humor. Os dados serão coletados da câmera e dos sensores de áudio do iPhone, assim como os movimentos do usuário e até mesmo a forma como ele digita no dispositivo.


A Apple pretende proteger os dados do usuário tendo o algoritmo no próprio telefone, sem nada ser enviado aos seus servidores.

No laboratório TIES, Timmons diz que nenhum dado é vendido ou compartilhado, exceto em casos relacionados a danos ou abuso. Ela acredita que é importante que os cientistas que desenvolvem essas tecnologias pensem sobre possíveis abusos: “É responsabilidade conjunta da comunidade científica com os legisladores e o público estabelecer os limites aceitáveis ​​dentro deste espaço.”

A próxima etapa é testar os modelos em tempo real para ver se eles são eficazes e se os comandos de um telefone celular realmente levam a uma mudança comportamental significativa. “Temos muitas boas razões e teorias para pensar que esse seria um mecanismo de intervenção realmente poderoso”, diz Timmons. “Ainda não sabemos como eles funcionam no mundo real.”


Um raio-x para relacionamentos


A IDEIA DE QUE sensores e algoritmos podem dar sentido às complexidades da interação humana não é novo. Para o psicólogo de relacionamento John Gottman, o amor sempre foi um jogo de números. Desde a década de 1970, ele tenta quantificar e analisar a alquimia das relações.


Gottman conduziu estudos sobre casais, principalmente no “Love Lab”, um centro de pesquisa da Universidade de Washington que ele fundou na década de 1980. Uma versão do Love Lab ainda funciona hoje no Gottman Institute em Seattle, fundado com sua esposa, Julie Gottman, uma colega psicóloga, em 1996. Em termos de rom-com, o Love Lab é como a sequência de abertura de When Harry Met Sally emendado com a cena em Meet the Parentsquando Robert De Niro conecta seu futuro genro a um teste de detector de mentiras. As pessoas eram conectadas duas a duas e pediam para conversar entre si - primeiro sobre sua história de relacionamento, depois sobre um conflito - enquanto várias peças de maquinário rastreavam seu pulso, transpiração, tom de voz e o quanto eles se remexiam na cadeira. Em uma sala nos fundos cheia de monitores, cada expressão facial foi codificada por operadores treinados. O Love Lab teve como objetivo coletar dados sobre como os casais interagem e transmitem seus sentimentos.


Essa pesquisa levou ao “método Gottman”, uma metodologia de aconselhamento de relacionamento. É importante manter uma proporção de 5: 1 de interações positivas para negativas; que 33% de falha em responder ao pedido de atenção de um parceiro equivale a um “desastre”; e que revirar os olhos estão fortemente correlacionados com a condenação conjugal. “Os relacionamentos não são tão complicados”, diz John Gottman, falando de sua casa em Orcas Island, Washington.

Os Gottmans também estão entrando no reino da IA. Em 2018, eles fundaram uma startup, a Affective Software, para criar uma plataforma online de avaliação e orientação de relacionamento. Tudo começou a partir de uma interação IRL; uma amizade que surgiu há muitos anos quando Julie Gottman conheceu Rafael Lisitsa, um veterano da Microsoft, enquanto buscavam suas filhas nos portões da escola. Lisitsa, co-fundadora e CEO da Affective Software, está desenvolvendo uma versão virtual do Love Lab, na qual os casais podem ter o mesmo diagnóstico “raio-x” de seu relacionamento entregue pela câmera de seu computador, iPhone ou tablet. Mais uma vez, as expressões faciais e o tom de voz são monitorados, bem como a frequência cardíaca. É um indicador de quão longe chegou a detecção de emoções, ou “computação afetiva”; embora o Love Lab original fosse apoiado por telas e dispositivos, no final das contas, foi necessário um indivíduo especialmente treinado para observar o monitor e codificar corretamente cada sugestão. Gottman nunca acreditou que o elemento humano pudesse ser removido. “Poucas pessoas conseguiam codificar emoções de maneira realmente sensível”, diz ele. “Eles tinham que ser musicais. Eles tinham que ter alguma experiência com teatro ... Eu nunca imaginei que uma máquina fosse capaz de fazer isso. ”

Nem todo mundo está convencido de que as máquinas podem fazer isso. A IA que detecta emoções é um território instável. É amplamente construído com base na ideia de que os humanos têm expressões universais de emoções - uma teoria desenvolvida nas décadas de 1960 e 70 com observações de Paul Ekman, que criou um sistema de codificação de expressão facial que informa o trabalho dos Gottmans e forma a base de muitos aspectos afetivos software de computação. Alguns pesquisadores, como a psicóloga da Northeastern University Lisa Feldman Barrett, questionaram se é possível detectar com segurança a emoção de uma expressão facial.


E embora já seja amplamente utilizado, alguns softwares de reconhecimento facial têm mostrado evidências de preconceito racial; um estudo que comparou dois programas convencionais descobriu que eles atribuíam mais emoções negativas aos rostos negros do que aos brancos. Gottman diz que o Love Lab virtual é treinado em conjuntos de dados faciais que incluem todos os tipos de pele e seu sistema para codificar interações foi testado em diferentes grupos nos Estados Unidos, incluindo grupos afro-americanos e asiáticos. “Sabemos que a cultura realmente modera a maneira como as pessoas expressam ou mascaram emoções”, diz ele. “Procuramos na Austrália, no Reino Unido, na Coreia do Sul e na Turquia. E parece que o sistema de afeto específico que desenvolvi realmente funciona. Agora, isso funcionará em todas as culturas? Nós realmente não sabemos. ” E parece que o sistema de afeto específico que desenvolvi realmente funciona. Agora, isso funcionará em todas as culturas? Nós realmente não sabemos. ” E parece que o sistema de afeto específico que desenvolvi realmente funciona. Agora, isso funcionará em todas as culturas? Nós realmente não sabemos. ”


Gottman acrescenta que o Love Lab realmente opera por meio de um sistema de codificação social; ao captar o assunto da conversa, o tom de voz, a linguagem corporal e as expressões, ele se concentra menos em detectar uma emoção singular no momento e, em vez disso, analisa as qualidades gerais de uma interação. Junte tudo isso, diz Gottman, e você pode chegar a uma categoria mais confiável, como raiva, tristeza, nojo, desprezo. Quando um casal participa, eles são convidados a responder a um questionário detalhado e, a seguir, gravar duas conversas de 10 minutos. Um é uma discussão sobre a semana passada; a outra é sobre um conflito. Depois de enviar os vídeos, o casal avalia seu estado emocional durante as diferentes fases da conversa, de 1 (muito negativo) a 10 (muito positivo). O aplicativo então analisa isso, junto com as pistas detectadas, e fornece resultados incluindo uma proporção positiva para negativa, uma métrica de confiança e prevalência dos temidos “Quatro Cavaleiros do Apocalipse” ': crítica, defensividade, desprezo e obstáculo. Destina-se a ser usado em conjunto com um terapeuta.


Os serviços de terapia e saúde mental são cada vez mais fornecidos por meio de videochamadas - desde a pandemia, essa mudança foi sobrecarregada. O investimento de capital de risco em atendimento virtual e saúde digital triplicou desde a Covid-19, de acordo com analistas da McKinsey, e os chatbots de terapia de IA, como o Woebot, estão se tornando populares. Apps de aconselhamento de relacionamento, como o Lasting, já se baseiam no método Gottman e enviam notificações para lembrar os usuários, por exemplo, de dizer aos parceiros que os amam. Pode-se imaginar que isso nos torne preguiçosos, mas os Gottman veem isso como um processo educacional - nos munindo de ferramentas que acabarão se tornando uma segunda natureza. A equipe já está pensando em uma versão simplificada que poderia ser usada independentemente do terapeuta.


Para os Gottmans, que se inspiraram no fato de que tantos casais estão presos em seus smartphones de qualquer maneira, a tecnologia abre um caminho para democratizar o aconselhamento. “As pessoas estão se tornando muito mais confortáveis ​​com a tecnologia como uma linguagem”, diz Gottman. “E como uma ferramenta para melhorar suas vidas de todas as maneiras.”



Email para você, mas não por você


ESTA TECNOLOGIA Éjá em todos os lugares. Pode estar afetando seus relacionamentos sem que você perceba. Pegue a Resposta inteligente do Gmail - aquelas sugestões de como você pode responder a um e-mail - e a Escrita inteligente, que se oferece para terminar suas frases. O Smart Reply foi adicionado como um recurso móvel em 2015, o Smart Compose lançado em 2018; ambos são alimentados por redes neurais.


Jess Hohenstein, um pesquisador PhD na Cornell University, encontrou o Smart Reply pela primeira vez quando o Google Allo, o agora extinto aplicativo de mensagens, foi lançado em 2016. Ele apresentava um assistente virtual que gerava sugestões de resposta. Ela achou assustador: “Eu não queria algum algoritmo influenciando meus padrões de fala, mas achei que isso devia estar surtindo efeito”.

Em 2019, ela conduziu estudos que descobriram que a IA está realmente mudando a maneira como interagimos e nos relacionamos. Em um estudo usando o Google Allo, 113 estudantes universitários foram solicitados a concluir uma tarefa com um parceiro em que um, os dois ou nenhum deles conseguiu usar a Resposta inteligente. Posteriormente, os participantes foram questionados sobre o quanto atribuíam o sucesso ou o fracasso da tarefa à outra pessoa (ou IA) da conversa. Um segundo estudo enfocou os efeitos linguísticos; como as pessoas responderam a respostas “inteligentes” positivas ou negativas.

Hohenstein descobriu que a linguagem que as pessoas usavam com a Resposta inteligente tendia para o positivo. As pessoas estavam mais propensas a rolar com uma sugestão positiva do que negativa - os participantes também frequentemente se encontravam em uma situação em que queriam discordar, mas recebiam apenas expressões de concordância. O efeito é tornar a conversa mais rápida e suave - Hohenstein percebeu que isso também fazia com que as pessoas na conversa se sentissem melhor umas com as outras.

Hohenstein acha que isso pode se tornar contraproducente nas relações profissionais: essa tecnologia (combinada com nossa própria sugestionabilidade) pode nos desencorajar de desafiar alguém, ou mesmo de discordar. Ao tornar nossa comunicação mais eficiente, a IA também pode extrair nossos verdadeiros sentimentos, reduzindo as trocas a um "adorei!" e "parece bom!" de volta um para o outro. Para as pessoas no local de trabalho que tradicionalmente acham mais difícil falar abertamente, isso pode desestimular isso.


No estudo de conclusão de tarefas, Hohenstein descobriu que os humanos assumiam o crédito pelos resultados positivos. Quando algo deu errado, a IA foi responsabilizada. Ao fazer isso, o algoritmo protegeu o relacionamento humano e forneceu uma proteção para nossas próprias falhas. Isso levanta uma questão mais profunda de transparência: deve ser revelado que uma IA ajudou a criar uma resposta? Quando um parceiro estava usando a Resposta inteligente, inicialmente fez o receptor se sentir mais positivo em relação à outra pessoa. Mas quando lhes disseram que uma IA estava envolvida, eles se sentiram desconfortáveis.

Isso sustenta um paradoxo que permeia o uso de tal tecnologia - percepção e realidade não estão alinhadas. “As pessoas ficam assustadas com isso, mas está melhorando as percepções interpessoais das pessoas com as quais você está se comunicando”, diz Hohenstein. “É contra-intuitivo.”

Em seu artigo, Hancock destaca como essas ferramentas “podem ter impactos sociais generalizados” e traça uma agenda de pesquisa para abordar uma revolução tecnológica que aconteceu sob nossos narizes. A comunicação mediada por IA pode transformar a maneira como falamos, atenuar o preconceito ou agravá-lo. Isso pode nos deixar imaginando com quem estamos realmente falando. Pode até mudar nossa autopercepção. “Se a IA modificar as mensagens de um remetente para serem mais positivas, mais engraçadas ou extrovertidas, a autopercepção do remetente mudará para ser mais positiva, engraçada ou extrovertida?” ele escreve. Se a IA dominar muito nossos relacionamentos, o que realmente resta?

7 visualizações0 comentário

Commentaires

Noté 0 étoile sur 5.
Pas encore de note

Ajouter une note
bottom of page