top of page

HOMEM PROCESSA OPENAI APÓS CHATGPT ALEGAR QUE DESVIOU DINHEIRO

Direito de suportar IA

Fonte: Futurism/Gismodo



Um locutor de rádio da Geórgia chamado Mark Walters está processando a OpenAI depois que seu serviço ChatGPT disse a um jornalista que ele estava desviando fundos da The Second Emenda Foundation (SAF), uma organização sem fins lucrativos que defende os direitos das armas.

Walters entrou com o provável processo por difamação, o primeiro desse tipo, no início desta semana, relata o Gizmodo , alegando que o ChatGPT prejudicou sua reputação ao fazer as alegações.


Embora os advogados provavelmente encontrem uma batalha difícil para provar que um chatbot de IA prejudicou a reputação de Walters no tribunal, o processo pode, no entanto, orientar a conversa, já que essas ferramentas continuam a alucinar as reivindicações com calma.


Walters x ChatGPT

No processo , o advogado de Walters alega que o chatbot da OpenAI “publicou material difamatório sobre Walters” quando Fred Riehl, editor-chefe de um site de armas, pediu um resumo de um caso envolvendo o procurador-geral de Washington, Bob Ferguson, e a SAF. .

O ChatGPT implicou Walters no caso e até o identificou como tesoureiro e diretor financeiro da SAF – o que ele não é. Na verdade, Walters não está envolvido com a SAF e o caso que Riehl estava pesquisando não faz menção ao nome de Walters.


A ferramenta de IA até dobrou, gerando passagens inteiras do processo – que nem sequer trata de contabilidade financeira duvidosa – que foram inteiramente inventadas. Como aponta o Gizmodo , a IA até bagunçou o número do caso.

É importante ressaltar que Riehl nunca publicou informações falsas divulgadas pela IA, mas posteriormente contatou os advogados envolvidos no processo em questão.

ChatGPT e outros chatbots de IA semelhantes têm um histórico bem registrado de inventar falsidades totalmente inventadas , uma falha que prejudica profundamente sua utilidade.


Apesar dessas falhas, empresas como a OpenAI e o Google as promoveram como uma nova maneira de recuperar informações – enquanto, estranhamente, alertam constantemente  que seus resultados não devem ser confiáveis.


Causando dano

O advogado de Walters, John Monroe, argumenta agora que ainda devemos responsabilizar essas empresas por esses resultados falhos.

“Embora a pesquisa e o desenvolvimento em IA sejam um esforço que vale a pena, é irresponsável liberar um sistema para o público sabendo que ele fabrica informações que podem causar danos”, disse Monroe ao Gizmodo .

Mas será que as informações fabricadas e divulgadas por pessoas como o ChatGPT poderiam ser consideradas difamação no tribunal?


Eugene Volokh, professor da Faculdade de Direito da Universidade da Califórnia em Los Angeles e autor de um artigo de jornal sobre a responsabilidade legal dos modelos de IA, disse ao Gizmodo que isso não está fora de questão.

“A OpenAI reconhece que pode haver erros, mas [ChatGPT] não é considerado uma piada; não é considerado ficção; não é considerado macacos digitando em uma máquina de escrever”, disse ele ao meio de comunicação.











5 visualizações0 comentário

Yorumlar

5 üzerinden 0 yıldız
Henüz hiç puanlama yok

Puanlama ekleyin
bottom of page