Quando o jornalista Fredy Riehl preparava uma notícia acerca de um caso judicial para o site de notícias de armas onde trabalha, resolveu pedir ao ChatGPT para lhe fazer um resumo do caso com base num link para o conteúdo da queixa apresentada pela Fundação Segunda Emenda, que defende os direitos dos portadores de armas.
O que Riehl não esperava é que a resposta fosse uma das já conhecidas e recorrentes "alucinações" do Chat GPT. Em vez de apresentar como acusados o Procurador Geral de Washington e o seu adjunto, respondeu ao jornalista que o acusado era Mark Walters, ex-tesoureiro e responsável financeiro da fundação, por crimes de fraude e desvio de fundos da instituição.
Na sua resposta resumida sobre o processo em tribunal, todas as frases produzidas pelo Chat GPT eram falsas. Walters, que é apresentador de um talk show numa rádio pró-armas, nunca fez parte da Fundação nem sequer é referido no processo, cujo conteúdo nada tem a ver com fraude ou desvio de fundos. Agora, éfoi ele que decidiu recorrer à justiça para obter compensações pela "alucinação" do ChatGPT.
A capacidade do chatbot da OpenAi inventar por completo histórias é um problema conhecido dos fabricantes. E este processo poderá vir a marcar o futuro da indústria quanto à sua responsabilização pelas consequências do que faz a sua ferramenta. Segundo o portal Quartz, há dois aspetos a ter em conta para o sucesso da queixa de Walters.
O primeiro é determinar se ele é uma figura pública ou não. No primeiro caso, terá então de provar que houve intenção maliciosa por parte do chatbot para lhe causar dano, o que não se afigura fácil. Se o tribunal considerar que não é uma figura pública, terá que provar que a OpenAI sabia que aquela afirmação era falsa ou provavelmente falsa.
O segundo aspeto a considerar é se a secção 230 da lei de comunicações de 1996, que dá imunidade as empresas na internet de serem processadas por conteúdos inseridos pelos utilizadores se aplicará também às empresas dos chatbots de inteligência artificial. Por exemplo, quando os motores de busca apresentam informações sobre o tema pesquisado, mostrando conteúdo produzido por outra entidade, não podem ser acusados se o conteúdo for falso. Trata-se então de saber se o conteúdo produzido pelo ChatGPT e outros é considerado como se fosse um motor de busca ou como um conteúdo original.
Para Eugene Volokh, professor na University of California School of Law, é pouco provável que Walters tenha sucesso na sua queixa. Mas tem muitas dúvidas que os chatbots possam gozar da mesma proteção dos motores de busca, dado que não se limitam a citar partes de sites da internet mas produzem o seu próprio conteúdo. Por outro lado, admite este jurista, os chatbots são treinados a partir da informação existente na internet para conseguirem gerar novo conteúdo, o que torna este conteúdo "em certa medida derivadas de material produzido por outros".