Notícias

ChatGPT é investigado por dar informações falsas sobre pessoas reais

Publicidade



ChatGPT é investigado por dar informações falsas sobre pessoas reais - 1

Empresa responsável pelo desenvolvimento do ChatGPT, a OpenAI está sendo investigada pela Comissão de Comércio (FTC) dos Estados Unidos devido às informações falsas que o chatbot fornece a respeito de pessoais reais.

De acordo com o Washington Post, a FTC solicitou à OpenAI informações mais precisas sobre como a companhia lida com os riscos potenciais de o ChatGPT produzir respostas “falsas, enganosas, depreciativas ou prejudiciais” sobre alguém.

Resposta do ChatGPT

Desde o lançamento do ChatGPT em novembro de 2022, surgiram vários relatos de erros e inconsistências que a IA generativa cometeu ao responder às solicitações dos usuários.


CT no Flipboard: você já pode assinar gratuitamente as revistas Canaltech no Flipboard do iOS e Android e acompanhar todas as notícias em seu agregador de notícias favorito.

Em um dos casos mais emblemáticos, um renomado professor de direito dos Estados Unidos viu o seu nome ser marcado em uma lista de acusados de cometer assédio sexual. Na ocasião, a OpenAI explicou que a IA nem sempre dá respostas precisas e “alucina” de vez em quando.

O próprio CEO da OpenAI Sam Altman chegou a dizer que o ChatGPT é “um produto horrível”, em uma crítica ao layout do chatbot e aos problemas da ferramenta, e afirmou que a empresa espera corrigir completamente as “alucinações” da IA em um ano ou dois.

Após o questionamento da FTC a respeito das respostas falsas do ChatGPT, Altman desabafou no Twitter: “Protegemos a privacidade do usuário e projetamos nossos sistemas para aprender sobre o mundo, não sobre indivíduos particulares.”

O executivo se diz desapontado com as solicitações da FTC. Isso porque, no começo do ano, pediu para o governo norte-americano trabalhar em conjunto com a OpenAI na regulamentação da ferramenta. Apesar disso, Altman garante que vai trabalhar com a Comissão para que o ChatGPT seja “seguro e a favor do usuário”.

Além da questão sobre informações falsas a respeito de pessoas reais, a FTC também questiona a privacidade de dados dos usuários do chatbot e como a empresa obtém dados para o treinamento contínuo da IA generativa.

Uma das ações que a OpenAI realiza para o ChatGPT alucinar menos é utilizar um novo método de treinamento de inteligências artificiais chamado de “Supervisão de processo”. Segundo a empresa, esse método pode gerar respostas mais robustas e fundamentadas, pois encoraja a máquina a seguir cadeias de raciocínio mais humanas.

Trending no Canaltech:

Fonte: Canaltech