Problema de privacidade: por que países querem proibir o ChatGPT?

Veronyre Grugg
Veronyre Grugg

Em apenas dois meses, o ChatGPT teve uma adesão surpreendente de mais de 100 milhões de usuários. O público ficou fascinado pelas respostas da inteligência artificial que alimenta o chatbot, mas problemas de privacidade começaram a aparecer. Com isso, autoridades de regulação de diversos países apertem o certo em torno da OpenAI.

Em 20 de março, um bug resultou no vazamento de dados, como nomes, e-mails, endereços e dados de cartão de crédito de 1,2% dos assinantes do ChatGPT Plus. Os históricos de conversas de usuários também foram expostos. A vulnerabilidade durou nove horas e só foi descoberta quatro dias depois pela empresa de cybersegurança Greynoise.

Isso fez com que a autoridade de proteção de dados da Itália questionasse a transparência na coleta de dados dos usuários e solicitasse um bloqueio temporário da IA. Caso a medida seja descumprida, a OpenAI deve pagar uma multa de 20 milhões de euros. Além disso, outros 30 países não contam com os serviços do chatbot.

Como o ChatGPT usa os dados?

O ChatGPT usa um banco de dados com mais de 300 bilhões de palavras, coletadas da internet de livros, artigos, sites e postagens, para elaborar textos a partir de um algoritmo. Isso torna possível que o chatbot responda perguntas sobre praticamente qualquer tema com um conteúdo muito próximo da linguagem humana.

Veja mais: ‘Risco para a humanidade’; Musk e grupo pedem pausa em ChatGPT e rivais.
Em sua política de privacidade, a OpenAI esclarece que são coletados dados pessoais do usuário, conteúdo utilizado na plataforma, informações de redes sociais, registros de navegação de forma automatizada, entre outros. O objetivo, segundo a empresa, é “desenvolver novos programas e serviços”, evitar fraudes e cumprir obrigações legais.

Os dados coletados podem ser fornecidos, sem aviso prévio, para empresas afiliadas, fornecedores de serviços e parceiros de negócios da OpenAI, além de cumprimento de medidas judiciais. Segundo a companhia, as informações são retidas apenas pelo tempo necessário para seus objetivos comerciais e podem ser anonimizadas para pesquisas.

Quais são os problemas de privacidade?
A política de privacidade do ChatGPT menciona os direitos de usuários do Espaço Comum Europeu, Reino Unido, Suíça e da Califórnia, mas falha em fornecer informações básicas sobre o processamento de dados pessoais, conforme a Lei Geral de Proteção de Dados Pessoais do Brasil e o Regulamento Geral sobre Proteção de Dados da Europa.

A OpenAI não esclarece de forma precisa, por exemplo, a duração do armazenamento das informações e nem em quais países elas são utilizadas. O chatbot não determina com exatidão como os usuários podem revogar as permissões para o uso de seus dados pessoais e nem deixa transparente como essas informações são processadas.

Além disso, existem preocupações sobre direitos autorais. A OpenAI deve faturar mais de US$ 1 bilhão em 2024, mas não paga para usar as informações coletadas na internet que foram geradas por terceiros. Embora comprovar o plágio em textos seja difícil, já existem processos contra modelo generativo de imagens, como Stability AI e Midjourney.

Devemos parar de usar o ChatGPT?
O ChatGPT contribui para elevar a produtividade na produção de conteúdo e parar de utilizá-lo parece não ser uma opção. Contudo, é necessário tomar cuidado com as informações compartilhadas, especialmente se pediram sigilo pessoal ou comercial, pois há um grande risco de serem usadas sem o consentimento expresso do usuário.

Share This Article