Não compartilhe esses dados com IAs como ChatGPT e DeepSeek, alerta especialista
- Martello Contabilidade
- 5 de fev.
- 3 min de leitura
Tecnologias como chatbots de inteligência artificial estão crescendo em popularidade, mas é preciso ter alguns cuidados.
Cuidados são necessários ao utilizar IAs como ChatGPT
A startup chinesa DeepSeek anunciou o lançamento de uma nova ferramenta de inteligência artificial no estilo chatbot, gerando comparações com o popular ChatGPT, da OpenIA. Alguns profissionais da área, inclusive, citam formas em que a DeepSeek pode superar a rival americana, fato que causou um turbilhão no mercado de tecnologia mundial.
À medida que mais modelos de IA se popularizam, cresce também a necessidade de cuidado com quais tipos de informação pessoais essas ferramentas possuem acesso e o que ela tem autorização para fazer com elas. Como os dados são, na maior parte das vezes, oferecidos voluntariamente pelos próprios usuários, O TEMPO conversou com um especialista que alertou sobre as melhores práticas para manter as trocas com ChatGPT, Meta IA ou DeepSeek seguras.
Cuidados com chatbots de IA?
Paulo Furiati, especialista em segurança da informação, afirma que o primeiro passo é ler atentamente os termos de uso e políticas de privacidade das ferramentas de IA, independente da empresa que a desenvolveu. É lá que elas são obrigadas a detalhar como tratarão os dados dos usuários. “Embora muitos negligenciem essa etapa, é nela que residem informações cruciais sobre a coleta, tratamento e proteção dos seus dados”. Quando for, de fato, utilizar, algumas informações devem ser evitadas.
“Não devem ser inseridos ou compartilhados dados pessoais (RG, CPF, etc.), endereços, informações bancárias e financeiras, senhas, dados de saúde), no uso pessoal. Já no corporativo, dados e informações de clientes devem ser usados com a máxima cautela, principalmente nas versões “free” das plataformas. Informações de projetos internos e sigilosos e até mesmo códigos de desenvolvimento de programas devem ter seu compartilhamento minuciosamente avaliado antes da inserção nestas plataformas”, ressaltou Furiati.
‘Conversas’ podem ser usadas para criação de novas ferramentas
Relatos virais de pessoas que utilizam plataformas de inteligência artificial para fins particulares ganharam visibilidade recentemente, com influencers, inclusive, ensinando a “fazer terapia” pelo ChatGPT. Essas conversas, porém, não são protegidas pela ética de psicólogos e podem ser utilizadas pelas empresas de tecnologia de diferentes maneiras. Uma delas é no treinamento de novos modelos de IA.
Como explicou o especialista Paulo Furiati, esse é um dos pontos cruciais na utilização de IAs. “As plataformas oferecem serviços pagos e gratuitos. Normalmente, nas versões gratuitas, elas utilizam os dados compartilhados pelos usuários para treinar modelos de IA de forma pública, para todos os outros usuários”.
“Já nos Serviços Pagos, dados são usados para treinar modelos de IA no domínio da sua conta, restringindo o compartilhamento aos usuários pertencentes àquele domínio. Se a privacidade for uma preocupação, algumas plataformas oferecem opções para desativar o armazenamento do histórico de conversas”, aconselhou.
O que a legislação protege?
Apesar de leis pensarem em formas de proteger os usuários de possíveis danos causados por essas ‘novas’ tecnologias, ela não consegue cobrir todos os cenários. Por isso, a ação cuidadosa dos usuários é ainda mais importante.
“Embora existam diversas legislações ao redor do mundo, como a Lei Geral de Proteção de Dados (LGPD) no Brasil e o Regulamento Geral sobre a Proteção de Dados (GDPR) na União Europeia, a existência dessas leis não garante automaticamente a segurança dos dados. A responsabilidade principal ainda recai sobre o titular”, completou Furiati.
O que não compartilhar com IAs como ChatGPT e DeepSeek?
Dados de identificação (CPF, RG, passaporte e CNH);
Informações financeiras (dados bancários, cartões de crédito e senhas);
Dados de saúde (resultados de exames e diagnósticos médicos);
Localização exata (endereço residencial e geolocalização precisa);
Biometria (impressões digitais e reconhecimento facial).
“Tudo isso deve ser compartilhado apenas em casos absolutamente necessários, sempre em plataformas seguras e confiáveis”, completou.
Fonte: O Tempo, por Débora Elisa.
Comentarios