Em pouquíssimo tempo, o ChatGPT se tornou uma ferramenta bastante conhecida no mundo da tecnologia e amplamente utilizada em organizações. Seu modelo de linguagem avançado é capaz de diversas tarefas úteis ao dia a dia dos negócios, como resumir textos, criar modelos de e-mail e respostas a solicitações diversas, gerar códigos, entre muitas outras, o que contribui para agilizar processos e potencializar o trabalho de todos.
No entanto, à medida em que seu uso se expande, mais atenção tem sido dada aos riscos associados. Nesse contexto, organizações têm se preocupado em conhecer tais riscos e adotar medidas adequadas para minimizá-los.
Assim, uma solução que tem sido cogitada é a elaboração de políticas de uso seguro da ferramenta, que guiem os utilizadores quanto às práticas aceitáveis e inaceitáveis.
Nesse contexto, resolvi perguntar ao ChatGPT se ele entendia que era o caso de empresas elaborarem referida política e, caso afirmativo, se ele poderia me ajudar a desenvolvê-la.
Como resultado, em colaboração, eu e ChatGPT criamos uma política abrangente e detalhada, que leva em consideração uma série de riscos potenciais que as organizações podem enfrentar ao utilizar essa ferramenta. A seguir, você confere alguns dos riscos destacados na política e as correspondentes condutas esperadas dos colaboradores para mitigá-los:
1) Riscos de qualidade: o ChatGPT pode produzir resultados imprecisos, especialmente quando solicitado a realizar tarefas computacionais ou mencionar precedentes jurídicos.
Os funcionários devem:
— revisar cuidadosamente as saídas do ChatGPT para identificar e corrigir quaisquer erros.
— ser treinados sobre como identificar e corrigir erros nas saídas do ChatGPT.
— procurar revisores designados pela empresa para revisar as saídas geradas pelo ChatGPT para tarefas críticas, como pareceres jurídicos, relatórios financeiros e comunicações com clientes.
Riscos contratuais
O uso do ChatGPT pode violar as disposições contratuais com os clientes em relação aos fins para os quais seus dados podem ser utilizados.
Os funcionários devem:
— se familiarizar com os termos de uso da OpenAI antes de usar o ChatGPT.
— procurar aconselhamento jurídico, se necessário, antes de usar o ChatGPT para processar dados de clientes.
Riscos de privacidade
O compartilhamento de informações pessoais com a OpenAI por meio do ChatGPT pode criar riscos de privacidade e contrariar as políticas de privacidade da empresa.
Os funcionários devem:
— estar cientes dos riscos de privacidade associados ao compartilhamento de informações pessoais por meio do ChatGPT.
— inserir no ChatGPT apenas dados que tenham sido desidentificados ou anonimizados, sempre que possível.
— procurar aconselhamento interno, se necessário, antes de imputar dados pessoais.
Riscos de fornecedores
O uso do ChatGPT por fornecedores pode gerar riscos à empresa, como a quebra de confidencialidade.
Os funcionários devem:
— garantir que os contratos com fornecedores proíbam ou limitem a inserção de dados da empresa (em especial aqueles confidenciais) no ChatGPT.
Riscos de propriedade intelectual
O uso do ChatGPT apresenta riscos de violação de direitos autorais e segredos comerciais.
Os funcionários devem:
— procurar aconselhamento jurídico antes de usar o ChatGPT para processar dados confidenciais ou gerar conteúdo que possa estar sujeito a proteção por direitos autorais ou segredos comerciais.
Riscos de segurança cibernética
O uso do ChatGPT pode trazer riscos de segurança cibernética se dados pessoais ou informações confidenciais forem inseridos no sistema.
Os funcionários devem:
— estar atentos aos dados que inserem no ChatGPT e devem evitar imputar dados pessoais e informações críticas como senhas, informações financeiras etc. na plataforma.
Riscos de vieses
O ChatGPT pode apresentar resultados enviesados em suas respostas com base nos dados em que foi treinado.
Os funcionários devem:
— estar cientes do potencial de viés nas respostas do ChatGPT
— fazer esforços para avaliar e mitigar qualquer viés na informação gerada, a qual deve ser justa e imparcial e não discriminatória.
Esse interessante exercício em colaboração com o ChatGPT mostrou que há muito o que considerar em relação ao uso da referida ferramenta (e tecnologias semelhantes) e que, a depender do contexto, pode fazer sentido, sim, criar política para o uso seguro, responsável e ético, a fim de mitigar riscos para a organização. É claro que esse esforço tem de ser bem dimensionado para não burocratizar excessivamente o dia a dia dos colaboradores e, consequentemente, reduzir a capacidade inovadora e agilidade da empresa.
Paulo Vidigal é sócio do escritório Prado Vidigal, especializado em Direito Digital, Privacidade e Proteção de Dados.