Advogados, IA e o silêncio da Ordem: porque o seu ChatGPT gratuito é hoje um problema sério
Advogados portugueses usam IA sem proteção: Estatuto da OA, RGPD e AI Act aplicam-se mesmo sem parecer da Ordem. Casos reais, riscos, implementação técnica.
A Ordem dos Advogados portuguesa ainda não emitiu parecer vinculativo sobre o uso de IA generativa pelos seus membros. Em setembro de 2025, lançou um curso — "IA Responsável na Prática Jurídica", 2.000 inscritos em cinco dias — e anunciou uma ferramenta interna (IAOA). Mas a regulação formal não veio.
Entretanto, o que já chegou são três camadas de responsabilidade que não estão a pedir licença à Ordem para se aplicarem: o artigo 92.º do Estatuto da OA, o RGPD, e o AI Act da UE.
Este artigo explica porque o advogado que evita IA tem hoje o risco todo sem ter o benefício — e o que muda se a usar como deve.
Uso sombra: o problema real nos escritórios portugueses
Segundo o Clio Legal Trends Report 2025, 79% dos profissionais do direito já usam IA. Mas apenas 40% em ferramentas jurídicas dedicadas. Os outros 60% estão em ChatGPT, Claude ou Gemini — frequentemente em contas pessoais gratuitas, onde o conteúdo inserido pode ser usado para treinar o modelo seguinte.
Não é que os advogados não saibam disto. É que o uso aconteceu antes da política. O junior cola uma peça no ChatGPT às 22h para ganhar tempo. O colega testa o Claude no telemóvel para resumir um processo. Individual, sem política do escritório, sem registo, sem redaction de dados pessoais do cliente.
O escritório tem a responsabilidade — mas não tem nem o controlo, nem o benefício da ferramenta a funcionar como deve.
Porque "não usar IA" não é a resposta segura
A tentação é proibir. Mas proibir sem controlar é proibir no papel e permitir na prática. Os advogados que evitam IA institucionalmente têm colaboradores que a usam informalmente. E o risco, nesse caso, é pior: é invisível.
A resposta segura não é a ausência de IA. É saber:
- Em que ferramenta se usa
- Em que tipo de conta (Enterprise, Team, API)
- Sob que cláusulas contratuais (DPA, retenção, treino)
- Com que política interna e registo de uso
Três camadas de responsabilidade que já se aplicam hoje
Artigo 92.º do Estatuto da OA — sigilo profissional
O artigo 92.º é categórico: o advogado está obrigado a segredo profissional relativamente a toda a informação que lhe seja confiada pelo cliente. Não há excepção para "mas só colei no ChatGPT gratuito para resumir".
Quando um texto com dados pessoais do cliente (nome, NIF, matéria do processo, morada) é colado numa ferramenta cuja política pública permite uso dos inputs para treino futuro — como o ChatGPT gratuito — há um envio de informação protegida a terceiro, sem consentimento, fora do quadro do sigilo.
Não é opinião. Resulta da política de dados pública da própria OpenAI.
RGPD — coimas até 20 milhões de euros
O Regulamento Geral de Proteção de Dados não precisa de parecer da Ordem dos Advogados para se aplicar. Desde 2018 que a CNPD (Comissão Nacional de Protecção de Dados) tem competência para aplicar coimas até 20 milhões de euros ou 4% do volume de negócios global, o que for mais alto.
A partir do momento em que um advogado introduz dados pessoais do cliente numa plataforma que não tem com ele um contrato de processamento de dados (DPA — Data Processing Agreement), há uma transmissão de dados a terceiro sem base legal adequada. É quanto basta para um processo na CNPD.
AI Act — 2 de agosto de 2026
O Regulamento (UE) 2024/1689 — AI Act — classifica administração da justiça e processos democráticos como sistemas de IA de alto risco (Anexo III, ponto 8). As obrigações plenas para operadores de sistemas de alto risco entram em aplicação a 2 de agosto de 2026.
Entre as obrigações: documentação técnica, registo de uso, supervisão humana, transparência, avaliação de impacto. Não é opcional.
Mesmo que o advogado não seja "operador" no sentido restrito do AI Act, o uso de IA no exercício profissional cai dentro do perímetro de conformidade — e a ausência de política interna e registo será difícil de justificar a partir de agosto de 2026.
Já aconteceu — em Portugal e lá fora
Portugal, novembro de 2024
Um acórdão do Tribunal da Relação de Lisboa citou um artigo 22.º da Lei 34/87 que não existe, e jurisprudência inventada. Foi identificado pelos advogados das partes, que pediram a nulidade. O Conselho Superior da Magistratura (CSM) abriu processo disciplinar ao juiz relator. É o primeiro caso público documentado em Portugal.
Fontes: Público e Observador, 24-25 de novembro de 2024.
Internacional
Mata v. Avianca (EUA, 2023): advogados nova-iorquinos apresentaram uma moção citando seis casos fictícios gerados pelo ChatGPT. Foram multados em 5.000 USD. Marcou o precedente internacional.
Ayinde v. Haringey (Reino Unido, 2025): wasted costs order contra os advogados por jurisprudência inventada submetida ao tribunal.
A base Damien Charlotin cataloga já mais de 120 decisões judiciais em todo o mundo onde se documentou hallucination de IA — e o número cresce mensalmente.
Uso profissional de IA em advocacia existe. É outra coisa.
O advogado pode e deve usar IA — mas em condições que o protegem:
- Conta Enterprise ou Team com Data Processing Agreement assinado com a OpenAI, Anthropic, Microsoft ou Google — e política de retenção zero (o input não é usado para treino, é apagado passado X horas)
- API com cláusula contratual expressa de não uso para treino (disponível em OpenAI, Anthropic, Azure OpenAI)
- Redaction automática de nomes, NIF, morada, número de processo, antes do prompt sair do escritório para o LLM
- Prompt guardrails — regras técnicas que impedem certos tipos de input (ex: nunca colar texto de um processo sem redaction)
- Política interna escrita — quem pode usar, em que ferramentas, para que tarefas, com que registo
- Registo de uso — para fins de supervisão, prestação de contas disciplinar e, a partir de agosto de 2026, conformidade com o AI Act
Onde entra a camada técnica
Entre a decisão jurídica (que compete ao advogado) e a infraestrutura (contas, DPAs, redaction), falta uma camada de implementação operacional. É aí que a G.A.M Digital opera.
Implementamos:
- Configuração da conta Enterprise/Team com DPA
- Fluxo de redaction automática no escritório (antes do prompt chegar ao modelo)
- Política interna escrita e registo de utilização
- Formação curta à equipa (o mínimo necessário para o uso seguro)
- Integração com o sistema de gestão documental existente
Não damos conselho jurídico. Não interpretamos o Regulamento. A decisão deontológica fica onde pertence — com o advogado e com a Ordem.
Próximo passo
Se dirige um escritório de advocacia em Portugal e reconhece neste diagnóstico o que já se passa no seu escritório — mesmo que ninguém ainda tenha levantado a mão —, há uma conversa inicial sem custo.
Agosto de 2026 é daqui a meses. A Ordem não vai esperar. E a CNPD já não está a esperar.
Este artigo não constitui aconselhamento jurídico. A análise deontológica e jurídica é da competência do advogado e da Ordem dos Advogados.