Um caso envolvendo duas advogadas no Pará tem chamado a atenção após a aplicação de ‘prompt injection’, uma técnica de manipulação de inteligência artificial. Alcina Medeiros e Luanna Alves foram multadas em R$ 84,2 mil por tentarem enganar o sistema de IA do Tribunal Regional do Trabalho da 8ª Região (TRT-8) ao inserir um comando em uma petição que solicitava uma análise superficial de um documento.
A prática, identificada pelo juiz Luis Carlos de Araujo Santos Júnior, foi considerada um “ato contra a dignidade da Justiça”. As advogadas afirmaram que não concordam com a decisão e que sua intenção era proteger o cliente da IA.
O sistema de IA, denominado Galileu, conseguiu detectar os comandos ocultos e emitiu um alerta, levando a uma verificação humana antes da aplicação de qualquer penalidade. O caso ilustra os riscos da injeção de comandos, que já foi utilizada em ataques cibernéticos para manipular sistemas e acessar dados confidenciais.
A injeção de comandos é uma preocupação crescente na cibersegurança, tendo sido identificada em 2022 por pesquisadores que alertaram sobre as vulnerabilidades em modelos de linguagem amplamente utilizados.


