Ouça este conteúdo
Um homem na Austrália, Branden Deysel, teve seu processo contra a antiga empresa rejeitado de forma espetacular depois de admitir que baseou toda a ação em orientações do ChatGPT. A tentativa de processar a Electra Lift Co. por demissão injusta rapidamente revelou falhas graves, mostrando os riscos de usar inteligência artificial para aconselhamento jurídico.
Fique por dentro! Receba as notícias do G5 Minas em primeira mão no WhatsApp.
Segundo o The Australian, Deysel entrou com o processo quase dois anos e meio após deixar a empresa. No tribunal, o primeiro problema levantado foi o prazo: ele protocolou a ação com 919 dias de atraso, muito além do limite legal de 21 dias. Além disso, a defesa argumentou que Deysel não havia sido demitido, mas sim pediu demissão em outubro de 2022, o que enfraqueceu ainda mais seu caso.
Durante a audiência, Deysel admitiu que seguiu as sugestões do ChatGPT, que indicou iniciar múltiplas ações judiciais contra a empresa. O vice-presidente da Comissão de Trabalho Justo, Tony Slevin, criticou duramente o processo, classificando-o como “sem esperança” e “totalmente infundado”. Segundo ele, a iniciativa desperdiçou recursos do tribunal e da empresa processada.
O juiz responsável pelo caso destacou o “perigo óbvio” de confiar em inteligência artificial para decisões legais. Especialistas alertam que, apesar de suas capacidades, o ChatGPT não substitui o conhecimento e o aconselhamento de profissionais qualificados, especialmente em situações que envolvem direitos trabalhistas.







