Au Pakistan, un juge utilise ChatGPT pour rendre son verdict dans une affaire d'enlèvement

Dans un tribunal du Punjab, au Pakistan, le juge Muhammad Amir Munir s'est fié à ChatGPT-4 pour analyser une affaire où un jeune de 13 ans est accusé d'avoir kidnappé un enfant de 9 ans, raconte le média pakistanais Samaa.
L'enfant victime, le fils du plaignant, aurait été emmené sous la menace d'une arme à feu dans un endroit désert, afin de tenter d'abuser de lui. Après l'arrivée de témoins, l'auteur présumé aurait fuit les lieux.
Le verdict daté du 29 mars indique que cette intelligence artificielle a été utilisée pour expérimenter l'usage de cette technologie par la justice pour rendre des "décisions précises et pertinentes, en accord avec la loi".
Plusieurs erreurs
La Cour a posé plusieurs questions juridiques à GPT-4, qu'elle détaille dans son verdict. Face à l'interrogation d'accorder ou non une remise en liberté sous caution dans cette affaire, le chatbot présente par exemple plusieurs options, et indique que: "Si la Cour détermine que ce jeune ne pose pas un risque pour la sécurité publique, et ne l'estime pas susceptible d'interférer avec les invesgations, alors la Cour peut accorder une remise en liberté sous caution."
A plusieurs reprises, l'IA a généré des analyses juridiques erronnées, mais la Cour écrit avoir été "impressionnée" par sa capacité à se corriger lorsqu'elle lui faisait remarquer. Dans ses observations, la Cour note que les technologies d'intelligence artificielle ont un "grand potentiel d'exploration dans le système judiciaire au Pakistan".
En conséquence, l'adolescent de 13 ans a été libéré en l'échange d'une caution de 50.000 roupies indiennes (environ 550 euros). En février, un juge colombien avait aussi admis avoir utilisé ChatGPT pour décider si l'assurance d'un enfant autiste devait couvrir tous les coûts de son traitement médical.