یک وکیل ارشد در استرالیا بهدلیل ارسال لوایحی در پرونده قتل که حاوی نقلقولهای ساختگی و ارجاعات به آرای دادگاهی بود که وجودنداشته (همگی تولیدشده توسط ابزار هوش مصنوعی)، از قاضی عذرخواهی کرد. این خطا باعث تأخیر ۲۴ ساعته در رسیدگی پرونده شد و بار دیگر نگرانیها درباره بهکارگیری بدون نظارتِ AI در فرایندهای قضایی را پررنگ کرد.

به گزارش اسوشیتدپرس، ریشی ناثوانی (Rishi Nathwani)، وکیل مدافع با عنوان حقوقی King’s Counsel، «تمام مسئولیت» درج اطلاعات نادرست در لوایح دفاعیِ مربوط به پرونده نوجوان متهم به قتل را پذیرفت. او روز چهارشنبه در دادگاه عالی ایالت ویکتوریا به نمایندگی از تیم دفاع گفت: «برای آنچه رخ داد، عمیقاً متأسف و شرمساریم.»
قاضی جیمز الیوت (Justice James Elliott) قصد داشت رسیدگی را همان روز خاتمه دهد، اما خطاهای ناشی از هوش مصنوعی باعث یک روز تأخیر شد. الیوت روز پنجشنبه رأی داد که موکلِ ناثوانی—بهدلیل اختلال روانی—در خصوص اتهام قتل «بیگناه» است.
قاضی الیوت پنجشنبه به وکلا گفت: «به بیان حداقلی، نحوه رخدادِ این وقایع، ناامیدکننده است.» او تأکید کرد: «توانایی دادگاه برای اتکا به دقتِ مطالب ارائهشده از سوی وکلا، سنگبنای اجرای صحیح عدالت است.»
ماجرای این نقلقولهای ساختگی
مطالب جعلی شامل نقلقولهای ساختگی از یک نطق در مجلس ایالتی و ارجاعات (سیتیشن) به آرای دیوان عالی بود که اساساً وجود خارجی نداشتند. این خطا زمانی برملا شد که دستیاران قاضی نتوانستند پروندههای ارجاعشده را بیابند و از تیم دفاع خواستند نسخهها را ارائه کنند. وکلا در اسناد دادگاه پذیرفتند که «ارجاعات وجود ندارند» و «نقلقولها ساختگی» بوده است.
وکلای مدافع توضیح دادند که بخشی از ارجاعات اولیه را بررسی کرده بودند و بهاشتباه فرض کردند بقیه نیز صحیح است. این لوایح برای دادستان، دانیل پورچدو (Daniel Porceddu)، نیز ارسال شده بود؛ او هم صحت ارجاعات را کنترل نکرد.
قاضی یادآور شد که دیوان عالی سال گذشته دستورالعملهایی درباره استفاده وکلا از هوش مصنوعی منتشر کرده است: «بهکارگیری AI قابل قبول نیست مگر آنکه محصولِ آن بهطور مستقل و موشکافانه راستیآزمایی شود.» اسناد دادگاه مشخص نکردهاند که تیم دفاع از کدام سامانه مولد استفاده کرده است.
رخداد اخیر، تازهترین نمونه از مجموعه خطاهایی است که هوش مصنوعی در نظامهای قضایی جهان رقم زده است. در پروندهای مشابه در آمریکا (۲۰۲۳)، یک قاضی فدرال دو وکیل و یک مؤسسه حقوقی را بهدلیل استناد به پژوهش حقوقیِ جعلیِ منتسب به ChatGPT به پرداخت ۵ هزار دلار جریمه محکوم کرد. قاضی پی. کوین کَسْتل (P. Kevin Castel) رفتار آنها را «بدنیت» خواند، اما عذرخواهی و اقدامات اصلاحیشان را در تخفیف مجازات مؤثر دانست.
برای مطالعه اخبار بیشتر اینجا کلیک کنید.

در همان سال، وکلای مایکل کوهن—وکیل پیشین دونالد ترامپ—نیز در لوایح خود به آرای جعلیِ تولیدشده توسط AI استناد کردند. کوهن مسئولیت را پذیرفت و گفت نمیدانسته ابزار جستوجوی گوگل که برای تحقیق حقوقی استفاده میکرد، دچار «هَلوسینیشن» هوش مصنوعی میشود.
در بریتانیا، قاضی عالی ویکتوریا شارپ (Victoria Sharp) در ژوئن هشدار داد ارائه محتوای ساختگی بهعنوان ادله معتبر میتواند «توهین به دادگاه» تلقی شود یا در «موارد حاد»، مصداق «تحریف مسیر عدالت» باشد که مجازات آن میتواند تا حبس ابد باشد.
خلاصه خبر در یک نگاه
یک وکیل ارشد استرالیایی (Rishi Nathwani، با عنوان King’s Counsel) بابت ارائه لوایحی حاوی نقلقولهای ساختگی و ارجاعات حقوقیِ وجودنداشته که با هوش مصنوعی تولید شده بود، در دیوان عالی ویکتوریا عذرخواهی کرد.
خطاها باعث تأخیر ۲۴ ساعته در رسیدگی شدند؛ با این حال قاضی جیمز الیوت در نهایت متهمِ نوجوان را به دلیل اختلال روانی از اتهام قتل تبرئه کرد.
جعلیبودن نقلقولها زمانی مشخص شد که دستیاران قاضی نتوانستند منابع را بیابند و تیم دفاع اعتراف کرد ارجاعات «وجود ندارند».
قاضی یادآور شد استفاده از AI فقط زمانی پذیرفتنی است که خروجی بهصورت مستقل و دقیق راستیآزمایی شود؛ راهنمای رسمی دادگاه درباره کاربست AI از سال گذشته منتشر شده است.
سیستم مولدِ مورد استفاده مشخص نشد. موارد مشابه در آمریکا (جریمه ۵۰۰۰ دلاری برای استناد به محتوای جعلی منتسب به ChatGPT) و هشدار اخیر قضات بریتانیا درباره تبعات حقوقیِ ارائه محتوای ساختگی نیز پیشتر خبرساز شده بود.
نظر شما در مورد این مطلب چیه؟