آی نو؛ مرجع تخصصی اخبار و آموزش هوش مصنوعی

استناد به نقل‌قول‌های جعلی تولیدشده با هوش مصنوعی

استناد به نقل‌قول‌های جعلی تولیدشده با هوش مصنوعی

یک وکیل ارشد در استرالیا به‌دلیل ارسال لوایحی در پرونده قتل که حاوی نقل‌قول‌های ساختگی و ارجاعات به آرای دادگاهی بود که وجودنداشته (همگی تولیدشده توسط ابزار هوش مصنوعی)، از قاضی عذرخواهی کرد. این خطا باعث تأخیر ۲۴ ساعته در رسیدگی پرونده شد و بار دیگر نگرانی‌ها درباره به‌کارگیری بدون…

- اندازه متن +

یک وکیل ارشد در استرالیا به‌دلیل ارسال لوایحی در پرونده قتل که حاوی نقل‌قول‌های ساختگی و ارجاعات به آرای دادگاهی بود که وجودنداشته (همگی تولیدشده توسط ابزار هوش مصنوعی)، از قاضی عذرخواهی کرد. این خطا باعث تأخیر ۲۴ ساعته در رسیدگی پرونده شد و بار دیگر نگرانی‌ها درباره به‌کارگیری بدون نظارتِ AI در فرایندهای قضایی را پررنگ کرد.

به گزارش اسوشیتدپرس، ریشی ناثوانی (Rishi Nathwani)، وکیل مدافع با عنوان حقوقی King’s Counsel، «تمام مسئولیت» درج اطلاعات نادرست در لوایح دفاعیِ مربوط به پرونده نوجوان متهم به قتل را پذیرفت. او روز چهارشنبه در دادگاه عالی ایالت ویکتوریا به نمایندگی از تیم دفاع گفت: «برای آنچه رخ داد، عمیقاً متأسف و شرمساریم.»

قاضی جیمز الیوت (Justice James Elliott) قصد داشت رسیدگی را همان روز خاتمه دهد، اما خطاهای ناشی از هوش مصنوعی باعث یک روز تأخیر شد. الیوت روز پنجشنبه رأی داد که موکلِ ناثوانی—به‌دلیل اختلال روانی—در خصوص اتهام قتل «بی‌گناه» است.

قاضی الیوت پنجشنبه به وکلا گفت: «به بیان حداقلی، نحوه رخ‌دادِ این وقایع، ناامیدکننده است.» او تأکید کرد: «توانایی دادگاه برای اتکا به دقتِ مطالب ارائه‌شده از سوی وکلا، سنگ‌بنای اجرای صحیح عدالت است.»

ماجرای این نقل‌قول‌های ساختگی

مطالب جعلی شامل نقل‌قول‌های ساختگی از یک نطق در مجلس ایالتی و ارجاعات (سیتیشن) به آرای دیوان عالی بود که اساساً وجود خارجی نداشتند. این خطا زمانی برملا شد که دستیاران قاضی نتوانستند پرونده‌های ارجاع‌شده را بیابند و از تیم دفاع خواستند نسخه‌ها را ارائه کنند. وکلا در اسناد دادگاه پذیرفتند که «ارجاعات وجود ندارند» و «نقل‌قول‌ها ساختگی» بوده است.

وکلای مدافع توضیح دادند که بخشی از ارجاعات اولیه را بررسی کرده بودند و به‌اشتباه فرض کردند بقیه نیز صحیح است. این لوایح برای دادستان، دانیل پورچدو (Daniel Porceddu)، نیز ارسال شده بود؛ او هم صحت ارجاعات را کنترل نکرد.

قاضی یادآور شد که دیوان عالی سال گذشته دستورالعمل‌هایی درباره استفاده وکلا از هوش مصنوعی منتشر کرده است: «به‌کارگیری AI قابل قبول نیست مگر آنکه محصولِ آن به‌طور مستقل و موشکافانه راستی‌آزمایی شود.» اسناد دادگاه مشخص نکرده‌اند که تیم دفاع از کدام سامانه مولد استفاده کرده است.

رخداد اخیر، تازه‌ترین نمونه از مجموعه خطاهایی است که هوش مصنوعی در نظام‌های قضایی جهان رقم زده است. در پرونده‌ای مشابه در آمریکا (۲۰۲۳)، یک قاضی فدرال دو وکیل و یک مؤسسه حقوقی را به‌دلیل استناد به پژوهش حقوقیِ جعلیِ منتسب به ChatGPT به پرداخت ۵ هزار دلار جریمه محکوم کرد. قاضی پی. کوین کَسْتل (P. Kevin Castel) رفتار آن‌ها را «بدنیت» خواند، اما عذرخواهی و اقدامات اصلاحی‌شان را در تخفیف مجازات مؤثر دانست.

برای مطالعه اخبار بیشتر اینجا کلیک کنید.

در همان سال، وکلای مایکل کوهن—وکیل پیشین دونالد ترامپ—نیز در لوایح خود به آرای جعلیِ تولیدشده توسط AI استناد کردند. کوهن مسئولیت را پذیرفت و گفت نمی‌دانسته ابزار جست‌وجوی گوگل که برای تحقیق حقوقی استفاده می‌کرد، دچار «هَلوسینیشن» هوش مصنوعی می‌شود.

در بریتانیا، قاضی عالی ویکتوریا شارپ (Victoria Sharp) در ژوئن هشدار داد ارائه محتوای ساختگی به‌عنوان ادله معتبر می‌تواند «توهین به دادگاه» تلقی شود یا در «موارد حاد»، مصداق «تحریف مسیر عدالت» باشد که مجازات آن می‌تواند تا حبس ابد باشد.

خلاصه خبر در یک نگاه

یک وکیل ارشد استرالیایی (Rishi Nathwani، با عنوان King’s Counsel) بابت ارائه لوایحی حاوی نقل‌قول‌های ساختگی و ارجاعات حقوقیِ وجودنداشته که با هوش مصنوعی تولید شده بود، در دیوان عالی ویکتوریا عذرخواهی کرد.

خطاها باعث تأخیر ۲۴ ساعته در رسیدگی شدند؛ با این حال قاضی جیمز الیوت در نهایت متهمِ نوجوان را به دلیل اختلال روانی از اتهام قتل تبرئه کرد.

جعلی‌بودن نقل‌قول‌ها زمانی مشخص شد که دستیاران قاضی نتوانستند منابع را بیابند و تیم دفاع اعتراف کرد ارجاعات «وجود ندارند».

قاضی یادآور شد استفاده از AI فقط زمانی پذیرفتنی است که خروجی به‌صورت مستقل و دقیق راستی‌آزمایی شود؛ راهنمای رسمی دادگاه درباره کاربست AI از سال گذشته منتشر شده است.

سیستم مولدِ مورد استفاده مشخص نشد. موارد مشابه در آمریکا (جریمه ۵۰۰۰ دلاری برای استناد به محتوای جعلی منتسب به ChatGPT) و هشدار اخیر قضات بریتانیا درباره تبعات حقوقیِ ارائه محتوای ساختگی نیز پیش‌تر خبرساز شده بود.

درباره نویسنده

تحریریه آی نو

ارسال دیدگاه
0 دیدگاه

نظر شما در مورد این مطلب چیه؟

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *