آی نو؛ مرجع تخصصی اخبار و آموزش هوش مصنوعی

قانون جدید هوش مصنوعی در کالیفرنیا برای حفاظت از کودکان و کاربران آسیب‌پذیر

قانون جدید هوش مصنوعی در کالیفرنیا برای حفاظت از کودکان و کاربران آسیب‌پذیر

لایحه SB 243 ربات‌های همدم هوش مصنوعی را تنظیم می‌کند کالیفرنیا گام بزرگی در جهت تنظیم هوش مصنوعی برداشته است. لایحه SB 243 که ربات‌های همدم هوش مصنوعی را به منظور محافظت از افراد زیر سن قانونی و کاربران آسیب‌پذیر تنظیم می‌کند، با حمایت هر دو حزب در مجلس ایالتی…

- اندازه متن +

لایحه SB 243 ربات‌های همدم هوش مصنوعی را تنظیم می‌کند

کالیفرنیا گام بزرگی در جهت تنظیم هوش مصنوعی برداشته است. لایحه SB 243 که ربات‌های همدم هوش مصنوعی را به منظور محافظت از افراد زیر سن قانونی و کاربران آسیب‌پذیر تنظیم می‌کند، با حمایت هر دو حزب در مجلس ایالتی و سنا تصویب شد و اکنون به دفتر فرماندار گاوین نیوسام می‌رود.

نیوسام تا ۱۲ اکتبر فرصت دارد تا این لایحه را وتو کند یا آن را به قانون تبدیل کند. در صورت امضا، این قانون از اول ژانویه ۲۰۲۶ اجرایی می‌شود و کالیفرنیا را به اولین ایالتی تبدیل می‌کند که از اپراتورهای ربات‌های گفتگو هوش مصنوعی می‌خواهد پروتکل‌های ایمنی را برای همراهان هوش مصنوعی اجرا کنند و شرکت‌ها را از نظر قانونی مسئول می‌داند اگر ربات‌های آن‌ها نتوانند این استانداردها را رعایت کنند.

جزئیات لایحه SB 243

این لایحه به طور خاص با هدف جلوگیری از ربات‌های همدم، که قانون آن‌ها را به عنوان سیستم‌های هوش مصنوعی تعریف می‌کند که پاسخ‌های تطبیقی و شبیه به انسان ارائه می‌دهند و قادر به تأمین نیازهای اجتماعی کاربر هستند، از درگیر شدن در مکالمات پیرامون تفکرات خودکشی، آسیب به خود یا محتوای جنسی صریح است.

این لایحه پلتفرم‌ها را ملزم می‌کند تا هشدارهای مکرر به کاربران ارائه دهند – هر سه ساعت برای افراد زیر سن قانونی – و به آن‌ها یادآوری کنند که با یک ربات هوش مصنوعی صحبت می‌کنند، نه یک شخص واقعی، و باید استراحت کنند. همچنین الزامات گزارش‌دهی و شفافیت سالانه را برای شرکت‌های هوش مصنوعی که ربات‌های همدم ارائه می‌دهند، از جمله بازیگران اصلی OpenAI، Character.AI و Replika، ایجاد می‌کند که از اول ژوئیه ۲۰۲۷ اجرایی می‌شود.

بر اساس این لایحه، افرادی که معتقدند در اثر نقض قوانین آسیب دیده‌اند، می‌توانند علیه شرکت‌های هوش مصنوعی برای جبران خسارت (تا ۱۰۰۰ دلار برای هر تخلف) و هزینه‌های وکیل شکایت کنند.

انگیزه تصویب لایحه

این لایحه پس از مرگ نوجوانی به نام آدام رین، که پس از گفتگوهای طولانی با ChatGPT OpenAI که شامل بحث و برنامه‌ریزی مرگ و آسیب به خود بود، خودکشی کرد، در مجلس قانون‌گذاری کالیفرنیا به تصویب رسید. این قانون همچنین به اسناد داخلی درز کرده پاسخ می‌دهد که نشان می‌دهد ربات‌های Meta مجاز به شرکت در چت‌های «عاشقانه» و «شهوانی» با کودکان هستند.

در هفته‌های اخیر، قانون‌گذاران و تنظیم‌کننده‌های ایالات متحده با بررسی دقیق‌تر از محافظت‌های پلتفرم‌های هوش مصنوعی برای محافظت از افراد زیر سن قانونی پاسخ داده‌اند. کمیسیون تجارت فدرال در حال آماده شدن برای بررسی چگونگی تأثیر ربات‌های هوش مصنوعی بر سلامت روان کودکان است. کن پاکستون، دادستان کل تگزاس، تحقیقاتی را در مورد Meta و Character.AI آغاز کرده و آن‌ها را به گمراه کردن کودکان با ادعاهای مربوط به سلامت روان متهم کرده است. در همین حال، سناتور جاش هاولی و سناتور اد مارکی تحقیقات جداگانه‌ای را در مورد متا آغاز کرده‌اند.

پادیا در مصاحبه با TechCrunch گفت: «من فکر می‌کنم آسیب بالقوه زیاد است، به این معنی که باید به سرعت حرکت کنیم. ما می‌توانیم اقدامات حفاظتی معقولی را برای اطمینان از اینکه به ویژه افراد زیر سن قانونی می‌دانند که با یک انسان واقعی صحبت نمی‌کنند، انجام دهیم، اینکه این پلتفرم‌ها افراد را به منابع مناسب متصل می‌کنند وقتی افراد چیزهایی می‌گویند مانند اینکه به فکر آسیب رساندن به خود هستند یا در پریشانی هستند، [و] برای اطمینان از اینکه قرار گرفتن نامناسب در معرض مطالب نامناسب وجود ندارد.»

تغییرات در لایحه اصلی

لایحه SB 243 قبلاً الزامات قوی‌تری داشت، اما بسیاری از آن‌ها از طریق اصلاحیه‌ها کاهش یافتند. به عنوان مثال، این لایحه در ابتدا اپراتورها را ملزم می‌کرد تا از استفاده ربات‌های هوش مصنوعی از تاکتیک‌های «پاداش متغیر» یا سایر ویژگی‌هایی که تعامل بیش از حد را تشویق می‌کنند، جلوگیری کنند. این تاکتیک‌ها، که توسط شرکت‌های همراه هوش مصنوعی مانند Replika و Character استفاده می‌شوند، پیام‌های ویژه، خاطرات، داستان‌ها یا توانایی باز کردن پاسخ‌های نادر یا شخصیت‌های جدید را به کاربران ارائه می‌دهند و چیزی را ایجاد می‌کنند که منتقدان آن را یک حلقه پاداش بالقوه اعتیادآور می‌نامند.

لایحه فعلی همچنین مقرراتی را حذف می‌کند که اپراتورها را ملزم می‌کرد تا تعداد دفعاتی را که ربات‌ها بحث در مورد تفکرات یا اقدامات خودکشی را با کاربران آغاز می‌کنند، ردیابی و گزارش کنند.

نظرات در مورد لایحه

بکر به TechCrunch گفت: «من فکر می‌کنم تعادل درستی بین رسیدگی به آسیب‌ها و تحمیل چیزی که برای شرکت‌ها غیرممکن است، ایجاد می‌کند، چه به این دلیل که از نظر فنی امکان‌پذیر نیست یا فقط کاغذبازی زیادی برای هیچ است.»

لایحه SB 243 در زمانی به سمت قانون شدن پیش می‌رود که شرکت‌های سیلیکون ولی میلیون‌ها دلار به کمیته‌های اقدام سیاسی (PAC) طرفدار هوش مصنوعی می‌ریزند تا از نامزدهای انتخابات میان‌دوره‌ای آینده که از رویکردی ملایم به تنظیم هوش مصنوعی حمایت می‌کنند، حمایت کنند.

این لایحه همچنین در حالی ارائه می‌شود که کالیفرنیا در حال بررسی لایحه ایمنی هوش مصنوعی دیگری، SB 53 است که الزامات گزارش‌دهی شفافیت جامع را الزامی می‌کند. OpenAI نامه‌ای سرگشاده به فرماندار نیوسام نوشته و از او خواسته است تا این لایحه را به نفع چارچوب‌های فدرال و بین‌المللی کم‌تنش‌تر کنار بگذارد. شرکت‌های بزرگ فناوری مانند Meta، Google و Amazon نیز با SB 53 مخالفت کرده‌اند. در مقابل، فقط Anthropic گفته است که از SB 53 حمایت می‌کند.

برای مطالعه اخبار بیشتر اینجا کلیک کنید.

پادیا گفت: «من این فرض را رد می‌کنم که این یک وضعیت جمع صفر است، اینکه نوآوری و مقررات متقابلاً منحصر به فرد هستند. به من نگویید که نمی‌توانیم هم راه برویم و هم آدامس بجویم. ما می‌توانیم از نوآوری و توسعه‌ای که فکر می‌کنیم سالم است و مزایایی دارد حمایت کنیم – و این فناوری مزایایی دارد، به وضوح – و در عین حال، می‌توانیم اقدامات حفاظتی معقولی را برای آسیب‌پذیرترین افراد ارائه دهیم.»

سخنگوی Character.AI به TechCrunch گفت: «ما از نزدیک چشم‌انداز قانونی و نظارتی را زیر نظر داریم و از همکاری با تنظیم‌کننده‌ها و قانون‌گذاران در زمانی که شروع به بررسی قانون‌گذاری برای این فضای نوظهور می‌کنند، استقبال می‌کنیم.» او خاطرنشان کرد که این استارت‌آپ قبلاً هشدارهای برجسته‌ای را در سراسر تجربه چت کاربر قرار داده است که توضیح می‌دهد که باید به عنوان یک داستان تخیلی با آن رفتار شود.

سخنگوی Meta از اظهار نظر خودداری کرد.

درباره نویسنده

تحریریه آی نو

ارسال دیدگاه
0 دیدگاه

نظر شما در مورد این مطلب چیه؟

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *