لایحه SB 243 رباتهای همدم هوش مصنوعی را تنظیم میکند
کالیفرنیا گام بزرگی در جهت تنظیم هوش مصنوعی برداشته است. لایحه SB 243 که رباتهای همدم هوش مصنوعی را به منظور محافظت از افراد زیر سن قانونی و کاربران آسیبپذیر تنظیم میکند، با حمایت هر دو حزب در مجلس ایالتی و سنا تصویب شد و اکنون به دفتر فرماندار گاوین نیوسام میرود.
نیوسام تا ۱۲ اکتبر فرصت دارد تا این لایحه را وتو کند یا آن را به قانون تبدیل کند. در صورت امضا، این قانون از اول ژانویه ۲۰۲۶ اجرایی میشود و کالیفرنیا را به اولین ایالتی تبدیل میکند که از اپراتورهای رباتهای گفتگو هوش مصنوعی میخواهد پروتکلهای ایمنی را برای همراهان هوش مصنوعی اجرا کنند و شرکتها را از نظر قانونی مسئول میداند اگر رباتهای آنها نتوانند این استانداردها را رعایت کنند.

جزئیات لایحه SB 243
این لایحه به طور خاص با هدف جلوگیری از رباتهای همدم، که قانون آنها را به عنوان سیستمهای هوش مصنوعی تعریف میکند که پاسخهای تطبیقی و شبیه به انسان ارائه میدهند و قادر به تأمین نیازهای اجتماعی کاربر هستند، از درگیر شدن در مکالمات پیرامون تفکرات خودکشی، آسیب به خود یا محتوای جنسی صریح است.
این لایحه پلتفرمها را ملزم میکند تا هشدارهای مکرر به کاربران ارائه دهند – هر سه ساعت برای افراد زیر سن قانونی – و به آنها یادآوری کنند که با یک ربات هوش مصنوعی صحبت میکنند، نه یک شخص واقعی، و باید استراحت کنند. همچنین الزامات گزارشدهی و شفافیت سالانه را برای شرکتهای هوش مصنوعی که رباتهای همدم ارائه میدهند، از جمله بازیگران اصلی OpenAI، Character.AI و Replika، ایجاد میکند که از اول ژوئیه ۲۰۲۷ اجرایی میشود.
بر اساس این لایحه، افرادی که معتقدند در اثر نقض قوانین آسیب دیدهاند، میتوانند علیه شرکتهای هوش مصنوعی برای جبران خسارت (تا ۱۰۰۰ دلار برای هر تخلف) و هزینههای وکیل شکایت کنند.
انگیزه تصویب لایحه
این لایحه پس از مرگ نوجوانی به نام آدام رین، که پس از گفتگوهای طولانی با ChatGPT OpenAI که شامل بحث و برنامهریزی مرگ و آسیب به خود بود، خودکشی کرد، در مجلس قانونگذاری کالیفرنیا به تصویب رسید. این قانون همچنین به اسناد داخلی درز کرده پاسخ میدهد که نشان میدهد رباتهای Meta مجاز به شرکت در چتهای «عاشقانه» و «شهوانی» با کودکان هستند.

در هفتههای اخیر، قانونگذاران و تنظیمکنندههای ایالات متحده با بررسی دقیقتر از محافظتهای پلتفرمهای هوش مصنوعی برای محافظت از افراد زیر سن قانونی پاسخ دادهاند. کمیسیون تجارت فدرال در حال آماده شدن برای بررسی چگونگی تأثیر رباتهای هوش مصنوعی بر سلامت روان کودکان است. کن پاکستون، دادستان کل تگزاس، تحقیقاتی را در مورد Meta و Character.AI آغاز کرده و آنها را به گمراه کردن کودکان با ادعاهای مربوط به سلامت روان متهم کرده است. در همین حال، سناتور جاش هاولی و سناتور اد مارکی تحقیقات جداگانهای را در مورد متا آغاز کردهاند.
پادیا در مصاحبه با TechCrunch گفت: «من فکر میکنم آسیب بالقوه زیاد است، به این معنی که باید به سرعت حرکت کنیم. ما میتوانیم اقدامات حفاظتی معقولی را برای اطمینان از اینکه به ویژه افراد زیر سن قانونی میدانند که با یک انسان واقعی صحبت نمیکنند، انجام دهیم، اینکه این پلتفرمها افراد را به منابع مناسب متصل میکنند وقتی افراد چیزهایی میگویند مانند اینکه به فکر آسیب رساندن به خود هستند یا در پریشانی هستند، [و] برای اطمینان از اینکه قرار گرفتن نامناسب در معرض مطالب نامناسب وجود ندارد.»
تغییرات در لایحه اصلی
لایحه SB 243 قبلاً الزامات قویتری داشت، اما بسیاری از آنها از طریق اصلاحیهها کاهش یافتند. به عنوان مثال، این لایحه در ابتدا اپراتورها را ملزم میکرد تا از استفاده رباتهای هوش مصنوعی از تاکتیکهای «پاداش متغیر» یا سایر ویژگیهایی که تعامل بیش از حد را تشویق میکنند، جلوگیری کنند. این تاکتیکها، که توسط شرکتهای همراه هوش مصنوعی مانند Replika و Character استفاده میشوند، پیامهای ویژه، خاطرات، داستانها یا توانایی باز کردن پاسخهای نادر یا شخصیتهای جدید را به کاربران ارائه میدهند و چیزی را ایجاد میکنند که منتقدان آن را یک حلقه پاداش بالقوه اعتیادآور مینامند.
لایحه فعلی همچنین مقرراتی را حذف میکند که اپراتورها را ملزم میکرد تا تعداد دفعاتی را که رباتها بحث در مورد تفکرات یا اقدامات خودکشی را با کاربران آغاز میکنند، ردیابی و گزارش کنند.

نظرات در مورد لایحه
بکر به TechCrunch گفت: «من فکر میکنم تعادل درستی بین رسیدگی به آسیبها و تحمیل چیزی که برای شرکتها غیرممکن است، ایجاد میکند، چه به این دلیل که از نظر فنی امکانپذیر نیست یا فقط کاغذبازی زیادی برای هیچ است.»
لایحه SB 243 در زمانی به سمت قانون شدن پیش میرود که شرکتهای سیلیکون ولی میلیونها دلار به کمیتههای اقدام سیاسی (PAC) طرفدار هوش مصنوعی میریزند تا از نامزدهای انتخابات میاندورهای آینده که از رویکردی ملایم به تنظیم هوش مصنوعی حمایت میکنند، حمایت کنند.
این لایحه همچنین در حالی ارائه میشود که کالیفرنیا در حال بررسی لایحه ایمنی هوش مصنوعی دیگری، SB 53 است که الزامات گزارشدهی شفافیت جامع را الزامی میکند. OpenAI نامهای سرگشاده به فرماندار نیوسام نوشته و از او خواسته است تا این لایحه را به نفع چارچوبهای فدرال و بینالمللی کمتنشتر کنار بگذارد. شرکتهای بزرگ فناوری مانند Meta، Google و Amazon نیز با SB 53 مخالفت کردهاند. در مقابل، فقط Anthropic گفته است که از SB 53 حمایت میکند.
برای مطالعه اخبار بیشتر اینجا کلیک کنید.
پادیا گفت: «من این فرض را رد میکنم که این یک وضعیت جمع صفر است، اینکه نوآوری و مقررات متقابلاً منحصر به فرد هستند. به من نگویید که نمیتوانیم هم راه برویم و هم آدامس بجویم. ما میتوانیم از نوآوری و توسعهای که فکر میکنیم سالم است و مزایایی دارد حمایت کنیم – و این فناوری مزایایی دارد، به وضوح – و در عین حال، میتوانیم اقدامات حفاظتی معقولی را برای آسیبپذیرترین افراد ارائه دهیم.»
سخنگوی Character.AI به TechCrunch گفت: «ما از نزدیک چشمانداز قانونی و نظارتی را زیر نظر داریم و از همکاری با تنظیمکنندهها و قانونگذاران در زمانی که شروع به بررسی قانونگذاری برای این فضای نوظهور میکنند، استقبال میکنیم.» او خاطرنشان کرد که این استارتآپ قبلاً هشدارهای برجستهای را در سراسر تجربه چت کاربر قرار داده است که توضیح میدهد که باید به عنوان یک داستان تخیلی با آن رفتار شود.
سخنگوی Meta از اظهار نظر خودداری کرد.
نظر شما در مورد این مطلب چیه؟