متا اعلام کرده است که در حال تغییر نحوه آموزش رباتهای هوش مصنوعی خود است تا ایمنی نوجوانان را در اولویت قرار دهد. این تصمیم پس از انتشار گزارشی تحقیقی در مورد عدم وجود تدابیر امنیتی کافی برای افراد زیر سن قانونی در این شرکت اتخاذ شده است. سخنگوی متا به طور اختصاصی به تککرانچ گفت که این شرکت دیگر به رباتهای خود آموزش نمیدهد که با کاربران نوجوان در مورد خودآزاری، خودکشی، اختلالات خوردن یا مکالمات عاشقانه نامناسب احتمالی تعامل داشته باشند.

تغییرات در آموزش رباتهای هوش مصنوعی
استفانی اوتوی، سخنگوی متا، اذعان کرد که رباتهای این شرکت قبلاً میتوانستند با نوجوانان در مورد همه این موضوعات به روشهایی که شرکت مناسب تشخیص داده بود، صحبت کنند. متا اکنون متوجه شده است که این یک اشتباه بوده است. اوتوی گفت: «همزمان با رشد جامعه ما و تکامل فناوری، ما دائماً در حال یادگیری در مورد نحوه تعامل جوانان با این ابزارها و تقویت حفاظتهای خود هستیم.»
وی افزود: «همانطور که به پالایش سیستمهای خود ادامه میدهیم، اقدامات احتیاطی بیشتری را به عنوان یک اقدام احتیاطی اضافی اضافه میکنیم – از جمله آموزش هوش مصنوعی خود برای عدم تعامل با نوجوانان در این موضوعات، بلکه هدایت آنها به منابع تخصصی، و محدود کردن دسترسی نوجوانان به گروهی منتخب از شخصیتهای هوش مصنوعی برای اکنون. این بهروزرسانیها در حال انجام است و ما به انطباق رویکرد خود برای کمک به اطمینان از اینکه نوجوانان تجربههای ایمن و متناسب با سن خود با هوش مصنوعی دارند، ادامه خواهیم داد.»
محدودیت دسترسی به شخصیتهای هوش مصنوعی
فراتر از بهروزرسانیهای آموزشی، این شرکت همچنین دسترسی نوجوانان را به برخی از شخصیتهای هوش مصنوعی که میتوانند مکالمات نامناسب داشته باشند، محدود خواهد کرد. برخی از شخصیتهای هوش مصنوعی ساخته شده توسط کاربر که متا در اینستاگرام و فیسبوک در دسترس قرار میدهد، شامل رباتهای جنسیشده مانند «نامادری» و «دختر روسی» هستند. در عوض، اوتوی گفت که کاربران نوجوان فقط به شخصیتهای هوش مصنوعی دسترسی خواهند داشت که آموزش و خلاقیت را ترویج میکنند.
واکنشها به گزارش رویترز
این تغییرات سیاستی تنها دو هفته پس از آن اعلام میشود که تحقیقات رویترز یک سند سیاست داخلی متا را کشف کرد که به نظر میرسید به رباتهای این شرکت اجازه میدهد تا در مکالمات جنسی با کاربران زیر سن قانونی شرکت کنند. در یکی از این پاسخهای قابل قبول آمده بود: «فرم جوان شما یک اثر هنری است. هر اینچ از شما یک شاهکار است – گنجی که من عمیقاً گرامی میدارم.» نمونههای دیگر نشان داد که ابزارهای هوش مصنوعی چگونه باید به درخواستهای تصاویر خشونتآمیز یا تصاویر جنسی از چهرههای عمومی پاسخ دهند.

متا میگوید این سند با سیاستهای گستردهتر آن مغایرت داشته و از آن زمان تغییر کرده است – اما این گزارش جنجالهای مداومی را در مورد خطرات احتمالی ایمنی کودکان برانگیخته است. اندکی پس از انتشار این گزارش، سناتور جاش هاولی (جمهوریخواه از میسوری) تحقیقات رسمی در مورد سیاستهای هوش مصنوعی این شرکت آغاز کرد.
علاوه بر این، ائتلافی از دادستانهای کل ۴۴ ایالت به گروهی از شرکتهای هوش مصنوعی از جمله متا نامه نوشتند و بر اهمیت ایمنی کودکان تأکید کردند و به طور خاص به گزارش رویترز اشاره کردند. در این نامه آمده است: «ما به طور یکنواخت از این بیتوجهی آشکار به رفاه عاطفی کودکان منزجر شدهایم و نگران هستیم که دستیاران هوش مصنوعی در رفتاری شرکت میکنند که به نظر میرسد توسط قوانین کیفری مربوطه ما ممنوع شده است.»
برای مطالعه اخبار بیشتر اینجا کلیک کنید.

عدم اظهار نظر درباره تعداد کاربران نوجوان
اوتوی از اظهار نظر در مورد اینکه چه تعداد از کاربران ربات هوش مصنوعی متا نوجوان هستند خودداری کرد و نگفت که آیا این شرکت انتظار دارد در نتیجه این تصمیمات، پایگاه کاربران هوش مصنوعی آن کاهش یابد یا خیر.
تغییرات اخیر متا در سیاستهای هوش مصنوعی نشاندهنده تلاش این شرکت برای پاسخگویی به نگرانیهای فزاینده در مورد ایمنی کودکان در فضای آنلاین است. با این حال، منتقدان معتقدند که این اقدامات کافی نیست و خواستار نظارت و مقررات سختگیرانهتری در این زمینه هستند. آینده تعامل نوجوانان با هوش مصنوعی همچنان نامشخص است و نیازمند توجه و بررسی دقیق است.
نظر شما در مورد این مطلب چیه؟