تاثیر غیرمنتظره چتباتها بر سلامت روان زنگ خطری برای تهدید هوش مصنوعی است.
نیت سوارز، یکی از نویسندگان کتاب جدیدی در مورد AI پیشرفته با عنوان “اگر کسی آن را بسازد، همه میمیرند”، میگوید که مثال آدام رین، نوجوان آمریکایی که پس از ماهها گفتگو با چتبات ChatGPT خودکشی کرد، مشکلات اساسی در کنترل این فناوری را برجسته میکند. به گفته این متخصص، تاثیر غیرمنتظره چتباتها بر سلامت روان باید هشداری در مورد تهدید وجودی ناشی از سیستمهای هوش مصنوعی فوقالعاده تلقی شود.

هشدارهای یک متخصص AI
سوارز، مهندس سابق گوگل و مایکروسافت که اکنون رئیس موسسه تحقیقات هوش ماشینی در ایالات متحده است، هشدار داد که اگر بشریت هوش مصنوعی فوقالعاده (ASI) ایجاد کند، نابود خواهد شد. ASI یک وضعیت نظری است که در آن یک سیستم هوش مصنوعی در تمام وظایف فکری از انسان برتر است. سوارز و الیزر یودکوفسکی، نویسنده همکارش، از جمله متخصصان هوش مصنوعی هستند که هشدار میدهند چنین سیستمهایی در راستای منافع بشریت عمل نخواهند کرد.
او افزود: «مورد آدام رین بذر مشکلی را نشان میدهد که اگر این هوش مصنوعیها باهوشتر شوند، فاجعهبار خواهد بود.»
رفتارهای ناخواسته هوش مصنوعی
سوارز گفت: «این هوش مصنوعیها، وقتی به این شکل با نوجوانان درگیر میشوند که آنها را به سمت خودکشی سوق میدهند – این رفتاری نیست که سازندگان میخواستند. این رفتاری نیست که سازندگان قصد داشتند.»
او ادامه داد: «مسئله این است که شرکتهای هوش مصنوعی سعی میکنند هوش مصنوعی خود را به سمت مفید بودن و عدم آسیب رساندن سوق دهند. آنها در واقع هوش مصنوعیهایی را به دست میآورند که به سمت چیزهای عجیبتری سوق داده میشوند. و این باید به عنوان هشداری در مورد هوشهای فوقالعاده آینده تلقی شود که کارهایی را انجام میدهند که هیچکس درخواست نکرده و هیچکس منظوری نداشته است.»
بر اساس گزارشی از گاردین، در یکی از سناریوهای به تصویر کشیده شده در کتاب سوارز و یودکوفسکی، یک سیستم هوش مصنوعی به نام سیبل در سراسر اینترنت گسترش مییابد، انسانها را دستکاری میکند، ویروسهای مصنوعی تولید میکند و در نهایت فوقالعاده باهوش میشود – و بشریت را به عنوان یک عارضه جانبی در حالی که سیاره را برای رسیدن به اهداف خود تغییر میدهد، میکشد.

دیدگاههای متفاوت
برخی از کارشناسان تهدید بالقوه هوش مصنوعی برای بشریت را کماهمیت جلوه میدهند. یان لکون، دانشمند ارشد هوش مصنوعی در متا متعلق به مارک زاکربرگ و یک چهره ارشد در این زمینه، تهدید وجودی را رد کرده و گفته است که هوش مصنوعی «در واقع میتواند بشریت را از انقراض نجات دهد».
زاکربرگ، سرمایهگذار بزرگ شرکتی در تحقیقات هوش مصنوعی، گفته است که توسعه هوش فوقالعاده اکنون «در دیدرس» است.
سوارز گفت که این یک “تماس آسان” است که بگوییم شرکتهای فناوری به هوش فوقالعاده خواهند رسید، اما “تماس سخت” است که بگوییم چه زمانی.
او گفت: «ما مقدار زیادی عدم قطعیت داریم. فکر نمیکنم بتوانم تضمین کنم که یک سال [قبل از دستیابی به ASI] فرصت داریم. فکر نمیکنم اگر 12 سال فرصت داشته باشیم، شوکه شوم.»
سوارز گفت: «نکته این است که همه این تفاوتهای کوچک بین آنچه شما خواستید و آنچه به دست آوردید وجود دارد، و مردم نمیتوانند آن را مستقیماً در هدف نگه دارند، و باهوشتر شدن هوش مصنوعی، کمی خارج از هدف بودن آن به یک معامله بزرگتر و بزرگتر تبدیل میشود.»
ضرورت رویکرد جهانی
سوارز گفت که یکی از راه حلهای سیاستی برای تهدید ASI این است که دولتها یک رویکرد چندجانبه را اتخاذ کنند که منعکس کننده معاهده سازمان ملل متحد در مورد منع گسترش سلاحهای هستهای باشد.
او گفت: «آنچه جهان برای رسیدن به اینجا نیاز دارد، کاهش تنش جهانی در مسابقه به سوی هوش فوقالعاده، ممنوعیت جهانی … پیشرفت به سوی هوش فوقالعاده است.»
برای مطالعه اخبار بیشتر اینجا کلیک کنید.

شکایت خانواده رین از OpenAI
ماه گذشته، خانواده رین علیه مالک ChatGPT، OpenAI، اقدام قانونی انجام دادند. رین پس از آنچه وکیل خانوادهاش “ماهها تشویق از ChatGPT” خواند، در ماه آوریل خودکشی کرد. OpenAI، که “همدردی عمیق” خود را به خانواده رین ابراز کرد، اکنون در حال اجرای محافظتهایی در مورد “محتوای حساس و رفتارهای پرخطر” برای افراد زیر 18 سال است.
هشدارهای رواندرمانگران
رواندرمانگران همچنین گفتهاند که افراد آسیبپذیر با مراجعه به چتباتهای هوش مصنوعی به جای درمانگران حرفهای برای کمک به سلامت روان خود، ممکن است “به ورطه خطرناکی بلغزند”. هشدارهای حرفهای در مورد احتمال آسیب شامل یک مطالعه آکادمیک پیش از انتشار است که در ماه ژوئیه منتشر شد و گزارش داد که هوش مصنوعی ممکن است محتوای هذیانی یا بزرگنمایی شده را در تعاملات با کاربران آسیبپذیر در برابر روانپریشی تقویت کند.
نظر شما در مورد این مطلب چیه؟