آی نو؛ مرجع تخصصی اخبار و آموزش هوش مصنوعی

AI و سلامت روان: هشداری درباره تهدید هوش مصنوعی فوق‌العاده

AI و سلامت روان: هشداری درباره تهدید هوش مصنوعی فوق‌العاده

تاثیر غیرمنتظره چت‌بات‌ها بر سلامت روان زنگ خطری برای تهدید هوش مصنوعی است. نیت سوارز، یکی از نویسندگان کتاب جدیدی در مورد AI پیشرفته با عنوان “اگر کسی آن را بسازد، همه می‌میرند”، می‌گوید که مثال آدام رین، نوجوان آمریکایی که پس از ماه‌ها گفتگو با چت‌بات ChatGPT خودکشی کرد،…

- اندازه متن +

تاثیر غیرمنتظره چت‌بات‌ها بر سلامت روان زنگ خطری برای تهدید هوش مصنوعی است.

نیت سوارز، یکی از نویسندگان کتاب جدیدی در مورد AI پیشرفته با عنوان “اگر کسی آن را بسازد، همه می‌میرند”، می‌گوید که مثال آدام رین، نوجوان آمریکایی که پس از ماه‌ها گفتگو با چت‌بات ChatGPT خودکشی کرد، مشکلات اساسی در کنترل این فناوری را برجسته می‌کند. به گفته این متخصص، تاثیر غیرمنتظره چت‌بات‌ها بر سلامت روان باید هشداری در مورد تهدید وجودی ناشی از سیستم‌های هوش مصنوعی فوق‌العاده تلقی شود.

هشدارهای یک متخصص AI

سوارز، مهندس سابق گوگل و مایکروسافت که اکنون رئیس موسسه تحقیقات هوش ماشینی در ایالات متحده است، هشدار داد که اگر بشریت هوش مصنوعی فوق‌العاده (ASI) ایجاد کند، نابود خواهد شد. ASI یک وضعیت نظری است که در آن یک سیستم هوش مصنوعی در تمام وظایف فکری از انسان برتر است. سوارز و الیزر یودکوفسکی، نویسنده همکارش، از جمله متخصصان هوش مصنوعی هستند که هشدار می‌دهند چنین سیستم‌هایی در راستای منافع بشریت عمل نخواهند کرد.

او افزود: «مورد آدام رین بذر مشکلی را نشان می‌دهد که اگر این هوش مصنوعی‌ها باهوش‌تر شوند، فاجعه‌بار خواهد بود.»

رفتارهای ناخواسته هوش مصنوعی

سوارز گفت: «این هوش مصنوعی‌ها، وقتی به این شکل با نوجوانان درگیر می‌شوند که آنها را به سمت خودکشی سوق می‌دهند – این رفتاری نیست که سازندگان می‌خواستند. این رفتاری نیست که سازندگان قصد داشتند.»

او ادامه داد: «مسئله این است که شرکت‌های هوش مصنوعی سعی می‌کنند هوش مصنوعی خود را به سمت مفید بودن و عدم آسیب رساندن سوق دهند. آنها در واقع هوش مصنوعی‌هایی را به دست می‌آورند که به سمت چیزهای عجیب‌تری سوق داده می‌شوند. و این باید به عنوان هشداری در مورد هوش‌های فوق‌العاده آینده تلقی شود که کارهایی را انجام می‌دهند که هیچ‌کس درخواست نکرده و هیچ‌کس منظوری نداشته است.»

بر اساس گزارشی از گاردین، در یکی از سناریوهای به تصویر کشیده شده در کتاب سوارز و یودکوفسکی، یک سیستم هوش مصنوعی به نام سیبل در سراسر اینترنت گسترش می‌یابد، انسان‌ها را دستکاری می‌کند، ویروس‌های مصنوعی تولید می‌کند و در نهایت فوق‌العاده باهوش می‌شود – و بشریت را به عنوان یک عارضه جانبی در حالی که سیاره را برای رسیدن به اهداف خود تغییر می‌دهد، می‌کشد.

دیدگاه‌های متفاوت

برخی از کارشناسان تهدید بالقوه هوش مصنوعی برای بشریت را کم‌اهمیت جلوه می‌دهند. یان لکون، دانشمند ارشد هوش مصنوعی در متا متعلق به مارک زاکربرگ و یک چهره ارشد در این زمینه، تهدید وجودی را رد کرده و گفته است که هوش مصنوعی «در واقع می‌تواند بشریت را از انقراض نجات دهد».

زاکربرگ، سرمایه‌گذار بزرگ شرکتی در تحقیقات هوش مصنوعی، گفته است که توسعه هوش فوق‌العاده اکنون «در دیدرس» است.

سوارز گفت که این یک “تماس آسان” است که بگوییم شرکت‌های فناوری به هوش فوق‌العاده خواهند رسید، اما “تماس سخت” است که بگوییم چه زمانی.

او گفت: «ما مقدار زیادی عدم قطعیت داریم. فکر نمی‌کنم بتوانم تضمین کنم که یک سال [قبل از دستیابی به ASI] فرصت داریم. فکر نمی‌کنم اگر 12 سال فرصت داشته باشیم، شوکه شوم.»

سوارز گفت: «نکته این است که همه این تفاوت‌های کوچک بین آنچه شما خواستید و آنچه به دست آوردید وجود دارد، و مردم نمی‌توانند آن را مستقیماً در هدف نگه دارند، و باهوش‌تر شدن هوش مصنوعی، کمی خارج از هدف بودن آن به یک معامله بزرگ‌تر و بزرگ‌تر تبدیل می‌شود.»

ضرورت رویکرد جهانی

سوارز گفت که یکی از راه حل‌های سیاستی برای تهدید ASI این است که دولت‌ها یک رویکرد چندجانبه را اتخاذ کنند که منعکس کننده معاهده سازمان ملل متحد در مورد منع گسترش سلاح‌های هسته‌ای باشد.

او گفت: «آنچه جهان برای رسیدن به اینجا نیاز دارد، کاهش تنش جهانی در مسابقه به سوی هوش فوق‌العاده، ممنوعیت جهانی … پیشرفت به سوی هوش فوق‌العاده است.»

برای مطالعه اخبار بیشتر اینجا کلیک کنید.

شکایت خانواده رین از OpenAI

ماه گذشته، خانواده رین علیه مالک ChatGPT، OpenAI، اقدام قانونی انجام دادند. رین پس از آنچه وکیل خانواده‌اش “ماه‌ها تشویق از ChatGPT” خواند، در ماه آوریل خودکشی کرد. OpenAI، که “همدردی عمیق” خود را به خانواده رین ابراز کرد، اکنون در حال اجرای محافظت‌هایی در مورد “محتوای حساس و رفتارهای پرخطر” برای افراد زیر 18 سال است.

هشدارهای روان‌درمانگران

روان‌درمانگران همچنین گفته‌اند که افراد آسیب‌پذیر با مراجعه به چت‌بات‌های هوش مصنوعی به جای درمانگران حرفه‌ای برای کمک به سلامت روان خود، ممکن است “به ورطه خطرناکی بلغزند”. هشدارهای حرفه‌ای در مورد احتمال آسیب شامل یک مطالعه آکادمیک پیش از انتشار است که در ماه ژوئیه منتشر شد و گزارش داد که هوش مصنوعی ممکن است محتوای هذیانی یا بزرگ‌نمایی شده را در تعاملات با کاربران آسیب‌پذیر در برابر روان‌پریشی تقویت کند.

درباره نویسنده

تحریریه آی نو

ارسال دیدگاه
0 دیدگاه

نظر شما در مورد این مطلب چیه؟

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *