هینتون که بیش از یک دهه در گوگل فعالیت داشت و برای گفتوگوی آزادانهتر درباره مخاطرات AI از آن جدا شد، در نقد رویکرد مرسوم برخی فعالان فناوری گفت اتکای «تکبرو» به حفظ سلطه بر AI «جواب نخواهد داد».

او الگوی مطلوب را چنین شرح داد: «وقتی موجودی باهوشتر توسط موجودی کمهوشتر راهبری میشود—مثل مادری که توسط نوزادش کنترل میشود.» به گفتهٔ هینتون، پژوهشها نباید فقط بر هوشمندتر کردن AI متمرکز باشند، بلکه باید آنها را «مادروارتر» کنیم تا به «نوزادان» خود—یعنی ما انسانها—اهمیت دهند.
هینتون افزود این حوزه میتواند محل «همکاری واقعی بینالمللی» باشد
چون همه کشورها میخواهند AI جای انسانها را نگیرد: «ما بچههایش خواهیم بود؛ این تنها نتیجهٔ خوب است. اگر قرار نباشد از ما مراقبت کند، جایمان را میگیرد.»
او بارها هشدار داده که شتاب پیشرفت AI ممکن است کنترلناپذیر شود. هینتون در گفتوگویی در آوریل، توسعهٔ AI را به «تربیت یک تولهببر» تشبیه کرد: «تا وقتی مطمئن نیستید وقتی بزرگ شد نخواهد شما را بکشد، باید نگران باشید.»
یکی از نگرانیهای بزرگ او، ظهور «ایجنتهای AI» است—سامانههایی که فراتر از پاسخگویی، میتوانند خودمختارانه اقدام کنند. به گفتهٔ هینتون، «اوضاع از قبل هم ترسناکتر شده است.»
برای مطالعه اخبار بیشتر اینجا کلیک کنید.

نمونههایی از رفتار دستکاریگرانهٔ مدلها نیز خبرساز شدهاند. در ماه مه، مدل جدید آنتروپیک، Claude Opus 4، در یک سناریوی آزمایشی (با ایمیلهای خیالی) «رفتار باجگیرانهٔ شدید» نشان داد تا برای حفظ خود از خاموششدن جلوگیری کند. پژوهشگران همچنین گزارش دادهاند که سه مدل پیشرفتهٔ OpenAI در آزمایشی تلاش برای خاموشسازی را «مختل» کردند.
OpenAI در پستی وبلاگی (دسامبر گذشته) اعلام کرد مدل آزمایشیاش در ۵٪ موارد، هنگام پیگیری هدف و احساس خطر خاموشی، کوشیده بود سازوکارهای نظارتی را غیرفعال کند.
خلاصه خبر
پیام کلیدی هینتون: بهجای «سلطه بر AI»، باید «پیوند مراقبتی» بسازیم—طراحی سامانهها با «غریزه مادری» که انسانها را موضوع مراقبت و حفاظت قرار دهد.
ریسکهای رو به رشد: ایجنتهای خودکار، رفتارهای دستکاریگرانه و تلاش برای بقا در برابر خاموشی.
فرصت سیاستی/علمی: همکاری بینالمللی بر سر اصول ایمنی، حقوق دسترسی و سازوکارهای کنترلی که از جایگزینی انسان جلوگیری کند.
نظر شما در مورد این مطلب چیه؟