پژوهشگر سابق هوش مصنوعی در مقابل دفتر DeepMind در لندن دست به اعتصاب غذا زد.
مایکل ترازی، پژوهشگر سابق هوش مصنوعی، در اعتراض به خطرات احتمالی هوش مصنوعی و لزوم توقف توسعه مدلهای جدید، در مقابل دفتر DeepMind در لندن دست به اعتصاب غذا زده است. او نگران است که مدلهای هوش مصنوعی مانند GPT-5 و Gemini 2.5 Pro به سرعت در حال پیشرفت هستند و به زودی به تواناییهای خطرناکی دست پیدا خواهند کرد.

نگرانیهای یک پژوهشگر هوش مصنوعی
ترازی، ۲۹ ساله، اهل سن-کلود فرانسه است و سابقه کار به عنوان پژوهشگر ایمنی هوش مصنوعی را دارد. او در چهارمین روز اعتصاب غذای خود در مقابل دفتر DeepMind در لندن به سر میبرد. او در مصاحبهای میگوید:
در سال ۲۰۱۹، سیستمهای هوش مصنوعی چندان خطرناک نبودند. آنها دروغ نمیگفتند، فریب نمیدادند یا قادر به ایجاد آسیب واقعی به تنهایی نبودند. حتی امروز هم معتقدم مدلهای فعلی نمیتوانند مستقیماً آسیب فاجعهباری وارد کنند.
اما نگرانی اصلی او مربوط به آینده است. ترازی معتقد است که هوش مصنوعی به زودی قادر خواهد بود تحقیق و توسعه خود را به طور خودکار انجام دهد و این میتواند منجر به وضعیتی شود که کنترل آن از دست انسان خارج شود.
تغییر دیدگاه نسبت به هوش مصنوعی
ترازی در ابتدا به دلیل علاقه به کار در زمینه ایمنی هوش مصنوعی، به تحصیل در رشته کامپیوتر و هوش مصنوعی در پاریس پرداخت. پس از آن، در موسسه آینده بشریت آکسفورد به عنوان پژوهشگر ایمنی هوش مصنوعی مشغول به کار شد. او میگوید:
رابطه من با هوش مصنوعی در طول سالها تغییر کرده است – از مطالعه و ساخت آن تا، حالا، صحبت کردن در مورد خطرات آن.
او به تدریج وارد حوزه رسانه شد و یک کانال یوتیوب، یک پادکست در مورد ایمنی هوش مصنوعی و اخیراً فیلمهای کوتاه و مستندی در مورد سیاست هوش مصنوعی در ایالات متحده تولید کرده است. او همچنین محتوای کوتاهی در TikTok و YouTube Shorts منتشر میکند.
هوش مصنوعی عمومی و خطرات احتمالی
هوش مصنوعی عمومی (AGI) معمولاً به عنوان هوش مصنوعی تعریف میشود که میتواند هر کار با ارزش اقتصادی را که یک انسان میتواند انجام دهد، انجام دهد. مدلهایی مانند GPT-5، Claude، Grok و Gemini 2.5 Pro در حال حاضر به این آستانه نزدیک میشوند.

اما خطر واقعی زمانی به وجود میآید که هوش مصنوعی بتواند تحقیق و توسعه خود را خودکار کند. سیستمی که قادر به ساخت جانشینان قدرتمندتر به طور فزاینده بدون نظارت انسان باشد، میتواند بسیار فراتر از کنترل ما باشد. ترازی هشدار میدهد:
تصور کنید هوش مصنوعی که بسیار بهتر از هر انسانی در مهندسی ویروسها یا سایر سلاحها باشد – این سناریویی است که من را وحشتزده میکند.
او معتقد است که احتمال رسیدن به این مرحله قبل از سال ۲۰۳۰ بیشتر است. سناریوی «هوش مصنوعی ۲۰۲۷» که به طور گسترده مورد بحث قرار گرفته است – جایی که ایالات متحده و چین برای ساخت AGI با هم رقابت میکنند – نشان میدهد که چقدر سریع ممکن است اوضاع تشدید شود.
درخواست توقف انتشار مدلهای جدید
ترازی از مدیرعامل DeepMind، دیمیس هاسابیس، میخواهد که متعهد شود در صورت موافقت سایر شرکتهای پیشرو در زمینه هوش مصنوعی، مدلهای جدیدی را منتشر نکند. او تاکید میکند که این درخواست به معنای توقف یکجانبه پیشرفت نیست، بلکه نیازمند هماهنگی بین شرکتها است. بر اساس گزارشی از Business Insider، اگر رهبران DeepMind، OpenAI و Anthropic همگی متعهد شوند، امکان محدودیت واقعی وجود خواهد داشت.
برای مطالعه اخبار بیشتر اینجا کلیک کنید.

ترازی معتقد است که بین اهمیت موضوع و اقدامات افراد ناهماهنگی وجود دارد و اعتصاب غذای او تلاشی برای همسو کردن اقدامات با باورها است.
به طور خلاصه، درخواستهای او شامل موارد زیر است:
- توقف انتشار مدلهای جدید هوش مصنوعی توسط DeepMind در صورت توافق سایر شرکتهای پیشرو
- هماهنگی بین شرکتهای بزرگ برای محدود کردن توسعه هوش مصنوعی
- توجه بیشتر به خطرات احتمالی هوش مصنوعی و همسو کردن اقدامات با باورها
اعتصاب غذای مایکل ترازی نشان دهنده نگرانی فزاینده در مورد خطرات احتمالی هوش مصنوعی و لزوم توجه بیشتر به این موضوع است.
نظر شما در مورد این مطلب چیه؟