آی نو؛ مرجع تخصصی اخبار و آموزش هوش مصنوعی

اعتصاب غذا در اعتراض به هوش مصنوعی؛ آیا هوش مصنوعی خطرناک است؟

اعتصاب غذا در اعتراض به هوش مصنوعی؛ آیا هوش مصنوعی خطرناک است؟

پژوهشگر سابق هوش مصنوعی در مقابل دفتر DeepMind در لندن دست به اعتصاب غذا زد. مایکل ترازی، پژوهشگر سابق هوش مصنوعی، در اعتراض به خطرات احتمالی هوش مصنوعی و لزوم توقف توسعه مدل‌های جدید، در مقابل دفتر DeepMind در لندن دست به اعتصاب غذا زده است. او نگران است که…

- اندازه متن +

پژوهشگر سابق هوش مصنوعی در مقابل دفتر DeepMind در لندن دست به اعتصاب غذا زد.

مایکل ترازی، پژوهشگر سابق هوش مصنوعی، در اعتراض به خطرات احتمالی هوش مصنوعی و لزوم توقف توسعه مدل‌های جدید، در مقابل دفتر DeepMind در لندن دست به اعتصاب غذا زده است. او نگران است که مدل‌های هوش مصنوعی مانند GPT-5 و Gemini 2.5 Pro به سرعت در حال پیشرفت هستند و به زودی به توانایی‌های خطرناکی دست پیدا خواهند کرد.

نگرانی‌های یک پژوهشگر هوش مصنوعی

ترازی، ۲۹ ساله، اهل سن-کلود فرانسه است و سابقه کار به عنوان پژوهشگر ایمنی هوش مصنوعی را دارد. او در چهارمین روز اعتصاب غذای خود در مقابل دفتر DeepMind در لندن به سر می‌برد. او در مصاحبه‌ای می‌گوید:

در سال ۲۰۱۹، سیستم‌های هوش مصنوعی چندان خطرناک نبودند. آنها دروغ نمی‌گفتند، فریب نمی‌دادند یا قادر به ایجاد آسیب واقعی به تنهایی نبودند. حتی امروز هم معتقدم مدل‌های فعلی نمی‌توانند مستقیماً آسیب فاجعه‌باری وارد کنند.

اما نگرانی اصلی او مربوط به آینده است. ترازی معتقد است که هوش مصنوعی به زودی قادر خواهد بود تحقیق و توسعه خود را به طور خودکار انجام دهد و این می‌تواند منجر به وضعیتی شود که کنترل آن از دست انسان خارج شود.

تغییر دیدگاه نسبت به هوش مصنوعی

ترازی در ابتدا به دلیل علاقه به کار در زمینه ایمنی هوش مصنوعی، به تحصیل در رشته کامپیوتر و هوش مصنوعی در پاریس پرداخت. پس از آن، در موسسه آینده بشریت آکسفورد به عنوان پژوهشگر ایمنی هوش مصنوعی مشغول به کار شد. او می‌گوید:

رابطه من با هوش مصنوعی در طول سال‌ها تغییر کرده است – از مطالعه و ساخت آن تا، حالا، صحبت کردن در مورد خطرات آن.

او به تدریج وارد حوزه رسانه شد و یک کانال یوتیوب، یک پادکست در مورد ایمنی هوش مصنوعی و اخیراً فیلم‌های کوتاه و مستندی در مورد سیاست هوش مصنوعی در ایالات متحده تولید کرده است. او همچنین محتوای کوتاهی در TikTok و YouTube Shorts منتشر می‌کند.

هوش مصنوعی عمومی و خطرات احتمالی

هوش مصنوعی عمومی (AGI) معمولاً به عنوان هوش مصنوعی تعریف می‌شود که می‌تواند هر کار با ارزش اقتصادی را که یک انسان می‌تواند انجام دهد، انجام دهد. مدل‌هایی مانند GPT-5، Claude، Grok و Gemini 2.5 Pro در حال حاضر به این آستانه نزدیک می‌شوند.

اما خطر واقعی زمانی به وجود می‌آید که هوش مصنوعی بتواند تحقیق و توسعه خود را خودکار کند. سیستمی که قادر به ساخت جانشینان قدرتمندتر به طور فزاینده بدون نظارت انسان باشد، می‌تواند بسیار فراتر از کنترل ما باشد. ترازی هشدار می‌دهد:

تصور کنید هوش مصنوعی که بسیار بهتر از هر انسانی در مهندسی ویروس‌ها یا سایر سلاح‌ها باشد – این سناریویی است که من را وحشت‌زده می‌کند.

او معتقد است که احتمال رسیدن به این مرحله قبل از سال ۲۰۳۰ بیشتر است. سناریوی «هوش مصنوعی ۲۰۲۷» که به طور گسترده مورد بحث قرار گرفته است – جایی که ایالات متحده و چین برای ساخت AGI با هم رقابت می‌کنند – نشان می‌دهد که چقدر سریع ممکن است اوضاع تشدید شود.

درخواست توقف انتشار مدل‌های جدید

ترازی از مدیرعامل DeepMind، دیمیس هاسابیس، می‌خواهد که متعهد شود در صورت موافقت سایر شرکت‌های پیشرو در زمینه هوش مصنوعی، مدل‌های جدیدی را منتشر نکند. او تاکید می‌کند که این درخواست به معنای توقف یکجانبه پیشرفت نیست، بلکه نیازمند هماهنگی بین شرکت‌ها است. بر اساس گزارشی از Business Insider، اگر رهبران DeepMind، OpenAI و Anthropic همگی متعهد شوند، امکان محدودیت واقعی وجود خواهد داشت.

برای مطالعه اخبار بیشتر اینجا کلیک کنید.

ترازی معتقد است که بین اهمیت موضوع و اقدامات افراد ناهماهنگی وجود دارد و اعتصاب غذای او تلاشی برای همسو کردن اقدامات با باورها است.

به طور خلاصه، درخواست‌های او شامل موارد زیر است:

  • توقف انتشار مدل‌های جدید هوش مصنوعی توسط DeepMind در صورت توافق سایر شرکت‌های پیشرو
  • هماهنگی بین شرکت‌های بزرگ برای محدود کردن توسعه هوش مصنوعی
  • توجه بیشتر به خطرات احتمالی هوش مصنوعی و همسو کردن اقدامات با باورها

اعتصاب غذای مایکل ترازی نشان دهنده نگرانی فزاینده در مورد خطرات احتمالی هوش مصنوعی و لزوم توجه بیشتر به این موضوع است.

درباره نویسنده

تحریریه آی نو

ارسال دیدگاه
0 دیدگاه

نظر شما در مورد این مطلب چیه؟

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *