آی نو؛ مرجع تخصصی اخبار و آموزش هوش مصنوعی

هوش مصنوعی: امپراتوری OpenAI و هزینه‌های اعتقاد

هوش مصنوعی: امپراتوری OpenAI و هزینه‌های اعتقاد

آیا OpenAI به یک امپراتوری در دنیای هوش مصنوعی تبدیل شده است؟ کارن هائو در کتاب «امپراتوری هوش مصنوعی» استدلال می‌کند که OpenAI با تمرکز بر AGI، به یک امپراتوری قدرتمند تبدیل شده و هزینه‌های زیادی را به همراه داشته است. در قلب هر امپراتوری، یک ایدئولوژی وجود دارد، یک…

- اندازه متن +

آیا OpenAI به یک امپراتوری در دنیای هوش مصنوعی تبدیل شده است؟

کارن هائو در کتاب «امپراتوری هوش مصنوعی» استدلال می‌کند که OpenAI با تمرکز بر AGI، به یک امپراتوری قدرتمند تبدیل شده و هزینه‌های زیادی را به همراه داشته است.

در قلب هر امپراتوری، یک ایدئولوژی وجود دارد، یک سیستم اعتقادی که سیستم را به جلو می‌راند و گسترش را توجیه می‌کند – حتی اگر هزینه این گسترش مستقیماً مأموریت اعلام شده ایدئولوژی را نقض کند. برای قدرت‌های استعماری اروپا، این مسیحیت و وعده نجات روح‌ها در حین استخراج منابع بود. برای امپراتوری هوش مصنوعی امروز، این هوش مصنوعی عمومی است تا «به نفع همه بشریت» باشد. و OpenAI مبلغ اصلی آن است، و تعصب را در سراسر صنعت به گونه‌ای گسترش می‌دهد که نحوه ساخت هوش مصنوعی را تغییر داده است.

OpenAI: مبلغ هوش مصنوعی عمومی (AGI)

کارن هائو، روزنامه‌نگار و نویسنده پرفروش کتاب «امپراتوری هوش مصنوعی»، در مصاحبه‌ای با تک‌کرانچ گفت: «من با افرادی مصاحبه می‌کردم که صدایشان از شدت اعتقاد به AGI می‌لرزید.»

هائو در کتاب خود، صنعت هوش مصنوعی به طور کلی و OpenAI به طور خاص را به یک امپراتوری تشبیه می‌کند. او می‌گوید: «تنها راه برای درک واقعی دامنه و مقیاس رفتار OpenAI این است که تشخیص دهیم آن‌ها در حال حاضر قدرتمندتر از تقریباً هر کشور-دولتی در جهان رشد کرده‌اند و مقدار فوق‌العاده‌ای از قدرت نه تنها اقتصادی، بلکه قدرت سیاسی را نیز تثبیت کرده‌اند. آن‌ها در حال تغییر شکل زمین هستند. آن‌ها در حال سیم‌کشی مجدد ژئوپلیتیک ما، تمام زندگی ما هستند. و بنابراین شما فقط می‌توانید آن را به عنوان یک امپراتوری توصیف کنید.»

OpenAI، هوش مصنوعی عمومی (AGI) را به عنوان «یک سیستم بسیار خودمختار که در بیشتر کارهای با ارزش اقتصادی از انسان‌ها بهتر عمل می‌کند» توصیف کرده است، سیستمی که به نوعی «با افزایش فراوانی، توربو شارژ کردن اقتصاد و کمک به کشف دانش علمی جدید که محدودیت‌های امکان را تغییر می‌دهد، بشریت را ارتقا می‌بخشد.» این وعده‌های مبهم، رشد نمایی صنعت، تقاضای عظیم منابع، اقیانوس‌های داده‌های خراشیده شده، شبکه‌های انرژی تحت فشار و تمایل به انتشار سیستم‌های آزمایش نشده در جهان را تقویت کرده است. همه در خدمت آینده‌ای که بسیاری از کارشناسان می‌گویند ممکن است هرگز فرا نرسد.

هزینه‌های سرعت در برابر ایمنی و کارایی

هائو می‌گوید این مسیر اجتناب‌ناپذیر نبود و مقیاس‌بندی تنها راه برای دستیابی به پیشرفت‌های بیشتر در هوش مصنوعی نیست. او می‌گوید: «شما همچنین می‌توانید تکنیک‌های جدیدی در الگوریتم‌ها توسعه دهید. شما می‌توانید الگوریتم‌های موجود را برای کاهش میزان داده و محاسباتی که نیاز به استفاده دارند، بهبود بخشید.» اما این تاکتیک به معنای قربانی کردن سرعت بود.

هائو می‌گوید: «وقتی شما تلاش برای ساخت AGI سودمند را به عنوان تلاشی تعریف می‌کنید که در آن برنده همه چیز را می‌برد – که این همان کاری است که OpenAI انجام داد – پس مهم‌ترین چیز سرعت بالاتر از هر چیز دیگری است. سرعت بالاتر از کارایی، سرعت بالاتر از ایمنی، سرعت بالاتر از تحقیقات اکتشافی.»

به گفته او، برای OpenAI، بهترین راه برای تضمین سرعت این بود که تکنیک‌های موجود را بگیرند و «فقط کار ارزان از نظر فکری را انجام دهند، که این است که داده‌های بیشتر، ابررایانه‌های بیشتری را به آن تکنیک‌های موجود پمپ کنند.»

OpenAI صحنه را آماده کرد و به جای عقب افتادن، سایر شرکت‌های فناوری تصمیم گرفتند همسو شوند. هائو می‌گوید: «و از آنجایی که صنعت هوش مصنوعی با موفقیت اکثر محققان برتر هوش مصنوعی در جهان را جذب کرده است و آن محققان دیگر در دانشگاه‌ها وجود ندارند، اکنون یک رشته کامل دارید که توسط دستور کار این شرکت‌ها شکل می‌گیرد، نه توسط اکتشافات علمی واقعی.»

سرمایه‌گذاری‌های نجومی و خطرات نادیده گرفته شده

هزینه‌ها نجومی بوده و خواهد بود. هفته گذشته، OpenAI اعلام کرد که انتظار دارد تا سال 2029، 115 میلیارد دلار پول نقد بسوزاند. متا در ماه ژوئیه اعلام کرد که تا 72 میلیارد دلار برای ساخت زیرساخت‌های هوش مصنوعی در سال جاری هزینه خواهد کرد. گوگل انتظار دارد که هزینه‌های سرمایه‌ای آن برای سال 2025 به 85 میلیارد دلار برسد که بیشتر آن صرف گسترش زیرساخت‌های هوش مصنوعی و ابری خواهد شد.

در همین حال، اهداف همچنان در حال تغییر هستند و والاترین «مزایای برای بشریت» هنوز محقق نشده‌اند، حتی با وجود افزایش آسیب‌ها. آسیب‌هایی مانند از دست دادن شغل، تمرکز ثروت و ربات‌های گفتگوی هوش مصنوعی که به توهمات و روان‌پریشی دامن می‌زنند. هائو در کتاب خود همچنین کارگرانی را در کشورهای در حال توسعه مانند کنیا و ونزوئلا مستند می‌کند که در معرض محتوای آزاردهنده، از جمله مطالب سوء استفاده جنسی از کودکان قرار گرفتند و دستمزدهای بسیار پایینی – حدود 1 تا 2 دلار در ساعت – در نقش‌هایی مانند تعدیل محتوا و برچسب‌گذاری داده‌ها دریافت می‌کردند.

هوش مصنوعی مفید در مقابل هوش مصنوعی مضر

هائو می‌گوید این یک معامله نادرست است که پیشرفت هوش مصنوعی را در برابر آسیب‌های کنونی قرار دهیم، به خصوص زمانی که سایر اشکال هوش مصنوعی مزایای واقعی ارائه می‌دهند. او به AlphaFold گوگل DeepMind اشاره کرد که برنده جایزه نوبل شده است، که بر روی داده‌های توالی اسید آمینه و ساختارهای پیچیده تاشدگی پروتئین آموزش داده شده است و اکنون می‌تواند ساختار سه بعدی پروتئین‌ها را از اسیدهای آمینه آن‌ها به طور دقیق پیش‌بینی کند – که برای کشف دارو و درک بیماری بسیار مفید است.

هائو می‌گوید: «این‌ها انواع سیستم‌های هوش مصنوعی هستند که ما به آن‌ها نیاز داریم. AlphaFold باعث ایجاد بحران‌های بهداشت روانی در افراد نمی‌شود. AlphaFold منجر به آسیب‌های زیست‌محیطی عظیمی نمی‌شود… زیرا بر روی زیرساخت‌های بسیار کمتری آموزش داده شده است. این سیستم باعث ایجاد آسیب‌های تعدیل محتوا نمی‌شود زیرا [مجموعه داده‌ها] تمام آشغال‌های سمی را که هنگام خراش دادن اینترنت جمع‌آوری کرده‌اید، ندارند.»

رقابت با چین و تاثیرات غیرلیبرالی

در کنار تعهد شبه مذهبی به AGI، روایتی در مورد اهمیت مسابقه برای شکست دادن چین در مسابقه هوش مصنوعی وجود داشته است، به طوری که سیلیکون ولی می‌تواند تأثیر لیبرالی بر جهان داشته باشد. هائو می‌گوید: «به معنای واقعی کلمه، برعکس این اتفاق افتاده است. شکاف بین ایالات متحده و چین همچنان در حال بسته شدن است و سیلیکون ولی تأثیر غیرلیبرالی بر جهان داشته است… و تنها بازیگری که از این وضعیت بدون آسیب بیرون آمده است، می‌توان گفت خود سیلیکون ولی است.»

البته، بسیاری استدلال خواهند کرد که OpenAI و سایر شرکت‌های هوش مصنوعی با انتشار ChatGPT و سایر مدل‌های زبان بزرگ، به بشریت سود رسانده‌اند، که وعده افزایش بهره‌وری زیادی را با خودکارسازی وظایفی مانند کدنویسی، نوشتن، تحقیق، پشتیبانی مشتری و سایر وظایف دانش‌محور می‌دهند.

اما نحوه ساختار OpenAI – بخشی غیرانتفاعی، بخشی انتفاعی – نحوه تعریف و اندازه‌گیری تأثیر آن بر بشریت را پیچیده می‌کند. و این با خبری که این هفته منتشر شد، پیچیده‌تر می‌شود که OpenAI به توافقی با مایکروسافت رسیده است که آن را به عرضه عمومی نزدیک‌تر می‌کند.

نگرانی‌های محققان و خطرات اعتقاد بیش از حد

دو محقق ایمنی سابق OpenAI به تک‌کرانچ گفتند که می‌ترسند این آزمایشگاه هوش مصنوعی شروع به اشتباه گرفتن مأموریت‌های انتفاعی و غیرانتفاعی خود کرده باشد – به این دلیل که مردم از استفاده از ChatGPT و سایر محصولات ساخته شده بر روی LLMها لذت می‌برند، این موضوع جعبه سود رساندن به بشریت را تیک می‌زند.

برای مطالعه اخبار بیشتر اینجا کلیک کنید.

هائو این نگرانی‌ها را تکرار کرد و خطرات غرق شدن در مأموریتی را که واقعیت نادیده گرفته می‌شود، توصیف کرد. هائو می‌گوید: «حتی با وجود انباشته شدن شواهدی مبنی بر اینکه آنچه آن‌ها می‌سازند در واقع به مقادیر قابل توجهی از مردم آسیب می‌رساند، این مأموریت همچنان همه این‌ها را پنهان می‌کند. چیزی واقعاً خطرناک و تاریک در مورد این وجود دارد، [اینکه] آنقدر در یک سیستم اعتقادی که ساخته‌اید غرق شده‌اید که ارتباط خود را با واقعیت از دست می‌دهید.»

بر اساس گزارشی از تک‌کرانچ.

درباره نویسنده

تحریریه آی نو

ارسال دیدگاه
0 دیدگاه

نظر شما در مورد این مطلب چیه؟

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *