آیا OpenAI به یک امپراتوری در دنیای هوش مصنوعی تبدیل شده است؟
کارن هائو در کتاب «امپراتوری هوش مصنوعی» استدلال میکند که OpenAI با تمرکز بر AGI، به یک امپراتوری قدرتمند تبدیل شده و هزینههای زیادی را به همراه داشته است.
در قلب هر امپراتوری، یک ایدئولوژی وجود دارد، یک سیستم اعتقادی که سیستم را به جلو میراند و گسترش را توجیه میکند – حتی اگر هزینه این گسترش مستقیماً مأموریت اعلام شده ایدئولوژی را نقض کند. برای قدرتهای استعماری اروپا، این مسیحیت و وعده نجات روحها در حین استخراج منابع بود. برای امپراتوری هوش مصنوعی امروز، این هوش مصنوعی عمومی است تا «به نفع همه بشریت» باشد. و OpenAI مبلغ اصلی آن است، و تعصب را در سراسر صنعت به گونهای گسترش میدهد که نحوه ساخت هوش مصنوعی را تغییر داده است.

OpenAI: مبلغ هوش مصنوعی عمومی (AGI)
کارن هائو، روزنامهنگار و نویسنده پرفروش کتاب «امپراتوری هوش مصنوعی»، در مصاحبهای با تککرانچ گفت: «من با افرادی مصاحبه میکردم که صدایشان از شدت اعتقاد به AGI میلرزید.»
هائو در کتاب خود، صنعت هوش مصنوعی به طور کلی و OpenAI به طور خاص را به یک امپراتوری تشبیه میکند. او میگوید: «تنها راه برای درک واقعی دامنه و مقیاس رفتار OpenAI این است که تشخیص دهیم آنها در حال حاضر قدرتمندتر از تقریباً هر کشور-دولتی در جهان رشد کردهاند و مقدار فوقالعادهای از قدرت نه تنها اقتصادی، بلکه قدرت سیاسی را نیز تثبیت کردهاند. آنها در حال تغییر شکل زمین هستند. آنها در حال سیمکشی مجدد ژئوپلیتیک ما، تمام زندگی ما هستند. و بنابراین شما فقط میتوانید آن را به عنوان یک امپراتوری توصیف کنید.»
OpenAI، هوش مصنوعی عمومی (AGI) را به عنوان «یک سیستم بسیار خودمختار که در بیشتر کارهای با ارزش اقتصادی از انسانها بهتر عمل میکند» توصیف کرده است، سیستمی که به نوعی «با افزایش فراوانی، توربو شارژ کردن اقتصاد و کمک به کشف دانش علمی جدید که محدودیتهای امکان را تغییر میدهد، بشریت را ارتقا میبخشد.» این وعدههای مبهم، رشد نمایی صنعت، تقاضای عظیم منابع، اقیانوسهای دادههای خراشیده شده، شبکههای انرژی تحت فشار و تمایل به انتشار سیستمهای آزمایش نشده در جهان را تقویت کرده است. همه در خدمت آیندهای که بسیاری از کارشناسان میگویند ممکن است هرگز فرا نرسد.
هزینههای سرعت در برابر ایمنی و کارایی
هائو میگوید این مسیر اجتنابناپذیر نبود و مقیاسبندی تنها راه برای دستیابی به پیشرفتهای بیشتر در هوش مصنوعی نیست. او میگوید: «شما همچنین میتوانید تکنیکهای جدیدی در الگوریتمها توسعه دهید. شما میتوانید الگوریتمهای موجود را برای کاهش میزان داده و محاسباتی که نیاز به استفاده دارند، بهبود بخشید.» اما این تاکتیک به معنای قربانی کردن سرعت بود.
هائو میگوید: «وقتی شما تلاش برای ساخت AGI سودمند را به عنوان تلاشی تعریف میکنید که در آن برنده همه چیز را میبرد – که این همان کاری است که OpenAI انجام داد – پس مهمترین چیز سرعت بالاتر از هر چیز دیگری است. سرعت بالاتر از کارایی، سرعت بالاتر از ایمنی، سرعت بالاتر از تحقیقات اکتشافی.»

به گفته او، برای OpenAI، بهترین راه برای تضمین سرعت این بود که تکنیکهای موجود را بگیرند و «فقط کار ارزان از نظر فکری را انجام دهند، که این است که دادههای بیشتر، ابررایانههای بیشتری را به آن تکنیکهای موجود پمپ کنند.»
OpenAI صحنه را آماده کرد و به جای عقب افتادن، سایر شرکتهای فناوری تصمیم گرفتند همسو شوند. هائو میگوید: «و از آنجایی که صنعت هوش مصنوعی با موفقیت اکثر محققان برتر هوش مصنوعی در جهان را جذب کرده است و آن محققان دیگر در دانشگاهها وجود ندارند، اکنون یک رشته کامل دارید که توسط دستور کار این شرکتها شکل میگیرد، نه توسط اکتشافات علمی واقعی.»
سرمایهگذاریهای نجومی و خطرات نادیده گرفته شده
هزینهها نجومی بوده و خواهد بود. هفته گذشته، OpenAI اعلام کرد که انتظار دارد تا سال 2029، 115 میلیارد دلار پول نقد بسوزاند. متا در ماه ژوئیه اعلام کرد که تا 72 میلیارد دلار برای ساخت زیرساختهای هوش مصنوعی در سال جاری هزینه خواهد کرد. گوگل انتظار دارد که هزینههای سرمایهای آن برای سال 2025 به 85 میلیارد دلار برسد که بیشتر آن صرف گسترش زیرساختهای هوش مصنوعی و ابری خواهد شد.
در همین حال، اهداف همچنان در حال تغییر هستند و والاترین «مزایای برای بشریت» هنوز محقق نشدهاند، حتی با وجود افزایش آسیبها. آسیبهایی مانند از دست دادن شغل، تمرکز ثروت و رباتهای گفتگوی هوش مصنوعی که به توهمات و روانپریشی دامن میزنند. هائو در کتاب خود همچنین کارگرانی را در کشورهای در حال توسعه مانند کنیا و ونزوئلا مستند میکند که در معرض محتوای آزاردهنده، از جمله مطالب سوء استفاده جنسی از کودکان قرار گرفتند و دستمزدهای بسیار پایینی – حدود 1 تا 2 دلار در ساعت – در نقشهایی مانند تعدیل محتوا و برچسبگذاری دادهها دریافت میکردند.
هوش مصنوعی مفید در مقابل هوش مصنوعی مضر
هائو میگوید این یک معامله نادرست است که پیشرفت هوش مصنوعی را در برابر آسیبهای کنونی قرار دهیم، به خصوص زمانی که سایر اشکال هوش مصنوعی مزایای واقعی ارائه میدهند. او به AlphaFold گوگل DeepMind اشاره کرد که برنده جایزه نوبل شده است، که بر روی دادههای توالی اسید آمینه و ساختارهای پیچیده تاشدگی پروتئین آموزش داده شده است و اکنون میتواند ساختار سه بعدی پروتئینها را از اسیدهای آمینه آنها به طور دقیق پیشبینی کند – که برای کشف دارو و درک بیماری بسیار مفید است.
هائو میگوید: «اینها انواع سیستمهای هوش مصنوعی هستند که ما به آنها نیاز داریم. AlphaFold باعث ایجاد بحرانهای بهداشت روانی در افراد نمیشود. AlphaFold منجر به آسیبهای زیستمحیطی عظیمی نمیشود… زیرا بر روی زیرساختهای بسیار کمتری آموزش داده شده است. این سیستم باعث ایجاد آسیبهای تعدیل محتوا نمیشود زیرا [مجموعه دادهها] تمام آشغالهای سمی را که هنگام خراش دادن اینترنت جمعآوری کردهاید، ندارند.»

رقابت با چین و تاثیرات غیرلیبرالی
در کنار تعهد شبه مذهبی به AGI، روایتی در مورد اهمیت مسابقه برای شکست دادن چین در مسابقه هوش مصنوعی وجود داشته است، به طوری که سیلیکون ولی میتواند تأثیر لیبرالی بر جهان داشته باشد. هائو میگوید: «به معنای واقعی کلمه، برعکس این اتفاق افتاده است. شکاف بین ایالات متحده و چین همچنان در حال بسته شدن است و سیلیکون ولی تأثیر غیرلیبرالی بر جهان داشته است… و تنها بازیگری که از این وضعیت بدون آسیب بیرون آمده است، میتوان گفت خود سیلیکون ولی است.»
البته، بسیاری استدلال خواهند کرد که OpenAI و سایر شرکتهای هوش مصنوعی با انتشار ChatGPT و سایر مدلهای زبان بزرگ، به بشریت سود رساندهاند، که وعده افزایش بهرهوری زیادی را با خودکارسازی وظایفی مانند کدنویسی، نوشتن، تحقیق، پشتیبانی مشتری و سایر وظایف دانشمحور میدهند.
اما نحوه ساختار OpenAI – بخشی غیرانتفاعی، بخشی انتفاعی – نحوه تعریف و اندازهگیری تأثیر آن بر بشریت را پیچیده میکند. و این با خبری که این هفته منتشر شد، پیچیدهتر میشود که OpenAI به توافقی با مایکروسافت رسیده است که آن را به عرضه عمومی نزدیکتر میکند.
نگرانیهای محققان و خطرات اعتقاد بیش از حد
دو محقق ایمنی سابق OpenAI به تککرانچ گفتند که میترسند این آزمایشگاه هوش مصنوعی شروع به اشتباه گرفتن مأموریتهای انتفاعی و غیرانتفاعی خود کرده باشد – به این دلیل که مردم از استفاده از ChatGPT و سایر محصولات ساخته شده بر روی LLMها لذت میبرند، این موضوع جعبه سود رساندن به بشریت را تیک میزند.
برای مطالعه اخبار بیشتر اینجا کلیک کنید.
هائو این نگرانیها را تکرار کرد و خطرات غرق شدن در مأموریتی را که واقعیت نادیده گرفته میشود، توصیف کرد. هائو میگوید: «حتی با وجود انباشته شدن شواهدی مبنی بر اینکه آنچه آنها میسازند در واقع به مقادیر قابل توجهی از مردم آسیب میرساند، این مأموریت همچنان همه اینها را پنهان میکند. چیزی واقعاً خطرناک و تاریک در مورد این وجود دارد، [اینکه] آنقدر در یک سیستم اعتقادی که ساختهاید غرق شدهاید که ارتباط خود را با واقعیت از دست میدهید.»
بر اساس گزارشی از تککرانچ.
نظر شما در مورد این مطلب چیه؟