نبرد بین مدافعان ایمنی هوش مصنوعی و غولهای فناوری silicon valley
در هفتههای اخیر، اظهارات برخی از رهبران silicon valley، از جمله دیوید ساکس، مسئول هوش مصنوعی کاخ سفید، و جیسون کوان، مدیر ارشد استراتژی OpenAI، جنجال زیادی را در فضای آنلاین به پا کرده است. این افراد مدعی شدهاند که برخی از مدافعان ایمنی هوش مصنوعی آنقدرها هم که به نظر میرسند بیطرف و درستکار نیستند و احتمالاً منافع شخصی یا اهداف پنهان دیگری را دنبال میکنند.
گروههای ایمنی هوش مصنوعی در مصاحبه با TechCrunch این اتهامات را تلاشی از سوی سیلیکونولی برای ارعاب منتقدان خود میدانند. به گفته آنها، این اولین بار نیست که چنین اتفاقی میافتد. در سال ۲۰۲۴، برخی از شرکتهای سرمایهگذاری خطرپذیر شایعاتی را منتشر کردند مبنی بر اینکه لایحه SB 1047 کالیفرنیا، که به ایمنی هوش مصنوعی مربوط میشد، بنیانگذاران استارتآپها را به زندان میاندازد. موسسه بروکینگز این شایعه را یکی از «تحریفات» متعدد درباره این لایحه خواند، اما در نهایت، فرماندار گاوین نیوسام آن را وتو کرد. بر اساس گزارشی از TechCrunch، این موضوع نشاندهنده افزایش تنش بین ساخت هوش مصنوعی به صورت مسئولانه و ساخت آن به عنوان یک محصول مصرفی بزرگ است.

ترس و سکوت در میان مدافعان ایمنی هوش مصنوعی
صرفنظر از اینکه ساکس و OpenAI قصد ارعاب منتقدان را داشتهاند یا نه، اقدامات آنها باعث ترس و نگرانی در میان بسیاری از مدافعان ایمنی هوش مصنوعی شده است. بسیاری از رهبران سازمانهای غیرانتفاعی که TechCrunch در هفته گذشته با آنها تماس گرفت، خواستار ناشناس ماندن شدند تا گروههایشان از انتقامجویی در امان بمانند.
شکاف بین ایمنی و سود
این جنجال نشاندهنده تنش فزاینده بین ساخت هوش مصنوعی به صورت مسئولانه و تبدیل آن به یک محصول مصرفی گسترده است. این موضوعی است که در پادکست Equity به آن پرداخته شده است. همچنین، در این پادکست به قانون جدید ایمنی هوش مصنوعی که در کالیفرنیا برای تنظیم رباتهای گفتگو تصویب شده است و رویکرد OpenAI به محتوای اروتیک در ChatGPT نیز پرداخته شده است.
اتهامات دیوید ساکس علیه Anthropic
دیوید ساکس در پستی در X (توییتر سابق) ادعا کرد که Anthropic، که نگرانیهایی را در مورد توانایی هوش مصنوعی در ایجاد بیکاری، حملات سایبری و آسیبهای فاجعهبار به جامعه مطرح کرده است، صرفاً در حال ایجاد ترس و وحشت است تا قوانینی را تصویب کند که به نفع خودش باشد و استارتآپهای کوچکتر را در انبوهی از کاغذبازی غرق کند. لازم به ذکر است که Anthropic تنها آزمایشگاه بزرگ هوش مصنوعی بود که از لایحه سنای کالیفرنیا (SB 53) حمایت کرد. این لایحه، که ماه گذشته به قانون تبدیل شد، الزامات گزارشدهی ایمنی را برای شرکتهای بزرگ هوش مصنوعی تعیین میکند.
ساکس در پاسخ به مقالهای ویروسی از جک کلارک، یکی از بنیانگذاران Anthropic، درباره ترسهایش در مورد هوش مصنوعی، این اظهارات را مطرح کرد. کلارک این مقاله را به عنوان سخنرانی در کنفرانس ایمنی هوش مصنوعی Curve در برکلی ارائه کرد. ساکس معتقد است که Anthropic در حال اجرای یک «استراتژی پیچیده تسخیر نظارتی» است. او در پست دیگری در X خاطرنشان کرد که Anthropic «به طور مداوم خود را به عنوان دشمن دولت ترامپ معرفی کرده است.»

شکایت OpenAI از سازمانهای غیرانتفاعی
همچنین در این هفته، جیسون کوان، مدیر ارشد استراتژی OpenAI، در پستی در X توضیح داد که چرا این شرکت در حال ارسال احضاریه برای سازمانهای غیرانتفاعی ایمنی هوش مصنوعی، مانند Encode، است. کوان گفت که پس از شکایت ایلان ماسک از OpenAI – به دلیل نگرانی از اینکه سازنده ChatGPT از ماموریت غیرانتفاعی خود منحرف شده است – OpenAI متوجه شد که چگونه چندین سازمان نیز مخالفت خود را با بازسازی آن اعلام کردهاند.
کوان در این باره گفت: «این موضوع سوالاتی را در مورد شفافیت، منابع مالی و هماهنگی احتمالی آنها ایجاد کرد.»
شبکه خبری NBC News گزارش داد که OpenAI احضاریههای گستردهای را برای Encode و شش سازمان غیرانتفاعی دیگر که از این شرکت انتقاد کرده بودند، ارسال کرده و خواستار ارتباطات آنها با دو تن از بزرگترین مخالفان OpenAI، یعنی ایلان ماسک و مارک زاکربرگ، مدیرعامل متا، شده است. OpenAI همچنین از Encode خواستار ارتباطات مربوط به حمایت این سازمان از SB 53 شده است.
شکاف در داخل OpenAI
یکی از رهبران برجسته ایمنی هوش مصنوعی به TechCrunch گفت که شکاف فزایندهای بین تیم امور دولتی OpenAI و سازمان تحقیقاتی آن وجود دارد. در حالی که محققان ایمنی OpenAI به طور مرتب گزارشهایی را در مورد خطرات سیستمهای هوش مصنوعی منتشر میکنند، واحد سیاستگذاری OpenAI علیه SB 53 لابی کرد و گفت که ترجیح میدهد قوانین یکنواختی در سطح فدرال وجود داشته باشد.
جاشوا آچیام، رئیس بخش همسویی ماموریت OpenAI، در پستی در X در مورد ارسال احضاریه توسط شرکتش برای سازمانهای غیرانتفاعی صحبت کرد و گفت: «با وجود ریسکی که ممکن است برای کل حرفهام داشته باشد، باید بگویم: این کار به نظر عالی نمیرسد.»

تلاش برای ساکت کردن منتقدان؟
برندان اشتاینهاوزر، مدیرعامل سازمان غیرانتفاعی ایمنی هوش مصنوعی Alliance for Secure AI (که توسط OpenAI احضار نشده است)، به TechCrunch گفت که OpenAI متقاعد شده است که منتقدانش بخشی از یک توطئه به رهبری ماسک هستند. با این حال، او استدلال میکند که اینطور نیست و بخش بزرگی از جامعه ایمنی هوش مصنوعی انتقادهای زیادی به شیوههای ایمنی xAI، یا فقدان آن، دارد.
اشتاینهاوزر در این باره گفت: «به نظر من، این اقدام OpenAI به منظور ساکت کردن منتقدان، ارعاب آنها و منصرف کردن سایر سازمانهای غیرانتفاعی از انجام همین کار است. به نظر من، ساکس نگران این است که جنبش [ایمنی هوش مصنوعی] در حال رشد است و مردم میخواهند این شرکتها را مسئول بدانند.»
دیدگاههای متفاوت
سریرام کریشنان، مشاور ارشد سیاستگذاری هوش مصنوعی کاخ سفید، نیز در این هفته با انتشار پستی در شبکههای اجتماعی به این گفتگو پیوست و مدافعان ایمنی هوش مصنوعی را افرادی دور از واقعیت خواند. او از سازمانهای ایمنی هوش مصنوعی خواست که با «افراد دنیای واقعی که از هوش مصنوعی در خانهها و سازمانهای خود استفاده میکنند، میفروشند و آن را به کار میگیرند» صحبت کنند.
مطالعهای که اخیراً توسط Pew انجام شده نشان میدهد که تقریباً نیمی از آمریکاییها بیشتر نگران هوش مصنوعی هستند تا هیجانزده. مطالعه دیگری نشان داد که رایدهندگان آمریکایی بیشتر نگران از دست دادن شغل و دیپفیکها هستند تا خطرات فاجعهباری که جنبش ایمنی هوش مصنوعی بر آنها متمرکز است.

آینده ایمنی هوش مصنوعی
پرداختن به این نگرانیهای ایمنی ممکن است به قیمت رشد سریع صنعت هوش مصنوعی تمام شود – این معاملهای است که بسیاری در سیلیکونولی را نگران میکند. با توجه به اینکه سرمایهگذاری در هوش مصنوعی بخش بزرگی از اقتصاد آمریکا را تقویت میکند، ترس از مقررات بیش از حد قابل درک است.
اما پس از سالها پیشرفت بدون مقررات در زمینه هوش مصنوعی، به نظر میرسد که جنبش ایمنی هوش مصنوعی در آستانه سال ۲۰۲۶ در حال به دست آوردن قدرت واقعی است. تلاشهای سیلیکونولی برای مبارزه با گروههای متمرکز بر ایمنی ممکن است نشانهای از این باشد که آنها در حال تأثیرگذاری هستند.
نظر شما در مورد این مطلب چیه؟