آی نو؛ مرجع تخصصی اخبار و آموزش هوش مصنوعی

جنگ در silicon valley: آیا ایمنی هوش مصنوعی قربانی سود می‌شود؟

جنگ در silicon valley: آیا ایمنی هوش مصنوعی قربانی سود می‌شود؟

نبرد بین مدافعان ایمنی هوش مصنوعی و غول‌های فناوری silicon valley در هفته‌های اخیر، اظهارات برخی از رهبران silicon valley، از جمله دیوید ساکس، مسئول هوش مصنوعی کاخ سفید، و جیسون کوان، مدیر ارشد استراتژی OpenAI، جنجال زیادی را در فضای آنلاین به پا کرده است. این افراد مدعی شده‌اند…

- اندازه متن +

نبرد بین مدافعان ایمنی هوش مصنوعی و غول‌های فناوری silicon valley

در هفته‌های اخیر، اظهارات برخی از رهبران silicon valley، از جمله دیوید ساکس، مسئول هوش مصنوعی کاخ سفید، و جیسون کوان، مدیر ارشد استراتژی OpenAI، جنجال زیادی را در فضای آنلاین به پا کرده است. این افراد مدعی شده‌اند که برخی از مدافعان ایمنی هوش مصنوعی آنقدرها هم که به نظر می‌رسند بی‌طرف و درستکار نیستند و احتمالاً منافع شخصی یا اهداف پنهان دیگری را دنبال می‌کنند.

گروه‌های ایمنی هوش مصنوعی در مصاحبه با TechCrunch این اتهامات را تلاشی از سوی سیلیکون‌ولی برای ارعاب منتقدان خود می‌دانند. به گفته آن‌ها، این اولین بار نیست که چنین اتفاقی می‌افتد. در سال ۲۰۲۴، برخی از شرکت‌های سرمایه‌گذاری خطرپذیر شایعاتی را منتشر کردند مبنی بر اینکه لایحه SB 1047 کالیفرنیا، که به ایمنی هوش مصنوعی مربوط می‌شد، بنیان‌گذاران استارت‌آپ‌ها را به زندان می‌اندازد. موسسه بروکینگز این شایعه را یکی از «تحریفات» متعدد درباره این لایحه خواند، اما در نهایت، فرماندار گاوین نیوسام آن را وتو کرد. بر اساس گزارشی از TechCrunch، این موضوع نشان‌دهنده افزایش تنش بین ساخت هوش مصنوعی به صورت مسئولانه و ساخت آن به عنوان یک محصول مصرفی بزرگ است.

ترس و سکوت در میان مدافعان ایمنی هوش مصنوعی

صرف‌نظر از اینکه ساکس و OpenAI قصد ارعاب منتقدان را داشته‌اند یا نه، اقدامات آن‌ها باعث ترس و نگرانی در میان بسیاری از مدافعان ایمنی هوش مصنوعی شده است. بسیاری از رهبران سازمان‌های غیرانتفاعی که TechCrunch در هفته گذشته با آن‌ها تماس گرفت، خواستار ناشناس ماندن شدند تا گروه‌هایشان از انتقام‌جویی در امان بمانند.

شکاف بین ایمنی و سود

این جنجال نشان‌دهنده تنش فزاینده بین ساخت هوش مصنوعی به صورت مسئولانه و تبدیل آن به یک محصول مصرفی گسترده است. این موضوعی است که در پادکست Equity به آن پرداخته شده است. همچنین، در این پادکست به قانون جدید ایمنی هوش مصنوعی که در کالیفرنیا برای تنظیم ربات‌های گفتگو تصویب شده است و رویکرد OpenAI به محتوای اروتیک در ChatGPT نیز پرداخته شده است.

اتهامات دیوید ساکس علیه Anthropic

دیوید ساکس در پستی در X (توییتر سابق) ادعا کرد که Anthropic، که نگرانی‌هایی را در مورد توانایی هوش مصنوعی در ایجاد بیکاری، حملات سایبری و آسیب‌های فاجعه‌بار به جامعه مطرح کرده است، صرفاً در حال ایجاد ترس و وحشت است تا قوانینی را تصویب کند که به نفع خودش باشد و استارت‌آپ‌های کوچک‌تر را در انبوهی از کاغذبازی غرق کند. لازم به ذکر است که Anthropic تنها آزمایشگاه بزرگ هوش مصنوعی بود که از لایحه سنای کالیفرنیا (SB 53) حمایت کرد. این لایحه، که ماه گذشته به قانون تبدیل شد، الزامات گزارش‌دهی ایمنی را برای شرکت‌های بزرگ هوش مصنوعی تعیین می‌کند.

ساکس در پاسخ به مقاله‌ای ویروسی از جک کلارک، یکی از بنیان‌گذاران Anthropic، درباره ترس‌هایش در مورد هوش مصنوعی، این اظهارات را مطرح کرد. کلارک این مقاله را به عنوان سخنرانی در کنفرانس ایمنی هوش مصنوعی Curve در برکلی ارائه کرد. ساکس معتقد است که Anthropic در حال اجرای یک «استراتژی پیچیده تسخیر نظارتی» است. او در پست دیگری در X خاطرنشان کرد که Anthropic «به طور مداوم خود را به عنوان دشمن دولت ترامپ معرفی کرده است.»

شکایت OpenAI از سازمان‌های غیرانتفاعی

همچنین در این هفته، جیسون کوان، مدیر ارشد استراتژی OpenAI، در پستی در X توضیح داد که چرا این شرکت در حال ارسال احضاریه برای سازمان‌های غیرانتفاعی ایمنی هوش مصنوعی، مانند Encode، است. کوان گفت که پس از شکایت ایلان ماسک از OpenAI – به دلیل نگرانی از اینکه سازنده ChatGPT از ماموریت غیرانتفاعی خود منحرف شده است – OpenAI متوجه شد که چگونه چندین سازمان نیز مخالفت خود را با بازسازی آن اعلام کرده‌اند.

کوان در این باره گفت: «این موضوع سوالاتی را در مورد شفافیت، منابع مالی و هماهنگی احتمالی آن‌ها ایجاد کرد.»

شبکه خبری NBC News گزارش داد که OpenAI احضاریه‌های گسترده‌ای را برای Encode و شش سازمان غیرانتفاعی دیگر که از این شرکت انتقاد کرده بودند، ارسال کرده و خواستار ارتباطات آن‌ها با دو تن از بزرگترین مخالفان OpenAI، یعنی ایلان ماسک و مارک زاکربرگ، مدیرعامل متا، شده است. OpenAI همچنین از Encode خواستار ارتباطات مربوط به حمایت این سازمان از SB 53 شده است.

شکاف در داخل OpenAI

یکی از رهبران برجسته ایمنی هوش مصنوعی به TechCrunch گفت که شکاف فزاینده‌ای بین تیم امور دولتی OpenAI و سازمان تحقیقاتی آن وجود دارد. در حالی که محققان ایمنی OpenAI به طور مرتب گزارش‌هایی را در مورد خطرات سیستم‌های هوش مصنوعی منتشر می‌کنند، واحد سیاست‌گذاری OpenAI علیه SB 53 لابی کرد و گفت که ترجیح می‌دهد قوانین یکنواختی در سطح فدرال وجود داشته باشد.

جاشوا آچیام، رئیس بخش همسویی ماموریت OpenAI، در پستی در X در مورد ارسال احضاریه توسط شرکتش برای سازمان‌های غیرانتفاعی صحبت کرد و گفت: «با وجود ریسکی که ممکن است برای کل حرفه‌ام داشته باشد، باید بگویم: این کار به نظر عالی نمی‌رسد.»

تلاش برای ساکت کردن منتقدان؟

برندان اشتاین‌هاوزر، مدیرعامل سازمان غیرانتفاعی ایمنی هوش مصنوعی Alliance for Secure AI (که توسط OpenAI احضار نشده است)، به TechCrunch گفت که OpenAI متقاعد شده است که منتقدانش بخشی از یک توطئه به رهبری ماسک هستند. با این حال، او استدلال می‌کند که اینطور نیست و بخش بزرگی از جامعه ایمنی هوش مصنوعی انتقادهای زیادی به شیوه‌های ایمنی xAI، یا فقدان آن، دارد.

اشتاین‌هاوزر در این باره گفت: «به نظر من، این اقدام OpenAI به منظور ساکت کردن منتقدان، ارعاب آن‌ها و منصرف کردن سایر سازمان‌های غیرانتفاعی از انجام همین کار است. به نظر من، ساکس نگران این است که جنبش [ایمنی هوش مصنوعی] در حال رشد است و مردم می‌خواهند این شرکت‌ها را مسئول بدانند.»

دیدگاه‌های متفاوت

سریرام کریشنان، مشاور ارشد سیاست‌گذاری هوش مصنوعی کاخ سفید، نیز در این هفته با انتشار پستی در شبکه‌های اجتماعی به این گفتگو پیوست و مدافعان ایمنی هوش مصنوعی را افرادی دور از واقعیت خواند. او از سازمان‌های ایمنی هوش مصنوعی خواست که با «افراد دنیای واقعی که از هوش مصنوعی در خانه‌ها و سازمان‌های خود استفاده می‌کنند، می‌فروشند و آن را به کار می‌گیرند» صحبت کنند.

مطالعه‌ای که اخیراً توسط Pew انجام شده نشان می‌دهد که تقریباً نیمی از آمریکایی‌ها بیشتر نگران هوش مصنوعی هستند تا هیجان‌زده. مطالعه دیگری نشان داد که رای‌دهندگان آمریکایی بیشتر نگران از دست دادن شغل و دیپ‌فیک‌ها هستند تا خطرات فاجعه‌باری که جنبش ایمنی هوش مصنوعی بر آن‌ها متمرکز است.

آینده ایمنی هوش مصنوعی

پرداختن به این نگرانی‌های ایمنی ممکن است به قیمت رشد سریع صنعت هوش مصنوعی تمام شود – این معامله‌ای است که بسیاری در سیلیکون‌ولی را نگران می‌کند. با توجه به اینکه سرمایه‌گذاری در هوش مصنوعی بخش بزرگی از اقتصاد آمریکا را تقویت می‌کند، ترس از مقررات بیش از حد قابل درک است.

اما پس از سال‌ها پیشرفت بدون مقررات در زمینه هوش مصنوعی، به نظر می‌رسد که جنبش ایمنی هوش مصنوعی در آستانه سال ۲۰۲۶ در حال به دست آوردن قدرت واقعی است. تلاش‌های سیلیکون‌ولی برای مبارزه با گروه‌های متمرکز بر ایمنی ممکن است نشانه‌ای از این باشد که آن‌ها در حال تأثیرگذاری هستند.

برای مطالعه اخبار بیشتر اینجا کلیک کنید.

درباره نویسنده

تحریریه آی نو

ارسال دیدگاه
0 دیدگاه

نظر شما در مورد این مطلب چیه؟

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *