آی نو؛ مرجع تخصصی اخبار و آموزش هوش مصنوعی

پژوهشگران یک شبکه اجتماعی از ربات‌های هوش مصنوعی ساختند

پژوهشگران یک شبکه اجتماعی از ربات‌های هوش مصنوعی ساختند

پژوهشگران دانشگاه آمستردام یک پلتفرم اجتماعی بسیار ساده ساختند؛ بدون تبلیغات، بدون پست‌های پیشنهادی و بدون الگوریتمی که تعیین کند کاربران چه می‌بینند. سپس آن را با ۵۰۰ چت‌بات مبتنی بر GPT‑4o mini پر کردند که برای هرکدام یک «پرسونا»ی متمایز — شامل گرایش‌های سیاسی مشخص — تعریف شده بود.…

- اندازه متن +

پژوهشگران دانشگاه آمستردام یک پلتفرم اجتماعی بسیار ساده ساختند؛ بدون تبلیغات، بدون پست‌های پیشنهادی و بدون الگوریتمی که تعیین کند کاربران چه می‌بینند. سپس آن را با ۵۰۰ چت‌بات مبتنی بر GPT‑4o mini پر کردند که برای هرکدام یک «پرسونا»ی متمایز — شامل گرایش‌های سیاسی مشخص — تعریف شده بود.

به گفته تیم تحقیق، این پرسوناها از مجموعه‌داده American National Election Studies گرفته شد تا توزیع‌های دنیای واقعیِ سن، جنسیت، درآمد، تحصیلات، گرایش حزبی، ایدئولوژی، مذهب و علایق شخصی بازتاب داشته باشد. این آزمایش با مدل‌های Llama‑3.2‑8B و DeepSeek‑R1 نیز تکرار شد و «الگوهای کیفی مشابهی» به دست آمد.

در پنج آزمایش مستقل — هرکدام با بیش از ۱۰هزار کنش — ربات‌ها آزاد بودند پست بگذارند، دنبال کنند و بازنشر کنند. الگوی رفتاری به شبکه‌های واقعی شباهت زیادی داشت:

  • همگرایی به سوی هم‌فکران و شکل‌گیری اتاق‌های پژواک و محافل بسته
  • بهره‌مندی نامتوازن صداهای حزبی/افراطی از توجه؛ افراطی‌ترین پست‌ها بیشترین دنبال‌کننده و بازنشر را جذب کردند
  • شکل‌گیری سریع یک اقلیت «اینفلوئنسر» که بر گفتگو مسلط شد؛ مشابه دینامیک پلتفرم‌هایی مانند X و اینستاگرام

پژوهشگران شش مداخله را برای قطع چرخه قطبی‌سازی آزمودند

از جمله: فید زمانی (chronological feed)، کاهش رتبه محتوای وایرال، پنهان‌کردن تعداد دنبال‌کننده، پنهان‌کردن بیو، و تقویت نمایش دیدگاه‌های مخالف. هیچ‌کدام مشکل را به‌طور کامل حل نکرد. به‌گفته نویسندگان: «برخی اثرات مثبت ملایم داشتند، اما آسیب‌های هسته‌ای برطرف نشد و بهبود یک بُعد معمولاً با بدترشدن بُعدی دیگر همراه بود.»

نویسندگان می‌نویسند: «یافته‌های ما این تصور رایج را به چالش می‌کشد که ناکارکردی‌های شبکه‌های اجتماعی عمدتاً حاصل کیوریشن الگوریتمی است. این مشکلات ممکن است در خودِ معماری پلتفرم‌ها ریشه داشته باشد: شبکه‌هایی که با اشتراک‌گذاری‌های احساسی-واکنشی رشد می‌کنند.»

تیم می‌گوید این کار از نخستین موارد استفاده از AI برای پیشبرد نظریه‌پردازی علوم اجتماعی است. با این همه، ایجنت‌های مبتنی بر LLM هرچند می‌توانند «بازنمایی‌های غنی» از رفتار انسانی ارائه دهند، «جعبه‌سیاه» باقی می‌مانند و خطر «سوگیریِ نهفته» دارند.

این نخستین‌بار نیست که چنین آزمایشی انجام می‌شود. در سال ۲۰۲۳ نیز پروژه‌ای به رهبری همین تیم، ۵۰۰ چت‌بات (ChatGPT‑3.5) را وارد یک شبکه اجتماعی شبیه‌سازی‌شده کرد تا بسنجد آیا می‌توان نسخه‌ای «کم‌قطبی‌تر و کم‌سمّیت‌تر» از شبکه‌های کنونی طراحی کرد. پرسش محوری آن پروژه این بود: «آیا راهی برای ترویج تعامل میان دو قطب حزبی وجود دارد که به خصومت و بی‌ادبی دامن نزند؟»

برای مطالعه اخبار بیشتر اینجا کلیک کنید.

در هر دو مطالعه، چت‌بات‌ها نقش «مبدل انسان‌ها» را بازی کردند و پژوهشگران با رصد تعاملات‌شان کوشیدند رفتار احتمالی کاربران را بهتر بفهمند. طبق گزارش، پژوهشگران و شرکت‌های OpenAI، Meta و DeepSeek به درخواست Business Insider برای اظهارنظر پاسخ ندادند.

درباره نویسنده

تحریریه آی نو

ارسال دیدگاه
0 دیدگاه

نظر شما در مورد این مطلب چیه؟

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *