گزارش جدید نشان میدهد که نسخه کودکان و نوجوانان Gemini اساساً همان نسخه بزرگسالان با فیلترهای اضافی است.
Common Sense Media، یک سازمان غیرانتفاعی متمرکز بر ایمنی کودکان که رتبهبندی و بررسی رسانهها و فناوری را ارائه میدهد، روز جمعه ارزیابی خطر خود از محصولات هوش مصنوعی Gemini گوگل را منتشر کرد. در حالی که این سازمان دریافت که هوش مصنوعی گوگل به وضوح به کودکان میگوید که یک کامپیوتر است، نه یک دوست – چیزی که به ایجاد تفکر هذیانی و روانپریشی در افراد آسیبپذیر عاطفی کمک میکند – پیشنهاد کرد که در چندین جبهه دیگر جای پیشرفت وجود دارد.

جزئیات ارزیابی Common Sense Media از Gemini
به طور خاص، Common Sense Media اعلام کرد که سطوح «زیر ۱۳ سال» و «تجربه نوجوانان» Gemini هر دو ظاهراً نسخههای بزرگسالان Gemini هستند که فقط برخی از ویژگیهای ایمنی اضافی به آنها اضافه شده است. این سازمان معتقد است که برای اینکه محصولات هوش مصنوعی واقعاً برای کودکان ایمنتر باشند، باید با در نظر گرفتن ایمنی کودک از ابتدا ساخته شوند.
به عنوان مثال، تجزیه و تحلیل آن نشان داد که Gemini هنوز هم میتواند مطالب «نامناسب و ناایمن» را با کودکان به اشتراک بگذارد، که ممکن است برای آن آماده نباشند، از جمله اطلاعات مربوط به رابطه جنسی، مواد مخدر، الکل و سایر توصیههای ناایمن در مورد سلامت روان.
مورد دوم میتواند برای والدین نگرانکننده باشد، زیرا گزارش شده است که هوش مصنوعی در ماههای اخیر در برخی از خودکشیهای نوجوانان نقش داشته است. OpenAI با اولین شکایت مرگ غیرقانونی خود روبرو است، پس از اینکه یک پسر ۱۶ ساله پس از مشورت با ChatGPT برای ماهها در مورد برنامههای خود، با موفقیت از موانع ایمنی این ربات گفتگو عبور کرد و خودکشی کرد. پیش از این، سازنده همراه هوش مصنوعی Character.AI نیز به دلیل خودکشی یک کاربر نوجوان مورد شکایت قرار گرفت.

علاوه بر این، این تحلیل در حالی منتشر میشود که اخبار فاش شده نشان میدهد که اپل در حال بررسی Gemini به عنوان مدل زبان بزرگ (LLM) است که به تقویت Siri مجهز به هوش مصنوعی آینده خود کمک میکند، که قرار است سال آینده عرضه شود. این میتواند نوجوانان بیشتری را در معرض خطر قرار دهد، مگر اینکه اپل به نوعی نگرانیهای ایمنی را کاهش دهد.
انتقادات Common Sense Media از رویکرد گوگل
Common Sense همچنین گفت که محصولات Gemini برای کودکان و نوجوانان نادیده میگیرند که چگونه کاربران جوانتر به راهنمایی و اطلاعات متفاوتی نسبت به کاربران بزرگتر نیاز دارند. در نتیجه، هر دو با وجود فیلترهای اضافه شده برای ایمنی، در رتبهبندی کلی به عنوان «بسیار پرخطر» برچسبگذاری شدند.
رابرت تورنی، مدیر ارشد برنامههای هوش مصنوعی در Common Sense Media، در بیانیهای درباره ارزیابی جدید گفت: «Gemini برخی از اصول اولیه را به درستی انجام میدهد، اما در جزئیات دچار مشکل میشود. یک پلتفرم هوش مصنوعی برای کودکان باید نیازهای آنها را برآورده کند، نه اینکه یک رویکرد یکسان برای کودکان در مراحل مختلف رشد اتخاذ کند. برای اینکه هوش مصنوعی برای کودکان ایمن و مؤثر باشد، باید با در نظر گرفتن نیازها و رشد آنها طراحی شود، نه فقط یک نسخه اصلاح شده از محصولی که برای بزرگسالان ساخته شده است.»
واکنش گوگل به ارزیابی
گوگل با این ارزیابی مخالفت کرد و در عین حال خاطرنشان کرد که ویژگیهای ایمنی آن در حال بهبود است.
این شرکت به TechCrunch گفت که سیاستها و محافظتهای خاصی را برای کاربران زیر ۱۸ سال در نظر گرفته است تا از خروجیهای مضر جلوگیری کند و برای بهبود محافظتهای خود با کارشناسان خارجی مشورت میکند. با این حال، اذعان کرد که برخی از پاسخهای Gemini آنطور که در نظر گرفته شده بود کار نمیکنند، بنابراین محافظتهای بیشتری را برای رفع این نگرانیها اضافه کرده است.
این شرکت خاطرنشان کرد (همانطور که Common Sense نیز اشاره کرده بود) که محافظتهایی برای جلوگیری از تعامل مدلهای خود در مکالماتی دارد که میتواند ظاهری از روابط واقعی ایجاد کند. به علاوه، گوگل پیشنهاد کرد که گزارش Common Sense به نظر میرسد به ویژگیهایی اشاره کرده است که برای کاربران زیر ۱۸ سال در دسترس نیستند، اما به سؤالاتی که این سازمان در آزمایشهای خود استفاده کرده است، دسترسی نداشته است تا مطمئن شود.
برای مطالعه اخبار بیشتر اینجا کلیک کنید.

سابقه ارزیابیهای Common Sense Media
Common Sense Media پیش از این ارزیابیهای دیگری از خدمات هوش مصنوعی، از جمله خدمات OpenAI، Perplexity، Claude، Meta AI و غیره انجام داده است. این سازمان دریافت که Meta AI و Character.AI «غیرقابل قبول» هستند – به این معنی که خطر شدید است، نه فقط زیاد. Perplexity به عنوان پرخطر، ChatGPT به عنوان «متوسط» و Claude (مخاطب ۱۸ سال به بالا) به عنوان حداقل خطر شناخته شدند.
نکات کلیدی:
- Common Sense Media هوش مصنوعی Gemini گوگل را برای کودکان «بسیار پرخطر» ارزیابی کرد.
- نسخه کودکان و نوجوانان Gemini اساساً همان نسخه بزرگسالان با فیلترهای اضافی است.
- Gemini میتواند محتوای نامناسب (جنسی، مواد مخدر، الکل) را با کودکان به اشتراک بگذارد.
- نگرانیها درباره نقش هوش مصنوعی در خودکشی نوجوانان افزایش یافته است.
- Apple در حال بررسی استفاده از Gemini در Siri است که میتواند نوجوانان بیشتری را در معرض خطر قرار دهد.
- Common Sense Media: Gemini نیازهای متفاوت کاربران جوانتر را نادیده میگیرد.
- گوگل: در حال بهبود ویژگیهای ایمنی هستیم، اما اذعان میکند برخی پاسخها آنطور که باید کار نمیکنند.
نظر شما در مورد این مطلب چیه؟