نمایشگاه بینالمللی الکامپ ۱۴۰۴، فرصتی برای بازخوانی تازهترین دستاوردها و چالشهای فناوری بود. در این رویداد، نیلوفر کریمی آذر، مدیرعامل شبکه هوشمند پیچک، در گفتوگویی ویژه به بررسی راهکارهای هوشمندسازی و اهمیت امنیت داده در هوش مصنوعی پرداخت. او ضمن معرفی اقدامات شرکت پیچک، هشدارهای جدی درباره تهدیدهای ناشی از نشت اطلاعات حساس، خطرات حوزه سلامت و حتی تهدیدهای زیستی مطرح کرد.
استانداردسازی؛ ستون فقرات هوشمندسازی
شبکه هوشمند پیچک فعالیت خود را همزمان با روز جهانی استاندارد آغاز کرده و این موضوع نشاندهنده نگاه این مجموعه به اهمیت قواعد و چارچوبهای جهانی است. کریمی آذر تأکید کرد که استانداردها تنها یک گزینه انتخابی نیستند، بلکه پایهایترین الزامات در توسعه محصولات محسوب میشوند.
او توضیح داد که مجموعه پیچک در کمیتههای بینالمللی از جمله SC38 (رایانش ابری)، SC41 (اینترنت اشیا) و SC42 (هوش مصنوعی) مشارکت داشته و نظرات ارائهشده توسط این مجموعه مورد پذیرش قرار گرفته است. این مشارکت فعال، جایگاه ایران را در عرصه جهانی استانداردسازی تقویت کرده است.
حملونقل هوشمند و ضرورت بانک اطلاعاتی استانداردها
یکی از حوزههای فعالیت پیچک، حملونقل هوشمند است. در این حوزه مجموعهای متنوع از استانداردها بررسی و یک بانک اطلاعاتی جامع تهیه شده است. این بانک شامل استانداردهای هوش مصنوعی، حملونقل و حتی فناوری 5G است. وجود چنین بانک اطلاعاتی اهمیت دادهها و نقش مستقیم آنها در امنیت داده در هوش مصنوعی را دوچندان میکند.
امنیت داده در هوش مصنوعی مولد؛ چرا باید محتاط باشیم؟
با گسترش ابزارهای مولد، استفاده کاربران از آنها روزبهروز بیشتر میشود. اما کریمی آذر هشدار داد که باید دقیقاً مشخص شود چه نوع دادهای در این سامانهها بارگذاری میشود. بهویژه در حوزه سلامت، بارگذاری بدون گمنامسازی میتواند پیامدهای خطرناکی داشته باشد.
دادههای سلامت و خطر بهرهبرداری
دادههای پزشکی حتی پس از حذف هدر و اطلاعات هویتی، همچنان در سطح آماری قابل تحلیل هستند. این موضوع میتواند به بهرهبرداریهای منفی منجر شود؛ تا جایی که تهدیدهایی مثل ترور بیولوژیکی بر اساس همین دادهها محتمل خواهد بود. در عین حال، اگر دادهها به درستی مدیریت شوند، میتوانند در پیشبینی بیماریها و ارتقای سلامت عمومی نقشی مثبت ایفا کنند. این همان نقطهای است که اهمیت امنیت داده در هوش مصنوعی برجسته میشود.
اسناد حاکمیتی و ابزارهای خارجی
یکی دیگر از تهدیدها، بارگذاری اسناد محرمانه روی پلتفرمهای خارجی است. کریمی آذر تأکید کرد چنین خطاهایی، حتی اگر ناخواسته رخ دهد، میتواند خسارتهای جبرانناپذیری ایجاد کند. او پیشنهاد داد استفاده از پلتفرمهای داخلی باید در اولویت باشد تا امنیت اطلاعات سازمانی حفظ شود.
مالکیت داده و ضرورت امنیت در طراحی
بر اساس قوانین بینالمللی مانند GDPR، مالکیت داده متعلق به کاربر است و هیچ سامانهای بدون رضایت او حق استفاده از آن را ندارد. اما واقعیت این است که کاربران هنگام پذیرش قوانین سرویسها، عملاً اختیار دادههایشان را به سرویسدهنده واگذار میکنند.
اینجاست که مسئولیت سرویسدهندهها پررنگ میشود. آنها باید از همان ابتدای توسعه، اصل امنیت در طراحی (Security by Design) را رعایت کنند. رعایت این اصل میتواند بسیاری از تهدیدهای مربوط به امنیت داده در هوش مصنوعی را کاهش دهد. استانداردهای گروه 27000 نیز دقیقاً به همین منظور طراحی شدهاند.
سواد هوش مصنوعی؛ کلید پیشگیری از تهدیدها
کریمی آذر در بخش پایانی صحبتهای خود، بر ضرورت ارتقای سطح دانش عمومی در استفاده از ابزارهای هوش مصنوعی تأکید کرد. به اعتقاد او، اگر کاربران سواد کافی نداشته باشند، حتی بهترین زیرساختها هم نمیتواند مانع از تهدیدها شود.
هوش مصنوعی در حوزههای متنوعی از طراحی و مد گرفته تا آموزش و رسانه بهکار میرود. هدف نهایی این فناوری، آزادسازی زمان انسانها برای خلاقیتهای بیشتر است. اما این هدف تنها زمانی محقق میشود که کاربران و کسبوکارها آگاهانه از آن استفاده کنند و درک درستی از امنیت داده در هوش مصنوعی داشته باشند.
جمعبندی
گفتوگوی نیلوفر کریمی آذر در الکامپ ۱۴۰۴ نشان داد که آینده روشن فناوری بدون توجه به امنیت داده در هوش مصنوعی ممکن نیست. از خطرات مربوط به دادههای سلامت و اسناد محرمانه گرفته تا تهدیدهای کلان امنیتی، همه تأکید میکنند که امنیت باید جزو اولویتهای اصلی توسعهدهندگان، کسبوکارها و کاربران باشد.
با ارتقای سواد دیجیتال، رعایت استانداردهای جهانی و استفاده از پلتفرمهای داخلی، میتوان ضمن بهرهگیری از فرصتهای هوش مصنوعی، تهدیدهای آن را نیز کنترل کرد.
نظر شما در مورد این مطلب چیه؟