
هوش مصنوعی یا AI در سالهای اخیر محبوبیت زیادی بهدست آورده و تصمیمگیری هوشمند و خودکار را در سناریوهای پیادهسازی و حوزههای برنامه کاربردی آسان نموده است. چندین تکنولوژی مثلاً اینترنت اشیا، روباتیک، تکنولوژیهای سنسوری و غیره با هم تجمیع شدهاند و مقدار و انواع مختلف داده در کنار ویژگیهای منحصربهفرد آنها باعث پیادهسازی AI در مقیاسهای بزرگ شدهاند. در حوزهی امنیت سایبری، شاید AI را یک رویکرد درحال ظهور بدانند و همچنین تکنیکهای AI برای پشتیبانی و خودکارسازی عملیات مرتبط مثل فیلتر ترافیک، تجزیهوتحلیل خودکار جرمشناسی و غیره مورد استفاده قرار گرفتهاند. هرچند این تکنولوژی بدون شک مفید بوده، اما نباید این موضوع را نادیده گرفت که AI و کاربرد آن مثلاً برای تصمیمگیری خودکار میتواند افراد و سازمانهای را در معرض ریسکهای جدید و گاهی اوقات غیرقابل پیشبینی قرار دهد، بهخصوص در محیطهایی که امنیت در آنها ضروری است، مثل وسایل نقلیه خودکار، تولید هوشمند، سلامت الکترونیک و غیره. همچنین ممکن است AI مسیرهای جدیدی را در روشها و تکنیکهای حمله باز کند و چالشهای جدیدی را برای حفاظت از داده ایجاد نماید. AI هر روز بیشتر از روز قبل روی زندگی روزمرهی مردم تأثیر میگذارد و با قابلیتهای تصمیمگیری خودکار، نقشی کلیدی را در تغییر و تحول دیجیتال ایفا میکند. مزایای این تکنولوژی نوظهور قابل توجه بوده، اما نگرانیهایی که ایجاد میکند. درنتیجه ضروری است که نقش امنیت سایبری در ایجاد یک پیادهسازی قابل اطمینان و مورد اعتماد از AI برجسته باشد.
توجه به تاثیر هوش مصنوعی
وقتی در حوزهی AI به امنیت توجه میشود، باید آگاه بود که تکنیکهای AI و سیستمهایی که از AI بهره میبرند، ممکن است منجر شوند به نتایج غیرمنتظره و میتوان آنها را دستکاری کرد تا نتایج دلخواه به دست بیاید. این موضوع بهخصوص زمانی صدق میکند که نرمافزار AI توسعه داده میشود که معمولاً براساس مدلهای Black-Box کامل هستند یا شاید برای اهداف مخرب مورد استفاده قرار بگیرند، مثلاً اینکه از AI بهعنوان روشی برای تقویت جرایم سایبری و تسهیل حملات توسط مهاجمین مخرب استفاده گردد. در نتیجه ضروری است که خود AI ایمن شود. بهخصوص، مهم است که درک شود چه چیزی باید ایمن گردد، داراییهایی که در معرض خطرهای AI و مدلهای خطرآفرین میباشند.
ایمنسازی AI یکی از حوزههایی است که ENISA در ابتدا روی آن تمرکز خواهد کرد و در این مقاله تلاش شده است که درک کلی از تهدیدات امنیت سایبری مربوط به AI ارائه گردد. هوش مصنوعی و امنیت سایبری رابطهای چندبعدی و مجموعهای از وابستگیهای متقابل دارند. ابعادی که در این مورد شناسایی شدهاند، شامل سه مورد زیر هستند:
شرح یادگیری ماشینی و هوش مصنوعی
ویدیوهای بیشتر درباره امنیت
1. امنیت سایبری برای AI: ضعیف بودن و آسیبپذیریهای مدلها و الگوریتمهای AI، مثلاً دستکاری و استنتاج مدل بهصورت مخرب، حملات در مقابل سیستمهای فیزیکی سایبری مبتنی بر AI، دستکاری دادههای مورد استفاده در سیستمهای AI، سوءاستفاده از زیرساخت رایانش مورداستفاده برای قدرت دادن به عملکردهای سیستمهای AI، مسمومیت دادهها، تنوع در محیط که منجر میشود به تنوع در طبیعت ذاتی داده، مجموعه دادههای آموزشی معتبر و قابل اطمینان، بررسی و اعتبارسنجی الگوریتمی، شامل یکپارچگی زنجیرهی تأمین نرمافزار، اعتبارسنجی فرایندهای ارزیابی عملکرد و آموزش، شناسایی ویژگیها بهصورت معتبر و قابل اطمینان، حفاظت از داده و حریم شخصی در سیستمهای AI و غیره.
2. AI ساختار پالیسی برای پشتیبانی از امنیت سایبری: وقتی AI بهعنوان ابزار یا راهی برای ساخت امنیت سایبری پیشرفته مورد استفاده قرار گیرد، با توسعهی کنترلهای امنیتی کارآمد مثل فایروالهای فعال، آنتیویروس هوشمند، عملیات CTI خودکار یا هوش تهدید سایبری، AI Fuzzing، جرمشناسی هوشمند، اسکن ایمیل، Sandboxing تطبیقپذیر، تجزیهوتحلیل خودکار بدافزار، دفاع سایبری خودکار و غیره و برای اینکه تلاشهای انجام شده در این زمینه آسان گردد تا پاسخ بهتری به جرایم سایبری داده شامل تجزیهوتحلیل رشد نمایی Big Data در ساختار تحقیق و بررسیها و همچنین سوءاستفادهی مجرمانه از AI شود.
3. استفادهی مخرب از AI: استفادهی مخرب از AI مانند بدافزارهای قدرت گرفته از AI، account farming رسانههای اجتماعی تقلبی قدرت گرفته از AI، حملات DDoS با استفاده AI، یافتن رمز عبور با پشتیبانی AI میتواند موجب ایجاد حملات پیچیدهتر شود. این دسته شامل حملاتی با هدفگیری AI و با تمرکز روی حمله با سیستمهای AI کنونی برای تغییر قابلیتهای آنها و همچنین حملاتی با پشتیبانی AI،حملاتی که شامل تکنیکهای مبتنی بر AI هستند که هدفشان بهبود کارآمدی حملات قدیمی میباشد.
امنیت سایبری میتواند یکی از زیربناهای راهکارهای هوش مصنوعی قابلاعتماد باشد. این امنیت نقش یک سکوی پرش را برای پیادهسازی ایمن و گستردهی AI بازی میکند. اما فقط وقتی این کار را انجام میدهد که درک مشترکی از چشمانداز تهدیدات و چالشهای مربوطه بهطور باثباتی ایجاد گردد.
بیشتر بخوانید: افزایش امنیت نرمافزارها با استفاده از ابزار هوش مصنوعی Microsoft
ساختار پالیسی
WP2020 Output O.1.1.3متعلق به ENISA، که مرتبط به ساخت دانش در مورد امنیت هوش مصنوعی و ورق سفید کمیسیون اروپا در مورد هوش مصنوعی این نیاز را ایجاد کردهاند که ENISA به موضوع امنیت سایبری هوش مصنوعی توجه کند.
بهعلاوه، کمیسیون اروپا یا EC در ورق سفید خود که پیشگام برنامههای پالیسی جدید در تکنولوژی است، اهمیت AI را در جامعه و اقتصاد بیان کرده است. موسسهی استانداردهای مخابرات اروپا یا ETSI با شناسایی تأثیر احتمالی AI در امنیت و اثر متقابل بین دو دامین، یک گروه مشخصات صنعتی را برای امنیت هوش مصنوعی یا ISG SAI ایجاد کرده است. هدف ISG SAI ایجاد استانداردهایی برای حفظ و بهبود امنیت تکنولوژیهای AI جدید بوده، بهعلاوه، مرکز پژوهشهای مشترک EC یا همان JRC برنامهی AI Watch را ایجاد کرده است تا نقش یک سرویس اطلاعاتی را برای مانیتور کردن توسعه، استفاده از هوش مصنوعی و تأثیر آن روی اروپا و مانیتور کردن پژوهشهای مرتبط در حوزهی گستردهای از AI ایفا کند. یکی از کارهای تأثیرگذار AI Watch گزارشی برای تعریف AI است که مبنایی را برای کنوانسیونهای روششناختی مربوطه ایجاد میکند.