جامعه امنيتی در روند مستمر مبارزه با مجرمان سايبری به یکی از كاربردهای مهم يادگيری ماشینی يا به اختصار ML پی برده است. بسياري از كاربران در حال روی آوردن به راهكارهای امنيتی نشأت گرفته از يادگيری ماشينی نظير راهكار NSX Network Detection and Response هستند كه به جستجوی موارد نامتعارف و مشكوك در ترافيك شبكه می پردازند. اين راهكارها با استفاده از دانش در حال تكامل خود در خصوص شكل و ظاهر حمله به شبكه، بيش از راهكارهای ديگر از كاربران در برابر تهديدات دفاع ميكنند.
مهاجمان سایبری و راهکارهای امنیتی در برابر آنها
مهاجمان به خوبی آگاه هستند كه راهكارهای امنيتی از هوش مصنوعی و يادگيری ماشينی برای اهداف امنيتی خود استفاده می كنند. آنها همچنين می دانند در به كارگيری هوش مصنوعی در امنيت كامپيوتر محدوديتهايی وجود دارد. با اين اوصاف روشن می شود كه چرا مجرمان سايبری به سوءاستفاده از هوش مصنوعی روی می آورند كه يادگيری ماشينی Adversarial ناميده میشود.
در اين مطلب بررسی می شود كه يادگيری ماشينی Adversarial به چه چيز اطلاق میشود و به چه چيز اطلاق نمیشود. در ابتدا بايد گفت كه خود عنوان ممكن است كمی غلط انداز باشد. در نگاه اول به نظر می رسد كه در واقع استفادهی مجرمان از يادگيری ماشينی بخشی از حمله آنهاست، اما اين چنين نيست. توضيح ساده آن است كه اين افراد از روشهای متداول تری استفاده می كنند تا دريابند که راهكارهای امنيتی چگونه از يادگيری ماشينی استفاده میكنند، در نتیجه راهی را برای آلوده کردن مجموعه داده مورد استفاده در بهبود و ارتقای فرآيند يادگيری پیدا کنند و يا شناسایی تهدید مبتنی بر يادگيری ماشينی را به طورکلی دور بزنند.
مفهوم يادگيری ماشينی Adversarial
درزمینهی امنيت سايبری، يادگيری ماشينی Adversarial به هرگونه حملهای اطلاق می شود كه فرض میكند راهكاری مبتنی بر هوش مصنوعی در سیستم دفاعی مورد استفاده قرارگرفته است. مهاجمان در تلاشاند تا توانايی اين راهكار امنيتی را در تشخيص خوب از بد دور بزنند. در اين خصوص صرفاً به يك برنامه خيلی خوب نياز دارند كه لازم نيست حتماً مبتنی بر هوش مصنوعی باشد، تا ساز و کارهای داخلی راهكار منتخب مبتنی بر يادگيری ماشين را ياد گرفته و آن ابزار را دور بزند.
اين نوع حمله ممكن است يكی از اين دو رويكرد را داشته باشد: در رويكرد اول، مهاجمان فرآيندهای يادگيری ابزار را بررسی می كنند تا اطلاعات بيشتری درباره دامنه داده های راه حل، مدلها مورد استفاده آن و آنچه به طور خاص بر اين داده مدیریت میکند، كسب كنند. سپس اين افراد با اين فرض كه، راهكار يادگيری ماشينی از Pool بزرگی از دادهها ياد می گيرد، فرآيند يادگيری مذكور را تحت نفوذ خود قرار میدهند.
نفوذ به سیستم مبتنی بر یادگیری ماشینی
می توان حالتی را در نظر گرفت كه مهاجمان به داخل سيستمی مبتنی بر يادگيری ماشين نفوذ كردهاند يا می توانند راهكاري مبتنی بر يادگيری ماشينی را خريداری نمايند. سپس اين افراد می توانند با استفاده از اين دسترسی، فرآيند تصميم گيری اين راهكار را به دقت بررسی كنند و ببينند كه اين راهكار به دنبال چه چيزهايی است، Thresholdهای آن چگونه تعيين می شوند و چه قياسهايی را بر اساس الگوريتمهای يادگيری ماشينی انجام می دهد. در اين مرحله، مهاجمان در ادامه كار خود می توانند مواردی غيرمعمول را به داخل اين Pool تزريق كنند تا راهكار، آنها را عادی تلقی كند و یاد بگیرد. به اين كار آلوده سازی مجموعه داده يا يادگيری ماشینی Adversarial گفته می شود، چرا كه مهاجم به طور مؤثری تلاش میكند تا مدلهای يادگيری راهكار را به هم بريزد تا بتواند كمپينهای تهاجمی خود را مخفی سازد.
در نوع دوم حمله، مهاجمان هيچ دادهای را آلوده نمیكنند، بلكه صرفاً به عنوان نقطه شروع كار خود مدلهای يادگيری ماشينی را دريافت يا استنباط می كنند تا حملات خود را شكل دهند و به این ترتیب بتوانند از شناسایی شدن، فرار كنند. اين نوع از حمله به ویژه براي زمانی مناسب است كه يك مجموعه كامل يادگيری موجود باشد و نيز زماني كه مهاجمان ندانند راهكار به طور خاص به دنبال چيست. در چنين سناريويی، مهاجمان در تلاشاند تا ببينند ابزار چگونه طبقهبندی میشود و به این ترتیب از الگوريتمهای آن مخفی شوند.
ترفندهای بدافزار نویسان برای فرار از شناسایی
مهاجمان برای آن كه در كمپين های خود موفق شوند، مجبورند به سراغ يادگيری ماشينی (ML) بروند و اين كار دليل ديگری ندارد. به هرحال سلاح های جديد باعث ايجاد ضد سلاحهای جديد میشوند. اين همان مسابقه تسليحاتی است كه جامعه امنيتی را به سوی توليد ابزارهای پيچيدهتر سوق داده و بدافزار نويسان را در مسير ادغام فنون جديد در مجموعه ترفندهايشان برای فرار از شناسایی و طراحی حملات بسيار پيچيدهتر قرار داده است.
مجرمان ديجيتال امروزی با همان باجافزار ابتدايی كار خود را به خوبی انجام میدهند، درنتیجه اين طور نيست كه مهاجمان از هوش مصنوعی خودشان برای حمله به سازمانها استفاده كنند، بلکه از ابزارهای عموماً متعارف خود برای دور زدن سيستمهای امنيتی مبتنی بر هوش مصنوعی سازمانها استفاده می كنند. سازمانها بیش از پیش به استفاده از اين انواع راهكارها روی آوردهاند و مهاجمان برای رسيدن به اهداف غير قانونی شان نياز دارند روشی برای فرار از اين ابزارها بيابند.
بیشتر بخوانید: رفع کمبودهای مهارتی در امنیت سایبری با استفاده از هوش مصنوعی
اما اين شرايط مدت زيادی پايدار نخواهد بود. در آينده، بدون شك جامعه امنيتی با حملات بيشتری رو به رو خواهد شد که مبتنی بر هوش مصنوعی باشند. فرض بر اين است كه مهاجمان از هوش مصنوعی استفاده خواهند كرد تا سطح تأثیرگذاری حملات خود را با آزمودن كمپين هايشان، تجزیه وتحلیل پروفايل كاربران مورد حمله و ايجاد اصلاحات لازم در حملات طبق اين موارد افزايش دهند. قابل توجه است که همه اين كارها به كمك يادگيری ماشينی انجام خواهد شد كه به صورت خودكار تلاشهای موفق را از ناكامی ها جدا كرده و سازمان می دهد كه می توان آن را كاربردی از يادگيري تقويتي در نظر گرفت.
نحوه مقابله سازمانها از خود در برابر يادگيری ماشينی Adversarial
با توجه به چالشهای مذكور، اگر سازمانها بخواهند مانع تلاش مهاجمان در دور زدن اين ابزارهای يادگيری ماشينی شوند، باید از جهات فراوان مورد حفاظت قرار گيرند. اين دسته از سازمانها به يادگيری ماشينی عميق نياز دارند كه با استفاده از آن چندين ساز و كار براي بررسي دادهی واحدی پيكربندی ميشوند. اين كار به آنها ديد امنيتی گستردهای ميدهد و آنها را از خطرات محدود كردن روشهای دفاعی خود به پياده سازي يك يادگيری ماشينی واحد نجات میدهد.
اين بدين معنی نيست كه سازمانها به چندين محصول نياز دارند، اما بايد به دنبال محصولی باشند كه چندين الگوريتم يادگيری ماشينی، نظير تجزیه و تحلیل و شيوههاي اكتشافی را در كنار ساير مراحل تشخيص به كار گيرد. مثلاً می توان فرض كرد كه يك الگوريتم، X را مورد بررسي قرار ميدهد؛ اگر مهاجمی راه فريب الگوريتم اول را پيدا كند، سازمانها در مقابل تهديدات در حال ورود در موقعيت ضعيف تری قرار خواهند گرفت. به همين دليل سازمانها نيازمند الگوريتمهايی هستند كه بتوانند Y و Z را تشخيص دهند، چرا كه اين فرايندها، حتي اگر مهاجم ياد گرفته باشد كه چطور اولين راهكار مبتنی بر يادگيری ماشينی را دور بزند، می توانند از دادههای ديگر به منظور تشخيص ناهنجاری استفاده كنند.