سازمانها و شرکتها مطلع هستند که یکی از سخت ترین کارها این است که، کاربران متخلف را را به انجام تخلفشان متهم کنند. به همین دلیل، اعضای واحد کشف کلاهبرداری شرکت هواپیمایی اسکاندیناوی Scandinavian Airlines یا SAS قبل از اینکه یک کاربر را به تلاش برای کلاهبرداری در برنامه ی Loyalty Points شرکت ترابری متهم کنند، باید ابتدا از درستی این اتهام اطمینان حاصل نمایند.
Daniel Engberg، رئیس تجزیه و تحلیل داده ها و هوش مصنوعی SAS، که دفتر مرکزی آن در استکهلم سوئد قرار دارد، گفت: “در صورتی که موردی را به اشتباه کلاهبرداری اعلام کنیم، بیشتر صدمه خواهیم دید.”
این شرکت هواپیمایی در حال انجام برنامه هایی با کاهش پروازها و خدمات است تا به مسافران در جهت کاهش سرعت شیوع COVID-19 و بیماری ناشی از ویروس کرونای جدید کمک کند. قبل از محدودیت ها، SAS بیش از 800 سفر در روز و 30 میلیون مسافر در سال داشت. Engberg خاطرنشان کرد: حفظ یکپارچگی برنامه ی EuroBonus Loyalty از اهمیت بالاتری برخوردار است زیرا این شرکت هواپیمایی منتظر از سرگیری فعالیتهای منظم خود است.
وی توضیح داد کلاهبرداران EuroBonus سعی میکنند هرچه سریعتر امتیازاتی را کسب نمایند تا بتوانند سفری که ما به عنوان جایزه در نظر گرفته ایم را برای خود رزرو کنند یا بفروشند. متاسفانه، در صورت بروز تقلب، کاربران قانونی، شانس مطالبه صندلیهای اختصاص یافته به برنامه Loyalty را از دست میدهند و SAS نیز از کسب درآمد باز می ماند.
امروزه سیستم AI یا هوش مصنوعی که انگبرگ و تیمش بوسیله ی Microsoft Azure Machine Learning، سرویس ساخت، آموزش و نصب مدلهای یادگیری ماشینی آنرا ایجاد کرده اند، سهم عمده ای در کشف کلاهبرداری های صورت گرفته از EuroBonus دارد ضمن اینکه درک، محافظت و کنترل آنها نیز آسان است.
سیستم SAS AI جریانهای پرواز Real-Time، تراکنش، دریافت جوایز و سایر داده ها را از طریق یک مدل یادگیری ماشینی با هزاران پارامتر دیگر را پردازش میکند تا الگوهای رفتار مشکوک را پیدا کند.
واحد تشخیص کلاهبرداری برای درک پیش بینی های مدل و در نتیجه پیگیری و تشکیل پرونده، به توانایی Azure Learning به نام تفسیرپذیری متکی است، که توسط InterpretML Toolkit ارائه میشود. این قابلیت مشخص میکند که در هر مورد چه پارامترهایی از بقیه مهمتر بوده اند. به عنوان مثال، میتواند پارامترهایی را نشان دهد که از آنها برای کلاهبرداری از امتیازات جمع شده از حسابهای Ghost برای رزرو پروازها استفاده شده است.
انگبرگ خاطرنشان کرد: قابلیت تفسیر مدل به رمزگشایی یادگیری ماشینی کمک میکند و این به نوبه ی خود میتواند موجب بوجود آمدن اطمینان و اعتماد به پیش بینی های مدل شود.
وی گفت: “اگر به این مدلها اعتماد كنیم، مردم شروع به استفاده از آنها میكنند و سپس میتوانیم از مزایایی یادگیری ماشینی استفاده كنیم. این امر میتواند هم به کاربران و هم به کارمندان خود ما در مورد کارهایی که این مدلها انجام میدهند و اهمیت آنها، آگاهی بدهد.”
درک، محافظت و کنترل راهکار یادگیری ماشینی
اریک بوید، معاون رئیس شرکت Microsoft Azure AI خاطرنشان کرد، طی چند سال گذشته، یادگیری ماشینی از آزمایشگاه های تحقیقاتی خارج شده و به جریان اصلی تبدیل شده است و از یک رشته تخصصی برای دانشمندان Ph.D.s به رشته ای تبدیل شده است که انتظار می رود همه ی توسعه دهندگان بتوانند آن را دنبال کنند.
مایکروسافت، Azure Machine Learning را ساخت تا توسعه دهندگان را در طیف تخصصی علوم داده، قادر به ساخت و نصب AI Systemها یا سیستمهای هوش مصنوعی کنند. امروزه، از همه توسعه دهندگان به طور عموم خواسته میشود تا سیستمهای هوش مصنوعی بسازند که توضیح آنها آسان باشد و با مقررات مربوط به عدم تبعیض و حریم خصوصی مطابقت داشته باشند.
وی گفت: “داشتن یک مدل که به درستی پیش بینی کند و یا روش پیش بینی آن قابل درک باشد، بسیار چالش برانگیز است.”
اکنون، مایکروسافت برای شناسایی این موانع، نوآوری هایی را در زمینه ی Responsible Machine Learning اعلام کرده است که میتواند به توسعه دهندگان در درک، محافظت و کنترل مدلهای خود در طول چرخه ی عمر یادگیری ماشینی کمک کند. این قابلیت ها از طریق Azure Machine Learning قابل دسترسی هستند و به صورت Open Source در GitHub نیز در دسترس هستند.
ادغام سیستمهای AI با Azure Machine Learning
توانایی درک رفتار مدل شامل قابلیت تفسیرپذیری است و توسط Toolkit InterpretML ارائه می شود که SAS برای شناسایی کلاهبرداری در برنامه Loyalty EuroBonus از آن استفاده میکند. علاوه بر این، شرکت مایکروسافت اعلام کرد که Toolkit Fairlearn، که شامل قابلیت های ارزیابی و بهبود سیستمهای AI است، با Azure Machine Learning ادغام میشود.
همچنین، شرکت مایکروسافت اعلام کرد که در حال حاضر یک Toolkit برای Differential Privacy در دسترس است تا توسعه دهندگان درOpen Source، در GitHub آنها را بیازمایند. همچنین، می توان از طریق Azure Machine Learning به آن دسترسی داشت. قابلیت های Differential Privacy با همکاری محققان Harvard Institute برای Quantitative Social Science و School of Engineering توسعه یافته است.
تکنیک های Differential Privacy یا حریم خصوصی متفاوت این امکان را فراهم میکند که ضمن ارائه اطمینان آماری از این که اطلاعات خصوصی مانند نام یا تاریخ تولد محافظت میشوند، بتوان از داده های خصوصی اطلاعاتی دریافت کرد.
به عنوان مثال Differential Privacy می تواند گروهی از بیمارستانها را قادر سازد تا در ایجاد یک مدل پیشبینی بهتر در مورد اثربخشی درمانهای سرطان همکاری کنند و در عین حال پایبند به الزامات قانونی برای محافظت از حریم خصوصی اطلاعات بیمارستان باشند و اطمینان حاصل کنند که اطلاعات شخصی بیمار به بیرون از مدل درز پیدا نمیکند.
بیشتر بخوانید: ویژگیهای جدید سرویس Machine Learning در SQL Server 2017
Azure Machine Learning همچنین دارای کنترل های Built-In است که توسعه دهندگان را قادر می سازد تا کل مراحل ساخت، آموزش و نصب یک مدل را ردیابی و خودکارسازی کنند. این قابلیت که بسیاری آن را به عنوان یادگیری ماشینی و عملیات یا MLOps می شناسند، یک Trail بررسی برای کمک به سازمان ها در برآورده کردن الزامات نظارتی و انطباق فراهم می کند.
بوید گفت: “MLOps واقعاً به جنبه عملیاتی و قابل تکرار یادگیری ماشینی فکر میکند. بدون MLOps چگونه می توان تمام آزمایش های مختلفی را که انجام شده، پارامترهایی که با آنها تنظیم شده و مجموعه داده هایی که در ایجاد آنها استفاده شده است را پیگیری کرد. و سپس از آن برای بازآفرینی همان موارد استفاده نمود.”