درک، محافظت و کنترل راهکارهای یادگیری ماشین
اریک بوید نائبرئیس شرکت Microsoft Azure AI در ردموند واشنگتون خاطرنشان کرد: طی چند سال گذشته، یادگیری ماشین از آزمایشگاههای تحقیقاتی خارج و تبدیل به یک جریان اصلی شده و دیگر فقط یک رشته تحصیلی مناسب برای دانشمندان داده با مدرک دکتری نیست بلکه همهی توسعهدهندگان میتوانند آن را فرا بگیرند. مایکروسافت Azure Machine Learning را پدید آورده تا توسعهدهندگان را در طیف وسیعی از تخصصهای علوم داده قادر به ساخت و استقرار سیستمهای هوش مصنوعی سازد.
مایکروسافت برای پیدا کردن این موانع، نوآوریهایی را در یادگیری ماشین معرفی کرد که به توسعهدهندگان کمک میکند تا مدلهای خود را در طول چرخهی یادگیری ماشین درک، محافظت و کنترل کنند. این قابلیت ها از طریق Azure Machine Learning و در GitHub نیز به صورت منابع باز قابل دسترسی هستند.
توانایی درک ویژگی مدل، شامل قابلیتهای تفسیر، تقویت شده توسط Toolkit InterpretML است که SAS برای شناسایی کلاهبرداری در برنامه Loyalty EuroBonus از آن استفاده میکند. علاوه بر این، شرکت مایکروسافت اعلام کرد: Toolkit Fairlearn، که شامل قابلیتهایی برای ارزیابی و بهبود کیفیت سیستمهای هوش مصنوعی است، در آینده با Azure Machine Learning ادغام خواهد شد.
شرکت مایکروسافت همچنین اعلام کرد که در حال حاضر، یک Toolkit برای حفظ Differential Privacyیا به عبارتی حریم خصوصی تفاضلی در دسترس توسعهدهندگان است تا با استفاده از منبع باز در GitHub آزمایشاتی انجام دهند، همچنین از طریق Azure Machine Learning نیز قابل دسترسی است. قابلیتهای حفظ Differential Privacyیا حریم خصوصی تفاضلی با همکاری محققان موسسه هاروارد برای علوم کمی اجتماعی هاروارد و دانشکده مهندسی بسط داده شده بود. تکنیکهای حریم خصوصی تفاضلی باعث میشود تا ضمن ارائه تضمینهای آماری، اطلاعاتی از دادههای خصوصی، حاصل شود که باعث میشود اطلاعات شخصی، مانند نام یا تاریخ تولد محافظت شوند.
برای مثال، Differential Privacy یا حریم خصوصی تفاضلی میتواند کادر درمانی بیمارستانها را قادر سازد تا مدل پیشبینی کنندهی بهتری برای درمان موثر بیماری سرطان بسازند و در عین حال، به مقررات قانونی برای محافظت از اطلاعات بیمارستان پایبند باشند و به بیماران این اطمینان را میدهد که اطلاعات فردی آنها از مدل به بیرون درز پیدا نمیکند.
Azure Machine Learning همچنین دارای کنترلهای Built-in است که به توسعهدهندگان این امکان را میدهد تا کل مراحل ساخت، آموزش و استقرار یک مدل را ردیابی و خودکارسازی کنند. این قابلیت که برای بسیاری، به عنوان یادگیری ماشین و عملیات یا MLOps شناخته شده است، وAudit Trail ی را فراهم میکند که به سازمانها در برآوردن الزامات نظارتی و انطباقپذیری، کمک میکند.
بوید افزود: MLOps به صورت جدی به جنبهی عملیاتی و قابلیت تکرار یادگیری ماشین میاندیشد. چگونه میتوانم تمام آزمایشات مختلف اجرا شده و پارامترهای تنظیم شده با آنها و مجموعه دادههایی که در ایجاد آنها استفاده شده است را پیگیری کنم و بعد از آنها استفاده کنم تا همان موارد را دوباره بسازم.
سارا بِرد میگوید: Responsible AI مایکروسافت به شرکت Azure AI مستقر در نیویورک سیتی، در ایجاد ابزاری کمک میکند تا یادگیری ماشین Responsible برای همهی توسعهدهندگان قابل دسترسی باشد.
Contextual Bandits و مسئولیتها
در اواسط سال 2010، سارا بِرد و همکارانش در آزمایشگاه تحقیقاتی مایکروسافت در نیویورک مشغول کار بر روی نوعی فناوری یادگیری ماشین بنام Contextual Bandits بودند، این فناوری از طریق آزمایشات شناسایی یاد میگیرد چگونه با گذر زمان کارهای خاص و بهتری را انجام دهد.
به عنوان مثال، اگر بازدیدکننده وبسایت خبری روی مطلبی در مورد گربهها کلیک کند، Contextual Bandits میآموزد که به بازدیدکننده مطالب بیشتری درباره گربهها ارائه دهد. در ادامهی فرایند یادگیری، Bandit، مطالبی در رابطه با Jacksonville Jaguars، یک تیم ورزشی، و یا موسیقی از گروه Cats را ارائه می دهد، تا ببیند بازدیدکنندگان چه مطلبی را بیشتر دنبال میکنند، این موضوع یکی دیگر از دادههای یادگیری است که منجر به شخصیسازی بیشتر میشود. بِرد گفت: حالا چه کسی تلاشهای Responsible AI برای Azure AI را رهبری میکند؟ وقتی کاربر پیشرفت شخصیسازی را ببیند، شگفتزده خواهد شد. تکنولوژی که هرگز مانند آنرا ندیده است. ما شروع به صحبت با مشتریان و همکاری با تیم فروش خود کردیم تا ببینیم چه کسی میخواهد این فناوری تحقیق جدید را هدایت کند.
بِرد خاطرنشان کرد: از آنجا که مشتریان بالقوه، از Contextual Bandits برای بهینهسازی روند مصاحبهی شغلی و ادعای قوانین بیمه استفاده میکنند، میتوان فهمید که بسیاری از افراد فاقد درک درستی از چگونگی کار Contextual Bandits هستند. حرف من این است که آیا انجام آزمایشات در این سناریوها اخلاقی است؟ این سؤال منجر به بحث و گفتگو با همکاران گروه در مورد عدالت، مسئولیتپذیری، شفافیتسازی و اخلاق در گروه تحقیق هوش مصنوعی یا FATE و همکاری پژوهشی در مورد پیشینهی وجدانِکاری در آزمایشات و پیامدهای یادگیری تقویتی، نوع یادگیری ماشین، در پسِ Contextual Bandits شد.
بِرد در ادامه گفت: این فناوری تا جایی خوب است که ما از آن برای موارد واقعی استفاده کنیم، و چنانچه این موارد واقعی زندگی مردم را تحت تأثیر قرار دهد، پس بهتر است از عادلاته بودن و امنیت آن اطمینان حاصل کنیم. هم اکنون چه کسی تمام وقت خود را بر ایجاد ابزارهایی متمرکز میکند تا یادگیری ماشین Responsible برای همه توسعهدهندگان قابل دسترسی باشد.
هاسکی، گرگها و کلاهبرداریها در مدلهای یادگیری ماشین
طی چند سال، تحقیقات اخلاقمدار هوش مصنوعی، در سراسر جهان گسترش پیدا کرد. شفافیت و تفسیر مدل از موضوعات داغ در مجامع مهم صنعت بود و ابزارهای یادگیری ماشین Responsible در دانشگاهها تدریس می شد.
به عنوان مثال، در سال 2016، مارکو تولیو ریبیرو، که اکنون محقق ارشد آزمایشگاه تحقیقاتی مایکروسافت در ردموند است، تکنیکی را در مقالهی کنفرانس دانشگاهی ارائه کرد تا پیشبینی هر Classifier را توضیح دهد، مانند مدلهای Computer Vision که برای طبقهبندی اشیاء در تصاویر آموزش داده شده است.
برای نشاندادن این تکنیک، او عامدانه یک Classifier را آموزش داد تا در صورت نداشتن تصویر برف، عکس گرگ و یا یک سگ هاسکی را با پسزمینهی برفی نمایش دهد. وی سپس این مدل را روی عکسهایی از گرگها که اکثرا در برف بودند و هاسکیهایی که عمدتا در تصاویرشان برفی وجود نداشت، اجرا کرد و نتایج را با دو سوال به متخصصان یادگیری ماشین نشان داد: سوال اول: آیا به این مدل اعتماد دارید؟ و سوال دوم: این مدل چگونه پیشبینی میکند.؟
محقق ارشد مایکروسافت دریافت که بسیاری از کارشناسان یادگیری ماشین به تشخیص این مدل اعتماد کردهاند، چه این تشخیص گرگ باشد یا هاسکی. وی سپس به ارائه توضیح این مدل پرداخت که نشان میداد که پیشبینیهای مدل بر اساس وجود یا عدم وجود برف در تصویر بوده است. بنابراین بسیار مهم است که متخصصان فریب الگوی بد را نخورند.