دیده بان پیشرفت علم، فناوری و نوآوری
21 دی 1401 - 17:02
محققان اعلام کردند؛

طبقه‌بندی MIT به ایجاد قابلیت توضیح در اجزای مدل‌های یادگیری ماشینی کمک می‌کند

طبقه‌بندی MIT به ایجاد قابلیت توضیح در اجزای مدل‌های یادگیری ماشینی کمک می‌کند
محققان ابزار‌هایی را برای کمک به دانشمندان داده توسعه می‌دهند تا ویژگی‌های مورد استفاده در مدل‌های یادگیری ماشینی را برای کاربران نهایی قابل درک‌تر کنند.
کد خبر : 824983

به گزارش گروه دانش و فناوری خبرگزاری آنا به نقل از وبگاه (سای تک دیلی)، محققان ابزار‌هایی را برای کمک به دانشمندان داده توسعه می‌دهند تا ویژگی‌های مورد استفاده در مدل‌های یادگیری ماشینی را برای کاربران نهایی قابل درک‌تر کنند. روش‌های توضیحی که به کاربران کمک می‌کنند مدل‌های یادگیری ماشینی را درک کنند و به آن‌ها اعتماد کنند، اغلب توضیح می‌دهند که تا چه اندازه ویژگی‌های خاصی که در مدل استفاده می‌شود در پیش‌بینی آن نقش دارند.

روش‌های توضیحی که به کاربران کمک می‌کنند مدل‌های یادگیری ماشینی را درک کنند و به آن‌ها اعتماد کنند، اغلب توضیح می‌دهند که تا چه اندازه ویژگی‌های خاصی که در مدل استفاده می‌شود در پیش‌بینی آن نقش دارند. برای مثال، اگر مدلی خطر ابتلای بیمار به بیماری قلبی را پیش‌بینی کند، ممکن است پزشک بخواهد بداند داده‌های ضربان قلب بیمار چقدر بر این پیش‌بینی تأثیر می‌گذارد.

اما اگر آن ویژگی‌ها آنقدر پیچیده یا پیچیده باشند که کاربر نتواند آن‌ها را درک کند، آیا روش توضیح فایده‌ای دارد؟

محققان MIT در تلاش هستند تا تفسیرپذیری ویژگی‌ها را بهبود بخشند تا تصمیم گیرندگان با استفاده از خروجی‌های مدل‌های یادگیری ماشینی راحت‌تر باشند. با تکیه بر سال‌ها کار میدانی، آن‌ها یک طبقه‌بندی ایجاد کردند تا به توسعه‌دهندگان کمک کند ویژگی‌هایی را ایجاد کنند که درک آن برای مخاطب هدفشان آسان‌تر باشد.

می‌گوید: ما متوجه شدیم که در دنیای واقعی، حتی اگر از روش‌های پیشرفته برای توضیح مدل‌های یادگیری ماشینی استفاده می‌کردیم، هنوز سردرگمی زیادی ناشی از ویژگی‌ها، نه از خود مدل، وجود دارد. الکساندرا زیتک، دانشجوی دکتری مهندسی برق و علوم کامپیوتر و نویسنده اصلی مقاله‌ای در زمینه معرفی طبقه بندی.

برای ایجاد طبقه بندی، محققان ویژگی‌هایی را تعریف کردند که ویژگی‌ها را برای پنج نوع کاربر قابل تفسیر می‌کند، از کارشناسان هوش مصنوعی گرفته تا افرادی که تحت تأثیر پیش بینی مدل یادگیری ماشینی قرار می‌گیرند. آن‌ها همچنین دستورالعمل‌هایی را ارائه می‌دهند که چگونه سازندگان مدل می‌توانند ویژگی‌ها را به قالب‌هایی تبدیل کنند که درک آن برای افراد عادی آسان‌تر باشد.

آن‌ها امیدوارند که کار آن‌ها به سازندگان مدل الهام بخش شود تا از ابتدای فرآیند توسعه، به جای تلاش برای کار معکوس و تمرکز بر توضیح پذیری، از ابتدای فرآیند توسعه استفاده کنند.

از نویسندگان MIT می‌توان به Dongyu Liu، فوق دکترا اشاره کرد. پروفسور مدعو Laure Berti-Équille، مدیر تحقیقات IRD؛ و نویسنده ارشد Kalyan Veeramachaneni، دانشمند پژوهشی اصلی در آزمایشگاه اطلاعات و سیستم‌های تصمیم گیری (LIDS) و رهبر گروه داده به هوش مصنوعی. ایگناسیو آرنالدو، دانشمند اصلی داده در Corelight به آن‌ها ملحق می‌شود. این تحقیق در نسخه ژوئن انجمن ماشین‌های محاسباتی گروه مورد علاقه ویژه در مورد کشف دانش و داده‌کاوی در خبرنامه Explorations با بازبینی همتا منتشر شد.

** درس‌های دنیای واقعی

ویژگی‌ها متغیر‌های ورودی هستند که به مدل‌های یادگیری ماشینی داده می‌شوند. آن‌ها معمولاً از ستون‌های یک مجموعه داده ترسیم می‌شوند.

Veeramachaneni توضیح می‌دهد که دانشمندان داده معمولاً ویژگی‌هایی را برای مدل انتخاب می‌کنند و به دست می‌آورند، و عمدتاً بر اطمینان از توسعه ویژگی‌ها برای بهبود دقت مدل تمرکز می‌کنند، نه اینکه آیا تصمیم‌گیرنده می‌تواند آن‌ها را درک کند یا خیر.

برای چندین سال، او و تیمش با تصمیم‌گیرندگان برای شناسایی چالش‌های قابلیت استفاده در یادگیری ماشین کار کرده‌اند. این متخصصان حوزه، که اکثر آن‌ها فاقد دانش یادگیری ماشینی هستند، اغلب به مدل‌ها اعتماد ندارند، زیرا ویژگی‌هایی را که بر پیش‌بینی‌ها تأثیر می‌گذارند، درک نمی‌کنند.

برای یک پروژه، آن‌ها با پزشکان یک ICU بیمارستان همکاری کردند که از یادگیری ماشینی برای پیش‌بینی خطری که بیمار پس از جراحی قلب با عوارض مواجه می‌شود، استفاده کردند. برخی از ویژگی‌ها به‌عنوان مقادیر جمع‌آوری شده، مانند روند ضربان قلب بیمار در طول زمان، ارائه شدند. در حالی که ویژگی‌هایی که به این روش کدگذاری شده‌اند «مدل آماده» بودند (مدل می‌توانست داده‌ها را پردازش کند)، پزشکان نمی‌دانستند چگونه محاسبه می‌شوند.

لیو می‌گوید، آن‌ها ترجیح می‌دهند ببینند که چگونه این ویژگی‌های جمع‌آوری شده با مقادیر اصلی مرتبط هستند، بنابراین می‌توانند ناهنجاری‌ها را در ضربان قلب بیمار شناسایی کنند.

در مقابل، گروهی از دانشمندان یادگیرنده ویژگی‌هایی را ترجیح می‌دهند که تجمیع شده باشند. به جای داشتن قابلیتی مانند تعداد پست‌هایی که یک دانش‌آموز در انجمن‌های گفتگو منتشر می‌کند، ترجیح می‌دهند ویژگی‌های مرتبط را با هم گروه‌بندی کنند و با عباراتی که می‌دانند برچسب‌گذاری شوند، مانند «مشارکت».

با تفسیرپذیری، یک اندازه برای همه مناسب نیست. وقتی از منطقه‌ای به منطقه دیگر می‌روید، نیاز‌های مختلفی وجود دارد. ویرماچاننی می‌گوید که تفسیرپذیری خود سطوح مختلفی دارد.

این ایده که یک اندازه برای همه مناسب نیست، کلید طبقه بندی محققان است. آن‌ها ویژگی‌هایی را تعریف می‌کنند که می‌توانند ویژگی‌ها را کم و بیش برای تصمیم گیرندگان مختلف قابل تفسیر کنند و مشخص کنند که چه ویژگی‌هایی احتمالاً برای کاربران خاص مهم هستند.

به عنوان مثال، توسعه دهندگان یادگیری ماشینی ممکن است بر داشتن ویژگی‌هایی تمرکز کنند که با مدل سازگار و قابل پیش بینی هستند، به این معنی که انتظار می‌رود عملکرد مدل را بهبود بخشند.

از سوی دیگر، تصمیم گیرندگانی که تجربه یادگیری ماشینی ندارند، ممکن است با ویژگی‌هایی که توسط انسان بیان می‌شوند، بهتر مورد استفاده قرار گیرند، به این معنی که آن‌ها به گونه‌ای توصیف شده‌اند که برای کاربران طبیعی است و قابل درک باشد، به این معنی که به معیار‌های دنیای واقعی اشاره می‌کنند. کاربران می‌توانند در مورد آن استدلال کنند.

طبقه‌بندی می‌گوید، اگر ویژگی‌های قابل تفسیری ایجاد می‌کنید، تا چه سطحی قابل تفسیر هستند؟ Zytek می‌گوید، بسته به نوع متخصصان دامنه‌ای که با آن‌ها کار می‌کنید، ممکن است به همه سطوح نیاز نداشته باشید.

** تفسیرپذیری را در اولویت قرار دهیم

محققان همچنین تکنیک‌های مهندسی ویژگی‌هایی را که یک توسعه‌دهنده می‌تواند برای تفسیرپذیرتر کردن ویژگی‌ها برای یک مخاطب خاص استفاده کند، تشریح می‌کنند.

مهندسی ویژگی فرآیندی است که در آن دانشمندان داده با استفاده از تکنیک‌هایی مانند جمع‌آوری داده‌ها یا عادی‌سازی مقادیر، داده‌ها را به قالبی که مدل‌های یادگیری ماشینی می‌توانند پردازش کنند، تبدیل می‌کنند. اکثر مدل‌ها همچنین نمی‌توانند داده‌های دسته‌بندی را پردازش کنند، مگر اینکه به یک کد عددی تبدیل شوند. باز کردن این دگرگونی‌ها برای افراد غیرممکن است.

Zytek می‌گوید ایجاد ویژگی‌های قابل تفسیر ممکن است شامل لغو برخی از آن کدگذاری باشد. به عنوان مثال، یک تکنیک مهندسی ویژگی مشترک، گستره‌های داده را سازماندهی می‌کند تا همه آن‌ها دارای تعداد سال یکسانی باشند. برای تفسیرپذیرتر کردن این ویژگی‌ها، می‌توان محدوده‌های سنی را با استفاده از اصطلاحات انسانی مانند نوزاد، کودک نوپا، کودک و نوجوان گروه‌بندی کرد. لیو می‌افزاید: یا به جای استفاده از یک ویژگی تبدیل شده مانند ضربان متوسط ​​پالس، یک ویژگی قابل تفسیر ممکن است به سادگی داده‌های نرخ پالس واقعی باشد.

در بسیاری از حوزه‌ها، مبادله بین ویژگی‌های قابل تفسیر و دقت مدل در واقع بسیار کم است. به‌عنوان مثال، زمانی که ما با غربالگری‌های رفاه کودکان کار می‌کردیم، مدل را تنها با استفاده از ویژگی‌هایی که تعاریف ما را برای تفسیرپذیری مطابقت داشتند، دوباره آموزش دادیم و کاهش عملکرد تقریباً ناچیز بود.

با تکیه بر این کار، محققان در حال توسعه سیستمی هستند که توسعه‌دهنده مدل را قادر می‌سازد تا تبدیل‌های ویژگی‌های پیچیده را به شیوه‌ای کارآمدتر مدیریت کند تا توضیحاتی با محوریت انسان برای مدل‌های یادگیری ماشین ایجاد کند. این سیستم جدید همچنین الگوریتم‌های طراحی شده برای توضیح مجموعه داده‌های آماده مدل را به قالب‌هایی تبدیل می‌کند که برای تصمیم گیرندگان قابل درک باشد.

انتهای پیام/

برچسب ها: MIT محققان MIT
ارسال نظر
هلدینگ شایسته