رگرسیون ریج چیست؟

1402/07/15

دسترسی سریع


در این مقاله قصد داریم سوال متداولی که در مصاحبه‌های شغلی پرسیده می‌شود، یعنی "رگرسیون ریج چیست؟" را توضیح دهیم.
بسیاری از افراد که در زمینه تحلیل داده یا علم داده فعالیت می‌کنند، اغلب اوقات محدود به درک ابتدایی الگوریتم‌های رگرسیون، به ویژه رگرسیون خطیهستند. تنها تعداد کمی از آنها با تکنیک‌های منظم‌سازی (Regularization Techniques) مانند رگرسیون ریج و رگرسیون لسو (Lasso) آشنا هستند که به آنها کمک می‌کند تا مدل‌های بهتری از داده‌ها بسازند. به عبارت دیگر، توانایی استفاده از تکنیک‌های مختلف رگرسیون می‌تواند توانمندی‌های تحلیل داده و علم داده را افزایش دهد.
این به ما کمی انگیزه می‌دهد تا توضیح دهیم که چگونه رگرسیون ریج در یادگیری ماشین کار می‌کند.

مفهوم رگرسیون ریج

رگرسیون ریج (Ridge Regression) روشی است برای ایجاد مدل ساده‌تر، زمانی که تعداد متغیرهای پیش‌بینی در مجموعه بیشتر از تعداد مشاهدات باشد، یا زمانی که یک مجموعه داده دارای چندین همبستگی (ارتباطات بین متغیرهای پیش‌بینی) باشد.
وقتی تعداد متغیرهای پیش‌بینی در یک مجموعه بیشتر از تعداد مشاهدات است، مشکلاتی ایجاد می‌شود. در این حالت، ممکن است مدل سعی کند تا با استفاده از همه این متغیرها، به داده‌ها بسیار خوب پاسخ دهد، اما این ممکن است باعث بیش‌برازش شود و قابلیت تعمیم به داده‌های جدید را از دست بدهد. 
این نوع رگرسیون با اضافه کردن جملات جریمه L2 به تابع هدف، کمک می‌کند تا پارامترهای مدل کوچکتر شوند و تعداد متغیرهای مستقل مهم در مدل کاهش یابد. این کاهش تعداد متغیرها به وجود مدلی مناسب کمک می‌کند که قابلیت تعمیم به داده‌های جدید را داشته باشد.

تفاوت بین روش تیخونوف و رگرسیون ریج

روش تیخونوف در اصل مشابه رگرسیون ریج است، با این تفاوت که تیخونوف یک مجموعه بزرگتر دارد. این روش می‌تواند راه‌حل‌هایی را تولید کند، حتی زمانی که مجموعه داده شما شامل تعداد زیادی نویز آماری (تغییر ناشی از دلایل غیر توضیح‌دهنده در یک نمونه) باشد.
وقتی مجموعه داده حاوی نویز آماری است، ممکن است رگرسیون سنتی با مشکل مواجه شود و نتایج نادقیقی را تولید کند. نویز آماری به تغییراتی در داده‌ها اشاره دارد که توسط مدل رگرسیون قابل توضیح نیستند و به تنهایی توضیح داده نمی‌شوند.
روش تیخونوف (یا تیخونوف-ملینینکوف) با اضافه کردن جملات جریمه L2 به تابع هدف، به مدل کمک می‌کند تا از تأثیر نویز آماری کاسته شود و راه‌حل‌های پایدارتر و دقیق‌تری را ارائه دهد. این جملات جریمه به مدل اجازه می‌دهند تا پارامترهای کوچکتری داشته باشد و تأثیر نویز آماری را کاهش دهد.

یک مثال تخصصی برای رگرسیون ریج

رگرسیون ریج یکی از تکنیک‌های رگرسیون منظم‌سازی است که برای کاهش بیش‌برازش (overfitting) در مدل‌های رگرسیونی به کار می‌رود. این روش به جای حداقل‌سازی مجموع مربعات خطاها (OLS)، مجموع مربعات خطاها و مجموع مربعات ضرایب رگرسیون را با هم حداقل می‌کند. به عبارتی دیگر، یک جریمه به اندازه‌ی مجموع مربعات ضرایب به تابع هزینه اضافه می‌کند.

فرض کنید که داده‌های زیر را داریم:

مثال تخصصی برای رگرسیون ریج

تابع هزینه در رگرسیون ریج

تابع هزینه در رگرسیون ریج به شکل زیر است:

تابع هزینه در رگرسیون ریج

مثال عملی

فرض کنید داده‌های زیر را داریم:

x1 x2 y
1 2 4
2 3 5
3 4 6
4 5

7

ابتدا مدل رگرسیون خطی ساده بدون منظم‌سازی را برازش می‌دهیم:

مثال عملی رگرسیون ریچ

سپس مدل رگرسیون ریج را با اضافه کردن جریمه برازش می‌دهیم:

اضافه کردن جریمه برای رگرسیون ریچ

برای حل این مساله، می‌توانیم از روش‌های بهینه‌سازی عددی یا توابع موجود در کتابخانه‌های پایتون مانند scikit-learn استفاده کنیم. در اینجا یک پیاده‌سازی ساده با استفاده از scikit-learn آورده شده است:

بهینه‌سازی عددی یا توابع موجود در کتابخانه‌های پایتون

نتیجه این کد ضرایب مدل و مقدار تقاطع را به شما نشان می‌دهد. با تغییر مقدار پارامتر جریمه alpha می‌توانید تاثیر منظم‌سازی را مشاهده کنید.

تفاوت بین رگرسیون ریج و رگرسیون لسو

اختلاف اصلی بین رگرسیون لسو و رگرسیون ریج در اصطلاح جریمه (Penalty Term) است. تفاوت‌های دیگر در جدول زیر آورده شده است.

Ridge Regression Lasso Regression
از تکنیک منظم‌سازی L2 استفاده می‌کند. از تکنیک منظم‌سازی L1 استفاده می‌کند.
دلیل انجام این به‌روزرسانی و تنظیم وزن‌ها، وجود یک عبارت توان دوم اضافی در تابع خطا است. بدین معناست که تابع خطا در رگرسیون دارای یک عبارت توان دوم از وزن‌ها است که به‌صورت اضافی به تابع خطا اضافه می‌شود. به‌روزرسانی و تنظیم وزن‌ها، به‌دلیل وجود یک عبارت اضافی حاوی نرم L1 بردار وزن‌ها در تابع خطا انجام می‌شود.
در هنگام بهینه‌سازی، این روش باعث کاهش اندازه کلی مقادیر وزن‌ها می‌شود و به این ترتیب از بیش‌برازش (overfitting) جلوگیری می‌کند. این روش باعث کاهش وزن ویژگی‌هایی می‌شود که در یک نقطه خاص به صفر می‌رسند و در نتیجه ویژگی‌هایی که عاملی برای واریانس بالا و مشکلات بیش‌برازش مدل هستند، به‌طور مؤثر حذف می‌شوند.

 

کاربرد رگرسیون ریج در پزشکی چیست؟

Ridge Regression در پزشکی به‌عنوان یک روش تحلیل داده و مدل‌سازی آماری مورد استفاده قرار می‌گیرد. این روش می‌تواند در موارد مختلفی مفید باشد، از جمله:
•    مدلسازی پیش‌بینی: رگرسیون ریج می‌تواند در پزشکی برای وظایف مدلسازی پیش‌بینی مانند پیش‌بینی نتایج بیماران یا پیشرفت بیماری استفاده شود. با یکپارچه‌سازی تنظیمات، به کاهش تأثیر چندخطی و بیش‌برازش کمک می‌کند و منجر به پیش‌بینی‌های دقیق‌تر می‌شود.
•    انتخاب ویژگی: می‌تواند در شناسایی ویژگی‌ها یا متغیرهای مرتبط در مجموعه داده‌های پزشکی کمک کند. با اختصاص ضرایب کوچک و غیرصفر به متغیرهای کم‌اطلاعات، ریج به ترتیب اولویت‌بندی پیش‌بینی‌کننده‌های مهم و بهبود قابلیت تفسیر مدل کمک می‌کند.

کاربرد رگرسیون ریج در پزشکی


•    ژنومیک و ژنتیک: در مطالعات ژنومیک و ژنتیک، می‌تواند برای تحلیل داده‌های بیان ژن، شناسایی نشانگرهای ژنتیکی مرتبط با بیماری‌ها و پیش‌بینی خطر بیماری یا پاسخ به درمان استفاده شود. همچنین به مدیریت مجموعه‌های داده با ابعاد بالا با تعداد پیش‌بینندهای ممکن بالا کمک می‌کند و توانایی مدیریت ساختار همبستگی بین متغیرهای ژنتیکی را بهبود می‌بخشد.
•    تصویربرداری پزشکی: رگرسیون ریدج می‌تواند در تجزیه و تحلیل داده‌های تصویربرداری پزشکی مانند سونوگرافی یا اسکن CT مورد استفاده قرار گیرد. این روش در وظایفی مانند بازسازی تصویر، حذف نویز و استخراج ویژگی‌ها کمک می‌کند. علاوه بر این، با ادغام منظم‌سازی، ریدج به کاهش نویز و بهبود کیفیت تصاویر پزشکی کمک می‌کند.

رگرسیون ریج در مقابل رگرسیون کمترین مربعات

رگرسیون کمترین مربعات (Least Squares) در مواقعی که تعداد متغیرهای پیش‌بینی بیشتر از تعداد داده‌ها باشد یا در مواجهه با متغیرهای مرتبط با یکدیگر مشکل داشته باشد، به مشکلاتی برمی‌خورد.
این روش تفاوتی بین متغیرهای "مهم" و "کم‌اهمیت" در مدل ایجاد نمی‌کند، بنابراین همه آن‌ها را در مدل در نظر می‌گیرد. این موجب بیش‌برازش مدل و عدم توانایی در یافتن راه‌حل‌های منحصر به فرد می‌شود. این نوع رگرسیون، همچنین با مشکلاتی در مواجهه با چندخطی در داده‌ها روبرو است.
ریج از تمام این مشکلات جلوگیری می‌کند. این به‌دلیل این است که به تخمین‌گرهای بی‌طرف نیازی ندارد. در حالی که رگرسیون کمترین مربعات برآوردهای بی‌طرفی را تولید می‌کند، واریانس‌ها ممکن است به گونه‌ای بزرگ باشند که به‌طور کامل نادرست باشند. 
رگرسیون ریج مقدار کافی اریب را اضافه می‌کند تا برآوردها به عنوان تقریب‌های قابل اعتمادی از مقادیر واقعی جمعیت باشند.

جمع شدگی و منظم ‌سازی در مدل رگرسیون ریج چیست؟

روش‌های انقباض (Shrinkage methods) یک تکنیک مدرن است که در آن از متغیرها به‌صورت صریح استفاده نمی‌شود،  بلکه مدلی را با تمام پارامترها متناسب می‌کنیم. این تکنیک از روشی استفاده می‌کند که تخمین‌های ضرایب را محدود یا منظم‌سازی می‌کند، به عبارت دیگر، تخمین‌های ضرایب را نسبت به تخمین‌های کمترین مربعات به سمت صفر کاهش می‌دهد.
Shrinkage همچنین به عنوان regularization شناخته می‌شود و می‌تواند تأثیر کاهش واریانس داشته باشد و همچنین انتخاب متغیرها را انجام دهد.

کاهش بیش برازش با رگرسیون ریج

 

تفسیرهای جایگزین برای رگرسیون ریج چیست؟

رگرسیون ریج می‌تواند بصورت بیزی تعبیر شود. اگر فرض کنیم که هر آمار پارامتری توقع مقدار صفر و واریانس داشته باشد، آنگاه رگرسیون ریج اغلب به عنوان راه‌حل بیزی نشان داده می‌شود. دیدگاه دیگری که توسط منتقدان ذکر شده است، نظریه "داده‌های تقلبی" است.
اصولا نشان داده می‌شود که راه‌حل این رگرسیون با اضافه کردن سطرهای دانش به ماتریس اولیه داده‌ها به‌دست می‌آید. این سطرها با استفاده از مقدار صفر برای متغیرهای وابسته و ریشه 'k' یا صفر برای متغیرهای مستقل ساخته می‌شوند.
برای هر متغیر تجربی یک سطر اضافه می‌شود. این ایده که داده‌های تولیدی نتایج رگرسیون ریج را تولید می‌کنند، بسیاری از نگرانی‌ها را به وجود آورده و منجر به افزایش جدال در استفاده و تفسیر آن شده است.

خلاصه کلام

رگرسیون ریج به‌عنوان یک ابزار قدرتمند در تحلیل داده‌ها و مدل‌سازی آماری در مختلف حوزه‌ها، از جمله پزشکی، به‌کار می‌رود. این متد با استفاده از مفهوم منظمسازی و کاهش بیش‌برازش، به ما امکان می‌دهد دقت و قدرت پیش‌بینی بالاتری در مدل‌های آماری داشته باشیم. همچنین، تفاوت‌های آن با رگرسیون لسو را نیز مشخص کردیم که می‌تواند در انتخاب مناسب برای مسائل مختلف کمک کند.

نظرات

هیچ نظری وجود ندارد.


افزودن نظر

Sitemap
Copyright © 2017 - 2023 Khavarzadeh®. All rights reserved