რა არის დარეგულირებული ხაზოვანი რეგრესია?
რა არის დარეგულირებული ხაზოვანი რეგრესია?

ვიდეო: რა არის დარეგულირებული ხაზოვანი რეგრესია?

ვიდეო: რა არის დარეგულირებული ხაზოვანი რეგრესია?
ვიდეო: Regularization Part 1: Ridge (L2) Regression 2024, ნოემბერი
Anonim

რეგულარიზაცია . ეს არის ფორმა რეგრესია , რომელიც ზღუდავს/არეგულირებს ან ამცირებს კოეფიციენტების შეფასებას ნულამდე. სხვა სიტყვებით რომ ვთქვათ, ეს ტექნიკა ხელს უშლის უფრო რთული ან მოქნილი სწავლის საშუალებას მოდელი ზედმეტად მორგების რისკის თავიდან ასაცილებლად. მარტივი ურთიერთობა ხაზოვანი რეგრესია ასე გამოიყურება.

შესაბამისად, რა არის ლამბდა ხაზოვან რეგრესიაში?

როცა მაღალი ხარისხი გვაქვს ხაზოვანი მრავალწევრი, რომელიც გამოიყენება a-ში წერტილების სიმრავლის მოსაწყობად ხაზოვანი რეგრესია დაყენება, ზედმეტი მორგების თავიდან ასაცილებლად, ჩვენ ვიყენებთ რეგულარიზაციას და ვიცავთ ა ლამბდა პარამეტრი ღირებულების ფუნქციაში. ეს ლამბდა შემდეგ გამოიყენება გრადიენტული დაღმართის ალგორითმში თეტა პარამეტრების გასაახლებლად.

მეორეც, რა არის რეგულარიზაციის მიზანი? რეგულარიზაცია არის ტექნიკა, რომელიც გამოიყენება რეგულირებისთვის ფუნქცია შეცდომაში დამატებითი საჯარიმო ვადის დამატებით ფუნქცია . დამატებითი ტერმინი აკონტროლებს ზედმეტად მერყეობას ფუნქცია ისეთი, რომ კოეფიციენტებმა არ მიიღონ უკიდურესი მნიშვნელობები.

ამგვარად, რატომ გვჭირდება რეგრესიის დარეგულირება?

მიზანი რეგულაცია სხვა სიტყვებით რომ ვთქვათ, არის ზედმეტი მორგების თავიდან აცილება ჩვენ ცდილობენ თავიდან აიცილონ მოდელები, რომლებიც ძალიან კარგად ერგება ტრენინგის მონაცემებს (მონაცემები, რომლებიც გამოიყენება მოდელის შესაქმნელად), მაგრამ ცუდად ერგება ტესტირების მონაცემებს (მონაცემები გამოიყენება იმის შესამოწმებლად, თუ რამდენად კარგია მოდელი). ეს ცნობილია, როგორც overfitting.

რას ნიშნავს რეგულაცია?

მათემატიკაში, სტატისტიკასა და კომპიუტერულ მეცნიერებაში, განსაკუთრებით მანქანათმცოდნეობაში და შებრუნებულ ამოცანებში, რეგულაცია არის ინფორმაციის დამატების პროცესი არასწორად დასმული პრობლემის გადასაჭრელად ან ზედმეტი მორგების თავიდან ასაცილებლად. რეგულარიზაცია ვრცელდება ობიექტურ ფუნქციებზე ცუდად დასმულ ოპტიმიზაციის პრობლემებში.

გირჩევთ: