სიგმოიდი უკეთესია ვიდრე ReLU?
სიგმოიდი უკეთესია ვიდრე ReLU?

ვიდეო: სიგმოიდი უკეთესია ვიდრე ReLU?

ვიდეო: სიგმოიდი უკეთესია ვიდრე ReLU?
ვიდეო: Нелогичная жизнь_Рассказ_Слушать 2024, ნოემბერი
Anonim

რელუ : გამოთვლებით უფრო ეფექტურია ვიდრე სიგმოიდური როგორც ფუნქციები მას შემდეგ რელუ უბრალოდ სჭირდება topick max(0, x) და არ შეასრულოს ძვირადღირებული ექსპონენციალური ოპერაციები, როგორც Sigmoids. რელუ : პრაქტიკაში, ქსელები რელუ აჩვენოს ტენდენცია უკეთესი კონვერგენციის შესრულება ვიდრესიგმოიდური.

ანალოგიურად შეიძლება ვინმემ იკითხოს, რატომ არის ReLU საუკეთესო აქტივაციის ფუნქცია?

მთავარი იდეა ისაა, რომ გრადიენტი იყოს ნულოვანი და საბოლოოდ აღდგეს ვარჯიშის დროს. რელუ ნაკლებად გამოთვლითი ძვირია ვიდრე tanh და სიგმოიდური რადგან ის მოიცავს უფრო მარტივ მათემატიკურ ოპერაციებს. Ეს არის კარგი გასათვალისწინებელია, როდესაც ჩვენ ვქმნით ღრმა ნეირონულ ქსელებს.

შეიძლება ასევე იკითხოთ, რა არის სიგმოიდური აქტივაციის ფუნქცია? The სიგმოიდური ფუნქცია არის გააქტიურების ფუნქცია ნეირონების გასროლასთან, ნეირონულ ქსელებში სტრუქტურირებული ძირეული კარიბჭის თვალსაზრისით. წარმოებული, ასევე მოქმედებს a გააქტიურების ფუნქცია ნეირონის დამუშავების თვალსაზრისით გააქტიურება NN-ის თვალსაზრისით. განსხვავება ამ ორს შორის არის გააქტიურება ხარისხი და ურთიერთდამოკიდებულება.

ანალოგიურად, რატომ ვიყენებთ ReLU-ს CNN-ში?

კონვოლუციური ნერვული ქსელები ( CNN ): ნაბიჯი 1(ბ) - ReLU Ფენა. გამოსწორებული ხაზოვანი ერთეული, ან ReLU , არის არ არის კონვოლუციური ნეირონული ქსელების პროცესის ცალკეული კომპონენტი. გამოსწორების ფუნქციის გამოყენების მიზანი არის გაზარდოს არაწრფივობა ჩვენს სურათებში.

რა არის ReLU-ს გამოყენება?

ReLU (გასწორებული Linear Unit) ActivationFunction The ReLU არის ყველაზე გამოყენებული აქტივაციის ფუნქცია მსოფლიოში ახლავე. მას შემდეგ, რაც არის გამოყენებული თითქმის ყველა კონვოლუციურ ნერვულ ქსელში ან ღრმა სწავლაში.

გირჩევთ: