რა არის nn წრფივი PyTorch-ში?
რა არის nn წრფივი PyTorch-ში?

ვიდეო: რა არის nn წრფივი PyTorch-ში?

ვიდეო: რა არის nn წრფივი PyTorch-ში?
ვიდეო: Torch.nn.Linear Module explained 2024, ნოემბერი
Anonim

დოკუმენტაციიდან: CLASS ჩირაღდანი. nn . ხაზოვანი (in_features, out_features, bias=True) ვრცელდება ა ხაზოვანი ტრანსფორმაცია შემოსულ მონაცემებზე: y = xW^T + b. პარამეტრები: in_features – თითოეული შეყვანის ნიმუშის ზომა.

ანალოგიურად, ისმის კითხვა, როგორ მუშაობს NN წრფივი?

ხაზოვანი . ვრცელდება ა ხაზოვანი ტრანსფორმაცია შემოსულ მონაცემებზე, ანუ //y= Ax+b//. შეყვანის ტენსორი, რომელიც მოცემულია წინ (შეყვანისას) უნდა იყოს ან ვექტორი (1D ტენსორი) ან მატრიცა (2D ტენსორი). თუ შეყვანა არის მატრიცა, მაშინ თითოეული მწკრივი ჩაითვლება მოცემული პარტიის შეყვანის ნიმუშად.

ანალოგიურად, რა არის conv2d PyTorch-ში? conv2d (შეყვანა, წონა, თვითმმართველობა. მიკერძოება, თვითმმართველობა. ნაბიჯი, თვით. შეფუთვა, თვით. გაფართოება, თვით.

მეორეც, რა არის PyTorch nn?

PyTorch : nn The nn პაკეტი განსაზღვრავს მოდულების ერთობლიობას, რომელიც შეგიძლიათ წარმოიდგინოთ, როგორც ნერვული ქსელის ფენა, რომელიც აწარმოებს გამოსავალს შეყვანისგან და შეიძლება ჰქონდეს გარკვეული სავარჯიშო წონა. იმპორტის ჩირაღდანი # N არის სურათების ზომა; D_in არის შეყვანის განზომილება; # H არის ფარული განზომილება; D_out არის გამომავალი განზომილება.

როგორ იყენებთ ReLU-ს PyTorch-ში?

In PyTorch , შეგიძლიათ ააწყოთ ა ReLU ფენა გამოყენებით მარტივი ფუნქცია relu1 = nn. ReLU არგუმენტით inplace=False. მას შემდეგ, რაც ReLU ფუნქცია გამოიყენება ელემენტის მიხედვით, არ არის საჭირო შეყვანის ან გამომავალი ზომების მითითება. არგუმენტი inplace განსაზღვრავს, თუ როგორ ექცევა ფუნქცია შეყვანას.

გირჩევთ: