লিনিয়ার রিগ্রেশন সম্পর্কে
সরল লিনিয়ার রিগ্রেশন বেসিকস
-
আমাদের দুটি ক্রমাগত ভেরিয়েবলের মধ্যে সম্পর্ক বুঝতে দেয়।
-
উদাহরণ -
-
x =স্বাধীন পরিবর্তনশীল
-
ওজন
-
-
y =নির্ভরশীল পরিবর্তনশীল
-
উচ্চতা
-
-
-
y =αx + β
আসুন একটি প্রোগ্রামের মাধ্যমে সহজ লিনিয়ার রিগ্রেশন বুঝতে পারি −
#Simple linear regression import numpy as np import matplotlib.pyplot as plt np.random.seed(1) n = 70 x = np.random.randn(n) y = x * np.random.randn(n) colors = np.random.rand(n) plt.plot(np.unique(x), np.poly1d(np.polyfit(x, y, 1))(np.unique(x))) plt.scatter(x, y, c = colors, alpha = 0.5) plt.show()
আউটপুট

লিনিয়ার রিগ্রেশনের উদ্দেশ্য:
-
বিন্দু এবং রেখার মধ্যে দূরত্ব কমাতে (y =αx + β)
-
সামঞ্জস্য করা হচ্ছে
-
সহগ:α
-
ইন্টারসেপ্ট/বায়াস:β
-
PyTorch দিয়ে একটি লিনিয়ার রিগ্রেশন মডেল তৈরি করা
ধরা যাক আমাদের সহগ (α) হল 2 এবং intercept (β) হল 1 তাহলে আমাদের সমীকরণ হয়ে যাবে −
y =2x +1 #লিনিয়ার মডেল
ডেটাসেট তৈরি করা
x_values = [i for i in range(11)] x_values
আউটপুট
[0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10]
#নম্পিতে রূপান্তর করুন
x_train = np.array(x_values, dtype = np.float32) x_train.shape
আউটপুট
(11,)
#Important: 2D required x_train = x_train.reshape(-1, 1) x_train.shape
আউটপুট
(11, 1)
y_values = [2*i + 1 for i in x_values] y_values
আউটপুট
[1, 3, 5, 7, 9, 11, 13, 15, 17, 19, 21]
#list iteration y_values = [] for i in x_values: result = 2*i +1 y_values.append(result) y_values
আউটপুট
[1, 3, 5, 7, 9, 11, 13, 15, 17, 19, 21]
y_train = np.array(y_values, dtype = np.float32) y_train.shape
আউটপুট
(11,)
#2D required y_train = y_train.reshape(-1, 1) y_train.shape
আউটপুট
(11, 1)
বিল্ডিং মডেল
#import libraries
import torch
import torch.nn as nn
from torch.autograd import Variable
#Create Model class
class LinearRegModel(nn.Module):
def __init__(self, input_size, output_size):
super(LinearRegModel, self).__init__()
self.linear = nn.Linear(input_dim, output_dim)
def forward(self, x):
out = self.linear(x)
return out
input_dim = 1
output_dim = 1
model = LinearRegModel(input_dim, output_dim)
criterion = nn.MSELoss()
learning_rate = 0.01
optimizer = torch.optim.SGD(model.parameters(), lr = learning_rate)
epochs = 100
for epoch in range(epochs):
epoch += 1
#convert numpy array to torch variable
inputs = Variable(torch.from_numpy(x_train))
labels = Variable(torch.from_numpy(y_train))
#Clear gradients w.r.t parameters
optimizer.zero_grad()
#Forward to get output
outputs = model.forward(inputs)
#Calculate Loss
loss = criterion(outputs, labels)
#Getting gradients w.r.t parameters
loss.backward()
#Updating parameters
optimizer.step()
print('epoch {}, loss {}'.format(epoch, loss.data[0])) আউটপুট
epoch 1, loss 276.7417907714844 epoch 2, loss 22.601360321044922 epoch 3, loss 1.8716105222702026 epoch 4, loss 0.18043726682662964 epoch 5, loss 0.04218350350856781 epoch 6, loss 0.03060017339885235 epoch 7, loss 0.02935197949409485 epoch 8, loss 0.02895027957856655 epoch 9, loss 0.028620922937989235 epoch 10, loss 0.02830091118812561 ...... ...... epoch 94, loss 0.011018744669854641 epoch 95, loss 0.010895680636167526 epoch 96, loss 0.010774039663374424 epoch 97, loss 0.010653747245669365 epoch 98, loss 0.010534750297665596 epoch 99, loss 0.010417098179459572 epoch 100, loss 0.010300817899405956
সুতরাং আমরা ক্ষতি 100 যুগ থেকে উল্লেখযোগ্যভাবে হ্রাস করতে পারি।
গ্রাফটি প্লট করুন
৷#Purely inference predicted = model(Variable(torch.from_numpy(x_train))).data.numpy() predicted y_train #Plot Graph #Clear figure plt.clf() #Get predictions predicted = model(Variable(torch.from_numpy(x_train))).data.numpy() #Plot true data plt.plot(x_train, y_train, 'go', label ='True data', alpha = 0.5) #Plot predictions plt.plot(x_train, predicted, '--', label='Predictions', alpha = 0.5) #Legend and Plot plt.legend(loc = 'best') plt.show()
আউটপুট
৷ 
তাই আমরা গ্রাফ থেকে পারি- আমাদের সত্য এবং ভবিষ্যদ্বাণীকৃত মান প্রায় একই রকম।