最新消息:基于Pytorch实现逻辑回归
(资料图片仅供参考)
本文实例为大家分享了Pytorch实现逻辑回归的具体代码,供大家参考,具体内容如下
1.逻辑回归
线性回归表面上看是“回归问题”,实际上处理的问题是“分类”问题,逻辑回归模型是一种广义的回归模型,其与线性回归模型有很多的相似之处,模型的形式也基本相同,唯一不同的地方在于逻辑回归会对y作用一个逻辑函数,将其转化为一种概率的结果。逻辑函数也称为Sigmoid函数,是逻辑回归的核心。
2.基于Pytorch实现逻辑回归
import torch as t import matplotlib.pyplot as plt from torch import nn from torch.autograd import Variable import numpy as np # 构造数据集 n_data = t.ones(100, 2) # normal()返回一个张量,张量里面的随机数是从相互独立的正态分布中随机生成的。 x0 = t.normal(2*n_data, 1) y0 = t.zeros(100) x1 = t.normal(-2*n_data, 1) y1 = t.ones(100) # 把数据给合并以下,并且数据的形式必须是下面形式 x = t.cat((x0, x1), 0).type(t.FloatTensor) y = t.cat((y0, y1), 0).type(t.FloatTensor) # 观察制造的数据 plt.scatter(x.data.numpy()[:, 0], x.data.numpy()[:, 1], c=y.data.numpy(), s=100, lw=0) plt.show() # 建立逻辑回归 class LogisticRegression(nn.Module): def __init__(self): super(LogisticRegression, self).__init__() self.lr = nn.Linear(2, 1) self.sm = nn.Sigmoid() def forward(self, x): x = self.lr(x) x = self.sm(x) return x # 实例化 logistic_model = LogisticRegression() # 看GPU是否可使用,如果可以使用GPU否则不使用 if t.cuda.is_available(): logistic_model.cuda() # 定义损失函数和优化函数 criterion = nn.BCELoss() optimizer = t.optim.SGD(logistic_model.parameters(), lr=1e-3, momentum=0.9) # 训练模型 for epoch in range(1000): if t.cuda.is_available(): x_data = Variable(x).cuda() y_data = Variable(y).cuda() else: x_data = Variable(x) y_data = Variable(y) out = logistic_model(x_data) loss = criterion(out, y_data) print_loss = loss.data.item() # 以0.5为阈值进行分类 mask = out.ge(0.5).float() # 计算正确预测样本的个数 correct = (mask==y_data).sum() # 计算精度 acc = correct.item()/x_data.size(0) optimizer.zero_grad() loss.backward() optimizer.step() # 每个200个epoch打印一次当前的误差和精度 if(epoch+1)%200==0: print("*"*10) # 迭代次数 print("epoch{}".format(epoch+1)) # 误差 print("loss is {:.4f}".format((print_loss))) # 精度 print("acc is {:.4f}".format(acc)) if __name__=="__main__": logistic_model.eval() w0, w1 = logistic_model.lr.weight[0] w0 = float(w0.item()) w1 = float(w1.item()) b = float(logistic_model.lr.bias.item()) plot_x = np.arange(-7, 7, 0.1) plot_y = (-w0*plot_x-b)/w1 plt.scatter(x.data.numpy()[:, 0], x.data.numpy()[:, 1], c=y.data.numpy(), s=100, lw=0) plt.plot(plot_x, plot_y) plt.show()
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持脚本之家。
X 关闭
X 关闭
- 1转转集团发布2022年二季度手机行情报告:二手市场“飘香”
- 2充电宝100Wh等于多少毫安?铁路旅客禁止、限制携带和托运物品目录
- 3好消息!京东与腾讯续签三年战略合作协议 加强技术创新与供应链服务
- 4名创优品拟通过香港IPO全球发售4100万股 全球发售所得款项有什么用处?
- 5亚马逊云科技成立量子网络中心致力解决量子计算领域的挑战
- 6京东绿色建材线上平台上线 新增用户70%来自下沉市场
- 7网红淘品牌“七格格”chuu在北京又开一家店 潮人新宠chuu能红多久
- 8市场竞争加剧,有车企因经营不善出现破产、退网、退市
- 9北京市市场监管局为企业纾困减负保护经济韧性
- 10市场监管总局发布限制商品过度包装标准和第1号修改单