首页 > 编程语言 > 详细

机器学习:单元线性回归(python简单实现)

时间:2021-07-15 18:42:29      阅读:16      评论:0      收藏:0      [点我收藏+]

文章简介

本篇文章主要记录和讲解使用python如何简单实现单元线性回归算法,鉴于笔者也是初学,所以如果文章有问题,望友好指正,谢谢!

算法目的

该算法核心目的是为了求出假设函数h中多个theta的值,使得代入数据集合中的每个x,求得的h(x)与每个数据集合中的y的差值的和最小。简单来说就是需要生成一个函数,它尽可能贴近实际数据中的每个值,方便我们预测。

核心算法

  1. 假设函数
    即需要求的函数,为了简单在此只设置一个x对应一个y,求theta0和theta1
    技术分享图片
  2. 代价函数技术分享图片
    目的是J最小,也就是每个y到达函数的距离之和最小。
  3. 批量梯度下降函数
    技术分享图片
    带假设函数和代价函数带入到下降函数中可得
    技术分享图片

算法实现

import numpy as np
import matplotlib.pyplot as plt

def hypoFunction(x, theta):
h = np.dot(x, theta)
return h


def costFunction(h, y):
"""
代价函数
h:hypothesis,
theta:特征向量系数
y:特征值对应的实际值
"""
m = len(y)
J = 1 / (2 * m) * np.sum(np.power(h - y, 2))
return J


def gradientDecent(x, y, h, theta, alpha, number):
"""梯度下降函数
number:设置的梯度下降次数"""
# for i in range(number):
m = len(y)
n = len(theta)
J_history = np.zeros((number,1))
for i in range(number):
theta = theta - (alpha/m) * x.T.dot(h-y)
h = hypoFunction(x, theta)
J_history[i] = costFunction(h,y)
print(theta)
return h

def paint(x,y,hypothesis):
plt.plot(x,y,"ro")
plt.plot(x,hypothesis)
plt.show()

 

def main():
x = np.array([[1,1], [1,2], [1,3], [1,4], [1,5], [1,6]])
y = np.array([[1], [2], [3], [4], [5], [6]])
theta = np.array([[10],[0]])
alpha = 0.1
h = hypoFunction(x, theta)
J = costFunction(h, y)
h= gradientDecent(x, y, h, theta, alpha, 20000)
x = x[:,-1]
print(x)
paint(x,y,h)
pass


if __name__ == "__main__":
main()

简单解释

  1. 因为设置了两个theta,为了方便运算以及满足矩阵乘法的要求,所以x多添加了一列1。
  2. theta初始值可以任意设置。
  3. alpha大小初始值不要过大,否则有可能导致梯度下降函数不收敛。如果初始值过小,则会导致需要计算很多次才能达到全局最优解。

机器学习:单元线性回归(python简单实现)

原文:https://www.cnblogs.com/allworldg/p/15016752.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!