admin管理员组

文章数量:1660200



这是原始的数据

一般的我们定义x作为特征向量,

即x = [x_1,x_2,…,x_n],

y作为响应向量,即y = [y_1,y_2,…,y_n]

对于n次观察(在上面的例子中,n = 10)

现在,任务是在上面的散点图中找到最适合的线,以便我们可以预测任何新特征值的响应。(即数据集中不存在x的值)该行称为回归线。
根据回归方程 h(x_i ) = b_1 + b_0x
h(x_i)表示第i次观察的预测响应值。
b_1和b_0是回归系数,分别代表回归线的y轴截距和斜率。
我们将使用最小二乘法技术。

我们的任务是找到j(b_0,b_1)最小的b_0和b_1的值!

在不进入数学细节的情况下,
B0 = Sxy/Sxx
B1 = ave(y) - ave(x)*B0

<

本文标签: 线性