46 captures
17 Feb 2017 - 10 Mar 2026
Nov
DEC
Jan
07
2021
2022
2023
success
fail
About this capture
COLLECTED BY
Collection:
Common Crawl
Web crawl data from Common Crawl.
TIMESTAMPS
The Wayback Machine - http://web.archive.org/web/20221207061620/https://www.cnblogs.com/pinard/p/6004041.html
首页
新闻
博问
专区
闪存
班级
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
刘
建
平
P
i
n
a
r
d
十
五
年
码
农
,
对
数
学
统
计
学
,
数
据
挖
掘
,
机
器
学
习
,
大
数
据
平
台
,
大
数
据
平
台
应
用
开
发
,
大
数
据
可
视
化
感
兴
趣
。
博客园
首页
新随笔
联系
订阅
管理
线性回归原理小结
线
性
回
归
可
以
说
是
机
器
学
习
中
最
基
本
的
问
题
类
型
了
,
这
里
就
对
线
性
回
归
的
原
理
和
算
法
做
一
个
小
结
。
1
.
线
性
回
归
的
模
型
函
数
和
损
失
函
数
线
性
回
归
遇
到
的
问
题
一
般
是
这
样
的
。
我
们
有
m
个
样
本
,
每
个
样
本
对
应
于
n
维
特
征
和
一
个
结
果
输
出
,
如
下
‥
\
(
(
x
_
1
^
{
(
0
)
}
,
x
_
2
^
{
(
0
)
}
,
.
.
.
x
_
n
^
{
(
0
)
}
,
y
_
0
)
,
(
x
_
1
^
{
(
1
)
}
,
x
_
2
^
{
(
1
)
}
,
.
.
.
x
_
n
^
{
(
1
)
}
,
y
_
1
)
,
.
.
.
(
x
_
1
^
{
(
m
)
}
,
x
_
2
^
{
(
m
)
}
,
.
.
.
x
_
n
^
{
(
m
)
}
,
y
_
m
)
\
)
我
们
的
问
题
是
,
对
于
一
个
新
的
\
(
(
x
_
1
^
{
(
x
)
}
,
x
_
2
^
{
(
x
)
}
,
.
.
.
x
_
n
^
{
(
x
)
}
\
)
,
他
所
对
应
的
\
(
y
_
x
\
)
是
多
少
呢
?
如
果
这
个
问
题
里
面
的
y
是
连
续
的
,
则
是
一
个
回
归
问
题
,
否
则
是
一
个
分
类
问
题
。
对
于
n
维
特
征
的
样
本
数
据
,
如
果
我
们
决
定
使
用
线
性
回
归
,
那
么
对
应
的
模
型
是
这
样
的
‥
\
(
h
_
\
t
h
e
t
a
(
x
_
1
,
x
_
2
,
.
.
.
x
_
n
)
=
\
t
h
e
t
a
_
0
+
\
t
h
e
t
a
_
{
1
}
x
_
1
+
.
.
.
+
\
t
h
e
t
a
_
{
n
}
x
_
{
n
}
\
)
,
其
中
\
(
\
t
h
e
t
a
_
i
\
)
(
i
=
0
,
1
,
2
.
.
.
n
)
为
模
型
参
数
,
\
(
x
_
i
\
)
(
i
=
0
,
1
,
2
.
.
.
n
)
为
每
个
样
本
的
n
个
特
征
值
。
这
个
表
示
可
以
简
化
,
我
们
增
加
一
个
特
征
\
(
x
_
0
=
1
\
)
,
这
样
\
(
h
_
\
t
h
e
t
a
(
x
_
0
,
x
_
1
,
.
.
.
x
_
n
)
=
\
s
u
m
\
l
i
m
i
t
s
_
{
i
=
0
}
^
{
n
}
\
t
h
e
t
a
_
{
i
}
x
_
{
i
}
\
)
。
进
一
步
用
矩
阵
形
式
表
达
更
加
简
洁
如
下
‥
\
(
h
_
\
m
a
t
h
b
f
{
\
t
h
e
t
a
}
(
\
m
a
t
h
b
f
{
X
}
)
=
\
m
a
t
h
b
f
{
X
\
t
h
e
t
a
}
\
)
其
中
,
假
设
函
数
\
(
h
_
\
m
a
t
h
b
f
{
\
t
h
e
t
a
}
(
\
m
a
t
h
b
f
{
X
}
)
\
)
为
m
x
1
的
向
量
,
\
(
\
m
a
t
h
b
f
{
\
t
h
e
t
a
}
\
)
为
n
x
1
的
向
量
,
里
面
有
n
个
代
数
法
的
模
型
参
数
。
\
(
\
m
a
t
h
b
f
{
X
}
\
)
为
m
x
n
维
的
矩
阵
。
m
代
表
样
本
的
个
数
,
n
代
表
样
本
的
特
征
数
。
得
到
了
模
型
,
我
们
需
要
求
出
需
要
的
损
失
函
数
,
一
般
线
性
回
归
我
们
用
均
方
误
差
作
为
损
失
函
数
。
损
失
函
数
的
代
数
法
表
示
如
下
‥
\
(
J
(
\
t
h
e
t
a
_
0
,
\
t
h
e
t
a
_
1
.
.
.
,
\
t
h
e
t
a
_
n
)
=
\
s
u
m
\
l
i
m
i
t
s
_
{
i
=
1
}
^
{
m
}
(
h
_
\
t
h
e
t
a
(
x
_
0
^
{
(
i
)
}
,
x
_
1
^
{
(
i
)
}
,
.
.
.
x
_
n
^
{
(
i
)
}
)
-
y
_
i
)
^
2
\
)
进
一
步
用
矩
阵
形
式
表
达
损
失
函
数
‥
\
(
J
(
\
m
a
t
h
b
f
\
t
h
e
t
a
)
=
\
f
r
a
c
{
1
}
{
2
}
(
\
m
a
t
h
b
f
{
X
\
t
h
e
t
a
}
-
\
m
a
t
h
b
f
{
Y
}
)
^
T
(
\
m
a
t
h
b
f
{
X
\
t
h
e
t
a
}
-
\
m
a
t
h
b
f
{
Y
}
)
\
)
由
于
矩
阵
法
表
达
比
较
的
简
洁
,
后
面
我
们
将
统
一
采
用
矩
阵
方
式
表
达
模
型
函
数
和
损
失
函
数
。
2
.
线
性
回
归
的
算
法
对
于
线
性
回
归
的
损
失
函
数
\
(
J
(
\
m
a
t
h
b
f
\
t
h
e
t
a
)
=
\
f
r
a
c
{
1
}
{
2
}
(
\
m
a
t
h
b
f
{
X
\
t
h
e
t
a
}
-
\
m
a
t
h
b
f
{
Y
}
)
^
T
(
\
m
a
t
h
b
f
{
X
\
t
h
e
t
a
}
-
\
m
a
t
h
b
f
{
Y
}
)
\
)
,
我
们
常
用
的
有
两
种
方
法
来
求
损
失
函
数
最
小
化
时
候
的
\
(
\
m
a
t
h
b
f
{
\
t
h
e
t
a
}
\
)
参
数
‥
一
种
是
梯
度
下
降
法
,
一
种
是
最
小
二
乘
法
。
由
于
已
经
在
其
它
篇
中
单
独
介
绍
了
梯
度
下
降
法
和
最
小
二
乘
法
,
可
以
点
链
接
到
对
应
的
文
章
链
接
去
阅
读
。
如
果
采
用
梯
度
下
降
法
,
则
\
(
\
m
a
t
h
b
f
{
\
t
h
e
t
a
}
\
)
的
迭
代
公
式
是
这
样
的
‥
\
(
\
m
a
t
h
b
f
\
t
h
e
t
a
=
\
m
a
t
h
b
f
\
t
h
e
t
a
-
\
a
l
p
h
a
\
m
a
t
h
b
f
{
X
}
^
T
(
\
m
a
t
h
b
f
{
X
\
t
h
e
t
a
}
-
\
m
a
t
h
b
f
{
Y
}
)
\
)
通
过
若
干
次
迭
代
后
,
我
们
可
以
得
到
最
终
的
\
(
\
m
a
t
h
b
f
{
\
t
h
e
t
a
}
\
)
的
结
果
如
果
采
用
最
小
二
乘
法
,
则
\
(
\
m
a
t
h
b
f
{
\
t
h
e
t
a
}
\
)
的
结
果
公
式
如
下
‥
\
(
\
m
a
t
h
b
f
{
\
t
h
e
t
a
}
=
(
\
m
a
t
h
b
f
{
X
^
{
T
}
X
}
)
^
{
-
1
}
\
m
a
t
h
b
f
{
X
^
{
T
}
Y
}
\
)
当
然
线
性
回
归
,
还
有
其
他
的
常
用
算
法
,
比
如
牛
顿
法
和
拟
牛
顿
法
,
这
里
不
详
细
描
述
。
3
.
线
性
回
归
的
推
广
‥
多
项
式
回
归
回
到
我
们
开
始
的
线
性
模
型
,
\
(
h
_
\
t
h
e
t
a
(
x
_
1
,
x
_
2
,
.
.
.
x
_
n
)
=
\
t
h
e
t
a
_
0
+
\
t
h
e
t
a
_
{
1
}
x
_
1
+
.
.
.
+
\
t
h
e
t
a
_
{
n
}
x
_
{
n
}
\
)
,
如
果
这
里
不
仅
仅
是
x
的
一
次
方
,
比
如
增
加
二
次
方
,
那
么
模
型
就
变
成
了
多
项
式
回
归
。
这
里
写
一
个
只
有
两
个
特
征
的
二
次
方
多
项
式
回
归
的
模
型
‥
\
(
h
_
\
t
h
e
t
a
(
x
_
1
,
x
_
2
)
=
\
t
h
e
t
a
_
0
+
\
t
h
e
t
a
_
{
1
}
x
_
1
+
\
t
h
e
t
a
_
{
2
}
x
_
{
2
}
+
\
t
h
e
t
a
_
{
3
}
x
_
1
^
{
2
}
+
\
t
h
e
t
a
_
{
4
}
x
_
2
^
{
2
}
+
\
t
h
e
t
a
_
{
5
}
x
_
{
1
}
x
_
2
\
)
我
们
令
\
(
x
_
0
=
1
,
x
_
1
=
x
_
1
,
x
_
2
=
x
_
2
,
x
_
3
=
x
_
1
^
{
2
}
,
x
_
4
=
x
_
2
^
{
2
}
,
x
_
5
=
x
_
{
1
}
x
_
2
\
)
,
这
样
我
们
就
得
到
了
下
式
‥
\
(
h
_
\
t
h
e
t
a
(
x
_
1
,
x
_
2
)
=
\
t
h
e
t
a
_
0
+
\
t
h
e
t
a
_
{
1
}
x
_
1
+
\
t
h
e
t
a
_
{
2
}
x
_
{
2
}
+
\
t
h
e
t
a
_
{
3
}
x
_
3
+
\
t
h
e
t
a
_
{
4
}
x
_
4
+
\
t
h
e
t
a
_
{
5
}
x
_
5
\
)
可
以
发
现
,
我
们
又
重
新
回
到
了
线
性
回
归
,
这
是
一
个
五
元
线
性
回
归
,
可
以
用
线
性
回
归
的
方
法
来
完
成
算
法
。
对
于
每
个
二
元
样
本
特
征
\
(
(
x
_
1
,
x
_
2
)
\
)
,
我
们
得
到
一
个
五
元
样
本
特
征
\
(
(
1
,
x
_
1
,
x
_
2
,
x
_
{
1
}
^
2
,
x
_
{
2
}
^
2
,
x
_
{
1
}
x
_
2
)
\
)
,
通
过
这
个
改
进
的
五
元
样
本
特
征
,
我
们
重
新
把
不
是
线
性
回
归
的
函
数
变
回
线
性
回
归
。
4
.
线
性
回
归
的
推
广
‥
广
义
线
性
回
归
在
上
一
节
的
线
性
回
归
的
推
广
中
,
我
们
对
样
本
特
征
端
做
了
推
广
,
这
里
我
们
对
于
特
征
y
做
推
广
。
比
如
我
们
的
输
出
\
(
\
m
a
t
h
b
f
{
Y
}
\
)
不
满
足
和
\
(
\
m
a
t
h
b
f
{
X
}
\
)
的
线
性
关
系
,
但
是
\
(
l
n
\
m
a
t
h
b
f
{
Y
}
\
)
和
\
(
\
m
a
t
h
b
f
{
X
}
\
)
满
足
线
性
关
系
,
模
型
函
数
如
下
‥
\
(
l
n
\
m
a
t
h
b
f
{
Y
}
=
\
m
a
t
h
b
f
{
X
\
t
h
e
t
a
}
\
)
这
样
对
与
每
个
样
本
的
输
入
y
,
我
们
用
l
n
y
去
对
应
,
从
而
仍
然
可
以
用
线
性
回
归
的
算
法
去
处
理
这
个
问
题
。
我
们
把
I
n
y
一
般
化
,
假
设
这
个
函
数
是
单
调
可
微
函
数
\
(
\
m
a
t
h
b
f
{
g
}
(
.
)
\
)
,
则
一
般
化
的
广
义
线
性
回
归
形
式
是
‥
\
(
\
m
a
t
h
b
f
{
g
}
(
\
m
a
t
h
b
f
{
Y
}
)
=
\
m
a
t
h
b
f
{
X
\
t
h
e
t
a
}
\
)
或
者
\
(
\
m
a
t
h
b
f
{
Y
}
=
\
m
a
t
h
b
f
{
g
^
{
-
1
}
}
(
\
m
a
t
h
b
f
{
X
\
t
h
e
t
a
}
)
\
)
这
个
函
数
\
(
\
m
a
t
h
b
f
{
g
}
(
.
)
\
)
我
们
通
常
称
为
联
系
函
数
。
5
.
线
性
回
归
的
正
则
化
为
了
防
止
模
型
的
过
拟
合
,
我
们
在
建
立
线
性
模
型
的
时
候
经
常
需
要
加
入
正
则
化
项
。
一
般
有
L
1
正
则
化
和
L
2
正
则
化
。
线
性
回
归
的
L
1
正
则
化
通
常
称
为
L
a
s
s
o
回
归
,
它
和
一
般
线
性
回
归
的
区
别
是
在
损
失
函
数
上
增
加
了
一
个
L
1
正
则
化
的
项
,
L
1
正
则
化
的
项
有
一
个
常
数
系
数
\
(
\
a
l
p
h
a
\
)
来
调
节
损
失
函
数
的
均
方
差
项
和
正
则
化
项
的
权
重
,
具
体
L
a
s
s
o
回
归
的
损
失
函
数
表
达
式
如
下
‥
\
(
J
(
\
m
a
t
h
b
f
\
t
h
e
t
a
)
=
\
f
r
a
c
{
1
}
{
2
}
(
\
m
a
t
h
b
f
{
X
\
t
h
e
t
a
}
-
\
m
a
t
h
b
f
{
Y
}
)
^
T
(
\
m
a
t
h
b
f
{
X
\
t
h
e
t
a
}
-
\
m
a
t
h
b
f
{
Y
}
)
+
\
a
l
p
h
a
|
|
\
t
h
e
t
a
|
|
_
1
\
)
其
中
n
为
样
本
个
数
,
\
(
\
a
l
p
h
a
\
)
为
常
数
系
数
,
需
要
进
行
调
优
。
\
(
|
|
\
t
h
e
t
a
|
|
_
1
\
)
为
L
1
范
数
。
L
a
s
s
o
回
归
可
以
使
得
一
些
特
征
的
系
数
变
小
,
甚
至
还
是
一
些
绝
对
值
较
小
的
系
数
直
接
变
为
0
。
增
强
模
型
的
泛
化
能
力
。
L
a
s
s
o
回
归
的
求
解
办
法
一
般
有
坐
标
轴
下
降
法
︵
c
o
o
r
d
i
n
a
t
e
d
e
s
c
e
n
t
︶
和
最
小
角
回
归
法
︵
L
e
a
s
t
A
n
g
l
e
R
e
g
r
e
s
s
i
o
n
︶
,
由
于
它
们
比
较
复
杂
,
在
我
的
这
篇
文
章
单
独
讲
述
‥
线
程
回
归
的
正
则
化
-
L
a
s
s
o
回
归
小
结
线
性
回
归
的
L
2
正
则
化
通
常
称
为
R
i
d
g
e
回
归
,
它
和
一
般
线
性
回
归
的
区
别
是
在
损
失
函
数
上
增
加
了
一
个
L
2
正
则
化
的
项
,
和
L
a
s
s
o
回
归
的
区
别
是
R
i
d
g
e
回
归
的
正
则
化
项
是
L
2
范
数
,
而
L
a
s
s
o
回
归
的
正
则
化
项
是
L
1
范
数
。
具
体
R
i
d
g
e
回
归
的
损
失
函
数
表
达
式
如
下
‥
\
(
J
(
\
m
a
t
h
b
f
\
t
h
e
t
a
)
=
\
f
r
a
c
{
1
}
{
2
}
(
\
m
a
t
h
b
f
{
X
\
t
h
e
t
a
}
-
\
m
a
t
h
b
f
{
Y
}
)
^
T
(
\
m
a
t
h
b
f
{
X
\
t
h
e
t
a
}
-
\
m
a
t
h
b
f
{
Y
}
)
+
\
f
r
a
c
{
1
}
{
2
}
\
a
l
p
h
a
|
|
\
t
h
e
t
a
|
|
_
2
^
2
\
)
其
中
\
(
\
a
l
p
h
a
\
)
为
常
数
系
数
,
需
要
进
行
调
优
。
\
(
|
|
\
t
h
e
t
a
|
|
_
2
\
)
为
L
2
范
数
。
R
i
d
g
e
回
归
在
不
抛
弃
任
何
一
个
特
征
的
情
况
下
,
缩
小
了
回
归
系
数
,
使
得
模
型
相
对
而
言
比
较
的
稳
定
,
但
和
L
a
s
s
o
回
归
比
,
这
会
使
得
模
型
的
特
征
留
的
特
别
多
,
模
型
解
释
性
差
。
R
i
d
g
e
回
归
的
求
解
比
较
简
单
,
一
般
用
最
小
二
乘
法
。
这
里
给
出
用
最
小
二
乘
法
的
矩
阵
推
导
形
式
,
和
普
通
线
性
回
归
类
似
。
令
\
(
J
(
\
m
a
t
h
b
f
\
t
h
e
t
a
)
\
)
的
导
数
为
0
,
得
到
下
式
‥
\
(
\
m
a
t
h
b
f
{
X
^
T
(
X
\
t
h
e
t
a
-
Y
)
+
\
a
l
p
h
a
\
t
h
e
t
a
}
=
0
\
)
整
理
即
可
得
到
最
后
的
\
(
\
t
h
e
t
a
\
)
的
结
果
‥
\
(
\
m
a
t
h
b
f
{
\
t
h
e
t
a
=
(
X
^
T
X
+
\
a
l
p
h
a
E
)
^
{
-
1
}
X
^
T
Y
}
\
)
其
中
E
为
单
位
矩
阵
。
除
了
上
面
这
两
种
常
见
的
线
性
回
归
正
则
化
,
还
有
一
些
其
他
的
线
性
回
归
正
则
化
算
法
,
区
别
主
要
就
在
于
正
则
化
项
的
不
同
,
和
损
失
函
数
的
优
化
方
式
不
同
,
这
里
就
不
累
述
了
。
︵
欢
迎
转
载
,
转
载
请
注
明
出
处
。
欢
迎
沟
通
交
流
‥
l
i
u
j
i
a
n
p
i
n
g
-
o
k
@
1
6
3
.
c
o
m
︶
posted @
2016-10-28 11:12
刘建平Pinard
阅读(
52759
) 评论(
110
)
编辑
收藏
举报
刷新评论
刷新页面
返回顶部