一般是通过脚本定时(crontab) 启动爬虫;若是做爬虫自动化系统业务人员可以通过手动提交url的方 式进行启动爬虫(类似于八爪鱼工具)
(3)建立好URL排序算法。 而深度爬取(深度优先算法)就是从起始页开始,一个链接一个链接跟踪下去,处理完这条线路之后再 转入下一个起始页,继续追踪链接,scrapy默认就是 使用的深度优先算法。
因为要算协方差。单纯的线性变换只是产生了倍数缩放,无法消除量纲对协方差的影响,而协方差是为了让投影后方差最大。
拿出小朋友班级的成绩表,每隔2分统计一下人数(因为小学- -年级大家成绩很接近), 画出钟形。然后说这就是正态分布,大多数的人都集中在中间,只有少数特别好和不够好
证明逻辑就是:我要证明命题为真->证明该命题的否命题为假->在否命题的假设下,观察到小概率事件发生了->否命题被推翻->原命题为真->搞定。