24,02,2021
|
dengwen168 |
昨天在公司图书馆借了一本《精进》,今年翻看了第一章,感触挺多的。
一、关于背单词。
采铜说属于半衰期足够长的一件事情,根据采铜法则“尽量少做‘短半衰期’的事情”,所以要坚持背单词。
其实我的观点是:背单词是一件付出就有回报的事情,像这样的事情坚持“坚持”2个字,比较容易成功,其实是一件“容易”的事情。但是有些事情,比如创业、做项目、炒股,并不是付出越多就有回报。对于平常人来说,尽量坚持 ...
21,02,2021
|
dengwen168 |
eval(str)函数很强大,官方解释为:将字符串str当成有效的表达式来求值并返回计算结果。所以,结合math当成一个计算器很好用。
eval()函数常见作用有:
1、计算字符串中有效的表达式,并返回结果
Python 3.6.8 |Anaconda, Inc.| (default, Dec 29 2018, 19:04:46)
Type 'copyright', 'credits' or 'license' for more information
IPython 7.4.0 -- An enhanced Interactive Python. Type '?' for hel ...
21,02,2021
|
dengwen168 |
一、百度
https://www.baidu.com/s?wd=%E6%87%92%E4%BA%BA%E7%A8%8B%E5%BA%8F&rsv_bp=0&ch=&tn=json&bar=&rsv_spt=3&ie=utf-8&rsv_sug3=3&rsv_sug=0&rsv_sug1=2&rsv_sug4=161&inputT=1793
简化版本:
https://www.baidu.com/s?wd=%E6%96%B0%E4%BF%A1%E6%81%AF&pn=50&rn=50&tn=json
参数说明:
wd:关键词
pn : 查询偏移位置
rn: 每页显示多少条,默认为10条,最多50条
移动端:
http://m.baidu.com/sf/v ...
21,02,2021
|
dengwen168 |
一、cookie
(一)找到cookie
在firefox浏览器中,按“F12”,再点击“存储”,再点击左边的cookie,就可以看到当前网站的cookie。
不过cookie中的信息有许多,其实当中许多信息是可要可不要的,尝试将一部分信息删除,如果网站还能正常访问,那么就可以确认这部分信息是可要可不要的。经过测试,发现以下两项信息是必须的:
(二)cookie的有效期
当前时间为Feb-21-2021,cookie的过期时间为Aug-19-2021,那么 ...
19,02,2021
|
dengwen168 |
一、查看方法
按F12,点击“存储”
19,02,2021
|
dengwen168 |
一、Scrpy使用代理IP
二、使用cookie
13,02,2021
|
dengwen168 |
产生流量的来源关键词60%~70%都是有规律可循。所以我强烈的认为,挖掘关键词的本质是为了找到这种规律,然后快速的制造大量的、较优质的页面。
对于没规律的词咋办?搜索量高就留着人工编辑做专题,如:“住房公积金如何提取”;至于没搜索量的,直接删掉。
有规律的关键词基本就3种:“{词前缀}..+词根+..{词后缀}” 、“{词前缀}..+词根” 、“词根+..{词后缀}” ,如何快速准确的从挖掘的关键词中找到这种规律 ...
13,02,2021
|
dengwen168 |
采集内容上线逻辑
有基友问采集的内容怎么分类,抓取的词怎么分类。其实很简单,做个小网站就都明白了,本渣渣在此科普下
采集内容清洗后是要入库的,入库就得有逻辑,所以在采集一开始就得想到这点,并设计采集到上线的流程
每个站点情况都不一样,但最最基础的模式类似下面这种:
确定要做的主题,从这个主题里选几个词根,一个词根或几个词根就代表一个内容分类
用词跟去扩展,挖出要做的流 ...
13,02,2021
|
dengwen168 |
一、csv
@@@@ 写入并生成csv文件 @@@@
# coding: utf-8
import csv
csvfile = file('csv_test.csv', 'wb')
writer = csv.writer(csvfile)
writer.writerow(['姓名', '年龄', '电话'])
data = [
('小河', '25', '1234567'),
('小芳', '18', '789456')]
writer.writerows(data)
csvfile.close()
@@@@ 读取csv文件 @@@@
# coding: utf-8
import csv
csvfile = file('csv ...
13,02,2021
|
dengwen168 |
一、原理
1.先把一篇文章,按逗号分隔成一个一个句子。(有点缺陷,比如如果句子中是冒号,分号,它认为是一句话。)
2.然后计算每个短语的字数,取字数最多的两句话。
3.拿上面两句话去百度搜索,并分别计算每句话在百度第一页搜索结果中的次数,然后加总。出现次数最少的文章,我们认为它的原创性要高一些。
因为若一个文章被其他网站大量转载,那么随便提取该文章中一个短语,都能在百度搜索出完全重复 ...
Page: 77 of 229 1 ...
75 76 77 78 79 ...
229