Python

人生苦短,我用Python。

超牛的python seo工具advertools

超牛的python seo工具advertools advertools是一个生产力和分析工具,可扩展您的在线营销。 数字营销者是数据科学家。 您的工作是基于数据来管理,操纵,可视化,交流,理解和做出决策。 您可能正在做一些基本的工作,例如在电子表格上复制和粘贴文本,您可能正在运行具有复杂算法的大型自动化平台,或者介于两者之间。 无论如何,您的工作都是关于数据的……

采集Stack Overflow及解析XML

采集Stack Overflow及解析XML 采集Stack Overflow其实非常简单,网上也有现成的代码,关键是要实现大批量的数据抓取比较麻烦。 一、返回代码429 今天在抓取时就碰到了这个代码,总共才抓了300多条记录,就碰到这个代码。 2、429 Too Many Requests (太多请求) 当你需要限制客户端请求某个服务的数量,也就是限制请求速度时,该状态码就会非常有用。在……

python实现全站数据抓取

python实现全站数据抓取 一、执行结果 二、代码 import re import bs4 import urllib.request url_home = 'http://www.5bug.wang/' #要采集的网站 url_pattern = url_home + 'post/\d+.html' #正则表达式匹配文章页面,此处需完善为更好的写法 url_set = set() url_cache = set() url_count = 0 url_maxCount = 10 #最大采集数量……

Python 中 Eval 函数的用法

Python 中 Eval 函数的用法 eval(str)函数很强大,官方解释为:将字符串str当成有效的表达式来求值并返回计算结果。所以,结合math当成一个计算器很好用。 eval()函数常见作用有: 1、计算字符串中有效的表达式,并返回结果 Python 3.6.8 |Anaconda, Inc.| (default, Dec 29 2018, 19:04:46) Type 'copyright', 'credits' or 'license' for more ……

CSDN采集

CSDN采集 一、cookie (一)找到cookie 在firefox浏览器中,按“F12”,再点击“存储”,再点击左边的cookie,就可以看到当前网站的cookie。 不过cookie中的信息有许多,其实当中许多信息是可要可不要的,尝试将一部分信息删除,如果网站还能正常访问,那么就可以确认这部分信息是可要可不要的。经过测试,发现以下两项信息是必须的: ……

Python常用代码(三)

Python常用代码(三) 一、csv @@@@ 写入并生成csv文件 @@@@ # coding: utf-8 import csv csvfile = file('csv_test.csv', 'wb') writer = csv.writer(csvfile) writer.writerow(['姓名', '年龄', '电话']) data = [ ('小河', '25', '1234567'), ('小芳', '18', '789456')] writer.writerows(data) csvfile.close() ……

采集shopify

采集shopify 一、代码 import requests,bs4,csv,os,re,time '''采集商品url''' def shopifylist(url): while True: try: res=requests.get(url,timeout=30) res.encoding = res.apparent_encoding print('请求',url,'状态',res.status_code) res.raise_for_st……

采集会计网备忘

采集会计网备忘 一、xmlrpc.client.Fault: Fault 500: '项目需要一个名字。' 今天采集数据,写入本地wordpress数据库的时候,报下面的错误: File "C:\ProgramData\Anaconda3\lib\xmlrpc\client.py", line 656, in close raise Fault(**self._stack[0]) xmlrpc.client.Fault: Fault 500: '项目需要一个名字。' 在网上搜索了一下……

正则与beautifulsoup

正则与beautifulsoup 一、正则 (一)几个使用正则的实例 1.查找 比如:要从“共200页,到第', '页”里面取出200这个数字, pagenum=re.findall(r'\d',str) #取到的是一个列表['5', '0', '0'] x = soup.find_all('p') #找到所有p标签 2.替换 sub三个必选参数:pattern, repl, string, repl,就是replacement,被替换成的字符串……

Page: 3 of 17 1 2 3 4 5 6 7 8 9 10 11 ... 17