2000字范文,分享全网优秀范文,学习好帮手!
2000字范文 > Python与SEO python采集百度移动端搜索相关关键词源码

Python与SEO python采集百度移动端搜索相关关键词源码

时间:2021-03-10 00:19:34

相关推荐

Python与SEO python采集百度移动端搜索相关关键词源码

做流量到底是词重要,还是内容重要?本渣渣窃以为,应该是词重要,尤其是那些竞争度小的,长尾流量词,有了词库,你才有了内容的方向,才有了后续一系列的操作和计划,同时才有了流量预估和报告。

整体大盘来看,移动端的流量和搜索人数应该是大于PC端的数据,从百度相关搜索词就能够看出,百度移动端搜索的相关搜索词有两块位置,你是否发现,这个操作应该是方便用户点击,拉到中间或者拉到最后,都很方便用户点击,不会流失用户。

SORRY,图贴错了,这个词是百度屏蔽词,违禁词,没有搜索数据的!

LSP,本渣渣劝你保重身体!!

下面的才是本渣渣要贴的图!

python采集百度移动端搜索相关关键词,这里本渣渣简单的使用的正则re获取,仅供参考!

需要注意的某些违禁词是没有相关搜索数据的,需要做处理,这里就等着你处理了!!

使用需要准备一个关键词txt文档,keyss.txt,关键词一行一个!

运行效果

注意:移动端搜索采集,你需要更换移动端的ua协议头,这里本渣渣从网上获取了4800多条移动ua,仅供参考使用!

获取ua数据包

关注本渣渣微信公众号

回复mua

附参考源码

#0326移动端相关关键词搜索采集#微信:huguo00289#-*-coding:utf-8-*-importrequests,random,re,timeclassMbs():def__init__(self):self.ua=''self.ua_list=[]self.load_keywords=[]self.keyword_lists=[]self.m_search="/s?word="#获取协议头列表defget_uas(self):path=r"uadata.txt"withopen(path,'r')asf:datas=f.readlines()fordataindatas:data=data.replace('\n','')self.ua_list.append(data)print(f'>>已获取{len(self.ua_list)}条user-agent数据!')#导入关键词deflead_keywords(self):print('>>正在导入关键词列表..')try:withopen('keyss.txt','r',encoding='gbk')asf:self.load_keywords=f.readlines()except:withopen('keyss.txt','r',encoding='utf-8')asf:self.load_keywords=f.readlines()print('>>正在导入关键词列表成功!')print(f'共导入{len(self.load_keywords)}个关键词!')#获取百度移动搜索相关关键词defget_keywords(self,keyword):print(f'>>正在爬取采集关键词{keyword}相关关键词数据..')keyword_list=[]headers={'user-agent':self.ua}url=f"{self.m_search}{keyword}"response=requests.get(url=url,headers=headers,timeout=6)print(response.status_code)html=response.content.decode('utf-8')#获取中部词mid_div_data=re.findall(r'大家还在搜</div>(.+?)<divclass="c-resultresult"',html,re.S)[0]mid_a_data=re.findall(r'<ahref=".+?"target=".+?".+?><span .+?>(.+?)</span></a>',mid_div_data,re.S)print(mid_a_data)#获取底部词bot_div_data=re.findall(r'<divclass=".+?">大家还在搜</div>(.+?)<divid="page-controller',html,re.S)[0]bot_a_data=re.findall(r'<atarget=".+?"class=".+?"href=".+?"><span>(.+?)</span></a>',bot_div_data,re.S)print(bot_a_data)keyword_list.extend(mid_a_data)keyword_list.extend(bot_a_data)self.save(keyword_list)self.keyword_lists.extend(keyword_list)#保存关键词defsave(self,data):data=set(data)#去重print('>>正在保存相关关键词列表..')withopen('keywords.txt','a+',encoding='utf-8')asf:f.write('\n'.join(data))print('>>正在保存相关关键词列表成功!')defmain(self):self.lead_keywords()self.get_uas()self.ua=random.choice(self.ua_list)i=1forkeywordinself.load_keywords:print(f'>>正在爬取采集第{i}个关键词..')self.get_keywords(keyword)time.sleep(2)i=i+1if__name__=='__main__':spider=Mbs()spider.main()

·················END·················

你好,我是二大爷,

革命老区外出进城务工人员,

互联网非早期非专业站长,

喜好python,写作,阅读,英语

不入流程序,自媒体,seo . . .

公众号不挣钱,交个网友。

读者交流群已建立,找到我备注 “交流”,即可获得加入我们~

听说点 “在看” 的都变得更好看呐~

关注关注二大爷呗~给你分享python,写作,阅读的内容噢~

扫一扫下方二维码即可关注我噢~

关注我的都变秃了

说错了,都变强了!

不信你试试

扫码关注最新动态

公众号ID:eryeji

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。