根据微博用户名搜索爬取用户userId并返回importurllib.requestfromurllibimportparsefrombs4importBeautifulSoup#微博根据用户名搜索userId#userName用户名#pageNum查询页码,每页20条数据。第一页的默认值为1,第二页的默认值为2,依此类推。defgetUserId(userName,pageNum):#用户名需要URL编码html_doc="https://s.weibo.com/user/&nickname="+parse.quote(userName)+"&page="+pageNumreq=urllib.request.Request(html_doc)webpage=urllib.request.urlopen(req)html=webpage.read()soup=BeautifulSoup(html,'html.parser')#文档对象ifsoup:print("foundhtml")#第一步:抓取a标签#暴力甜心小Crocodile毛毛forainsoup.find_all('a',class_='name'):ifa:#第二步:抓取a标签中的用户NamerpuserName=a.get_text()print("Usernamefound="+rpuserName)#第三步:判断用户是否存在,存在则获取userIdifa.get_text(strip=True)==userName:print("匹配到这个用户”)print("用户个人主页链接="+a['href'])#第四步:提取userId并返回userUrl=a['href'].split("/")(Userurl)>0:UseRid=Userurl[Len(Userurl)-1]return"Userid="+UseridElse:Return"Userid'sFailure"BreakElse:Return"没有找到A标签"else:return".data"if__name__=="__main__":userName=“用户名”打印(getUserId(用户名,“1”))