爬虫爬下来的网址有个括号

新人咸鱼 2020-11-24 03:54:03

from bs4 import BeautifulSoup
import re
import urllib.request, urllib.error
# import sqlite3


def main():
baseurl = "http://www.prnasia.com/m/mediafeed/rss?id=2303&t=240"
datalist = getData(baseurl)
savepath = ".\\wenjian"
saveData(savepath)


findLink = re.compile('<a href="(.*?)" target="_blank">')


def getData(baseurl):
datalist = []
# html= askUrl("http://www.prnasia.com/m/mediafeed/rss?id=2303&t=240")
# for i in range(0,1):
url = baseurl
html = askUrl(url)
soup = BeautifulSoup(html, "html.parser")
for presscolumn in soup.find_all('div', class_="presscolumn"):
# data = []
item = str(presscolumn)
link = re.findall(findLink, item)
print(link)
# print()



return datalist


def askUrl(url):
head = {
"User-Agent": "Mozilla/5.0(Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.198 Safari/537.36"
}
request = urllib.request.Request(url, headers=head)
html = ""
try:
response = urllib.request.urlopen(request)
html = response.read().decode("utf-8")
# print(html)
except urllib.error.URLError as e:
if hasattr(e, "code"):
print(e.code)
if hasattr(e, "reason"):
print(e.reason)
return html


def saveData(savepath):
print("save....")


if __name__ == "__main__":
main()
...全文
577 3 打赏 收藏 转发到动态 举报
AI 作业
写回复
用AI写文章
3 条回复
切换为时间正序
请发表友善的回复…
发表回复
新人咸鱼 2020-11-24
  • 打赏
  • 举报
回复
引用 2 楼 陈年椰子的回复:
re.findall 返回时列表, 不喜欢 [] 那就 改为 print(link[0]) 比较保险的方法就是
if len(link)>0:
    print(link[0])
谢谢嗷,我试试,主要是这个爬下来的网址我还要外面再套一层爬这些网址里的内容,有个括号我怕用不了
陈年椰子 2020-11-24
  • 打赏
  • 举报
回复
re.findall 返回时列表, 不喜欢 [] 那就 改为 print(link[0]) 比较保险的方法就是
if len(link)>0:
    print(link[0])
新人咸鱼 2020-11-24
  • 打赏
  • 举报
回复
怎么能让这个括号去掉啊

37,743

社区成员

发帖
与我相关
我的任务
社区描述
JavaScript,VBScript,AngleScript,ActionScript,Shell,Perl,Ruby,Lua,Tcl,Scala,MaxScript 等脚本语言交流。
社区管理员
  • 脚本语言(Perl/Python)社区
  • WuKongSecurity@BOB
加入社区
  • 近7日
  • 近30日
  • 至今

试试用AI创作助手写篇文章吧