为什么用 Python 获取的网址带有括号和单引号?

为什么用 python 获取的网址带有括号和单引号?

我用 python 获取的网址为何带有括号和单引号?

在编写爬虫程序时,你可能会遇到获取的网址中包含括号和单引号的情况,这可能会给后续处理带来不便。下面我们将探讨导致这种情况的原因并提供解决方案:

原因:

你使用的解析工具(如 beautifulsoup)在解析 html 时,会将原始的 html 字符串转换为 python 对象。html 中的某些特殊字符,如 、& 和 ', 在 python 中具有特殊的含义,因此在解析时需要进行转义。

默认情况下,beautifulsoup 使用 html5 的解析器,它会将这些特殊字符转义成对应的 html 实体,如 表示 >、& 表示 & 和 ' 表示 '. 这些转义对于避免在 python 中产生语法错误很重要。

解决方案:

要获取不带括号和单引号的网址,你可以执行以下操作:

  • 使用正则表达式去除 html 实体:使用正则表达式 re.sub('&.*?;', '', link) 将 html 实体替换为空字符串。
  • 使用 lxml 解析器:lxml 是另一个流行的 html 解析库,其默认解析器不会将特殊字符转义成 html 实体。只需将 beautifulsoup(html, "html5lib") 替换为 etree.html(html) 即可。
  • 手动解码转义字符:你可以使用 html.unescape() 函数手动解码转义字符,即将 '' 解码为 ''。

修改后的代码示例如下:

import requests
from lxml import etree

url = 'http://www.prnasia.com/m/mediafeed/rss?id=2303&t=240'
headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.66 Safari/537.36'
}
res = requests.get(url, headers=headers)
res_dome = etree.HTML(res.text)
for link in res_dome.xpath('//h3/a/@href'):
    print(link)  # 无括号和单引号的网址

以上就是为什么用 Python 获取的网址带有括号和单引号?的详细内容,更多请关注其它相关文章!