BeautifulSoup 如何分获取某个div里面的子元素
例如:import urllib.request
from bs4 import BeautifulSoup
url = 'http://www.baidu.com'
#头部信息
def copyhead():
headers = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36'}
req = urllib.request.Request(url,headers=headers)
page = urllib.request.urlopen(req,timeout=20)
contents = page.read()
soup = BeautifulSoup(contents,'html.parser')
return soup
#抓取
def copyimg(url):
soup = copyhead()
baidu = soup.find_all('div',id='lg')
print(baidu)
#如何再继续获取 <div id='lg'></div> 里面的图片
copyimg(url)
如何再继续获取 <div id='lg'></div> 里面的图片 自己解决了
baidu = soup.find('div',id='lg').find_all('img')
第一个不能用 find_all 只能用find,后面的才能用 find_all 你好,你这里存在一个小小的误区,并非是不能用find_all()方法,find_all()方法是用来查找所有符合该条件的元素,并将其以列表的形式返回。所以我们需要将里面装的元素提取出来,其类型为Tag类型,然后再使用find()获取即可。修正后的代码如下:import urllib.request
from bs4 import BeautifulSoup
url = 'http://www.baidu.com'
#头部信息
def copyhead():
headers = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36'}
req = urllib.request.Request(url,headers=headers)
page = urllib.request.urlopen(req,timeout=20)
contents = page.read()
soup = BeautifulSoup(contents,'html.parser')
return soup
#抓取
def copyimg(url):
soup = copyhead()
print(type(soup))
baidu = soup.find_all('div',id='lg').find(name='img').attrs['src']
print(baidu)
copyimg(url)
页:
[1]