鱼C论坛

 找回密码
 立即注册
查看: 2564|回复: 6

[已解决]urllib执行后IDLE什么都不出现是为什么呢?

[复制链接]
发表于 2016-12-29 21:03:51 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
  1. #python 3.5.2


  2. import urllib.request, os

  3. def urlopen(url):
  4.     req = urllib.request.Request(url)
  5.     req.add_header('User-Agent','Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36')
  6.     resp=urllib.request.urlopen(url)
  7.     html=resp.read()
  8.     return html
  9. def get_page(url):
  10.     html=urlopen(url).decode('utf-8')

  11. urlopen()
复制代码


永远是如图所示要怎么整?
urllib.request模块要怎么替换一个新的才行?
只要import urllib.request一句就足以这样了
最佳答案
2017-1-3 18:31:14
你是做爬取图片爬虫吗?你的函数写错了


匹配模块有BeautifulSoup和re,而不是你所写的 .find() 。

python中find的函数的功能是查找指定的字符串并返回该字符串的起始位置。

函数原型:find(str, pos_start, pos_end)

参数如下:

str:被查找“字符串”

pos_start:查找的首字母位置(从0开始计数。默认:0)

pos_end: 查找的末尾位置(默认-1)

返回值:如果查到:返回查找的第一个出现的位置。否则,返回-1。

爬虫之查找内容:
方法一:from bs4 import BeautifulSoup
soup = BeautifulSoup(html,'html.parser')
img_url = soup.find('img').get('src')   #匹配图片url
imgs = soup.find_all('img') #匹配所有的图片

方法二:import re
reg = r'src="(.+?\.jpg)" '
img = re.compile(reg)
imgs = re.findall(img, html)        #匹配所有的图片
{55803BD0-CCB1-4F1C-B089-B9C82585EB0D}.bmp
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

发表于 2016-12-30 10:12:34 | 显示全部楼层
  1. print(urlopen())
复制代码
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2016-12-30 17:17:57 | 显示全部楼层
你没有传参
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2016-12-31 16:53:10 | 显示全部楼层
本帖最后由 326533970 于 2016-12-31 16:56 编辑


不是的 这里连‘>>>’都没有 还有 我只import urllib.request 之后也一样


  1. #python3.5.2

  2. import urllib.request
  3. import os


  4. def url_open(url):
  5.     req=urllib.request.Request(url)
  6.     req.add_header('User-Agent','Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36')

  7.     resp=urllib.request.urlopen(url)
  8.     html=resp.read()
  9.     return html


  10. def get_page(url):
  11.    
  12.     html=url_open(url).decode('utf-8')

  13.     a= html.find('current-comment-page') + 23#.find是从搜索的第一个字符开始计算的包括'<之类的
  14.     b= html.find(']',a)
  15.     h=html[a:b]
  16.     return html[a:b]
  17.    


  18. def find_imgs(url):

  19.     html=url_open(url).decode('utf-8')
  20.     img_addrs=[]
  21.     a=html.find('img src=')
  22.     while a != -1:
  23.         b= html.find('.jpg',a,a+255)
  24.         if b!= -1:
  25.             img_addrs.append(html[a+9:b+4])
  26.         else:
  27.             b=a+9
  28.         a= html.find('img src=',b)
  29.     return img_addrs

  30. def save_imgs(folder, img_addrs):
  31.     for each in img_addrs:
  32.         filename=each.split('/')[-1]
  33.         with open(filename,'wb')as f:
  34.             img = url_open(each)
  35.             f.write(img)
  36. def download_mm(folder='ooxx',pages=50):
  37.     url='http://jandan.net/ooxx'
  38.     a=os.getcwd()
  39.     '''if not os.path.exits(a):
  40.         path=a+os.sep+folder
  41.         os.mkdir(path)
  42.     else:
  43.         path=a+os.sep+folder
  44.     os.chdir(path)'''
  45.     os.mkdir(folder)
  46.     os.chdir(folder)
  47.     page_num = int(get_page(url))
  48.     for i in range(pages):
  49.         page_num-=i
  50.         page_url=url+'page-'+str(page_num)+'#comments'
  51.         img_addrs=find_imgs(page_url)
  52.         save_imgs(folder,img_addrs)
  53.         
  54. if __name__='__main__':
  55.     download_mm()


复制代码

按F5之后
就是如上图的样子
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2016-12-31 16:57:35 | 显示全部楼层



不是的 这里连‘>>>’都没有 还有 我只import urllib.request 之后也一样


  1. #python3.5.2

  2. import urllib.request
  3. import os


  4. def url_open(url):
  5.     req=urllib.request.Request(url)
  6.     req.add_header('User-Agent','Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36')

  7.     resp=urllib.request.urlopen(url)
  8.     html=resp.read()
  9.     return html


  10. def get_page(url):
  11.    
  12.     html=url_open(url).decode('utf-8')

  13.     a= html.find('current-comment-page') + 23#.find是从搜索的第一个字符开始计算的包括'<之类的
  14.     b= html.find(']',a)
  15.     h=html[a:b]
  16.     return html[a:b]
  17.    


  18. def find_imgs(url):

  19.     html=url_open(url).decode('utf-8')
  20.     img_addrs=[]
  21.     a=html.find('img src=')
  22.     while a != -1:
  23.         b= html.find('.jpg',a,a+255)
  24.         if b!= -1:
  25.             img_addrs.append(html[a+9:b+4])
  26.         else:
  27.             b=a+9
  28.         a= html.find('img src=',b)
  29.     return img_addrs

  30. def save_imgs(folder, img_addrs):
  31.     for each in img_addrs:
  32.         filename=each.split('/')[-1]
  33.         with open(filename,'wb')as f:
  34.             img = url_open(each)
  35.             f.write(img)
  36. def download_mm(folder='ooxx',pages=50):
  37.     url='http://jandan.net/ooxx'
  38.     a=os.getcwd()
  39.     '''if not os.path.exits(a):
  40.         path=a+os.sep+folder
  41.         os.mkdir(path)
  42.     else:
  43.         path=a+os.sep+folder
  44.     os.chdir(path)'''
  45.     os.mkdir(folder)
  46.     os.chdir(folder)
  47.     page_num = int(get_page(url))
  48.     for i in range(pages):
  49.         page_num-=i
  50.         page_url=url+'page-'+str(page_num)+'#comments'
  51.         img_addrs=find_imgs(page_url)
  52.         save_imgs(folder,img_addrs)
  53.         
  54. if __name__='__main__':
  55.     download_mm()


复制代码

按F5之后
就是如上图的样子
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2017-1-1 22:55:34 | 显示全部楼层
print()打印出来
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2017-1-3 18:31:14 | 显示全部楼层    本楼为最佳答案   
你是做爬取图片爬虫吗?你的函数写错了


匹配模块有BeautifulSoup和re,而不是你所写的 .find() 。

python中find的函数的功能是查找指定的字符串并返回该字符串的起始位置。

函数原型:find(str, pos_start, pos_end)

参数如下:

str:被查找“字符串”

pos_start:查找的首字母位置(从0开始计数。默认:0)

pos_end: 查找的末尾位置(默认-1)

返回值:如果查到:返回查找的第一个出现的位置。否则,返回-1。

爬虫之查找内容:
方法一:from bs4 import BeautifulSoup
soup = BeautifulSoup(html,'html.parser')
img_url = soup.find('img').get('src')   #匹配图片url
imgs = soup.find_all('img') #匹配所有的图片

方法二:import re
reg = r'src="(.+?\.jpg)" '
img = re.compile(reg)
imgs = re.findall(img, html)        #匹配所有的图片
QQ图片20170103183116.png

评分

参与人数 1荣誉 +1 鱼币 +2 收起 理由
326533970 + 1 + 2 感谢楼主无私奉献!

查看全部评分

小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2026-2-24 18:04

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表