鱼C论坛

 找回密码
 立即注册
查看: 1221|回复: 4

[已解决]reques.get豆瓣top250失败

[复制链接]
发表于 2020-8-22 10:50:28 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
>>> import requests
>>> res = requests.get('https://movie.douban.com/top250')
>>> print(res.text)

>>> res
<Response [418]>
我get了一下www.baidu.com,没问题啊
有没有人知道这是咋回事
最佳答案
2020-8-22 13:26:28
import requests
headers={'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.25 Safari/537.36 Core/1.70.3775.400 QQBrowser/10.6.4208.400'}
res = requests.get('https://movie.douban.com/top250',headers=headers)
print(res.text)

最简单的加个headers试试
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2020-8-22 13:26:28 | 显示全部楼层    本楼为最佳答案   
import requests
headers={'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.25 Safari/537.36 Core/1.70.3775.400 QQBrowser/10.6.4208.400'}
res = requests.get('https://movie.douban.com/top250',headers=headers)
print(res.text)

最简单的加个headers试试
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-8-22 13:56:08 | 显示全部楼层
import requests
from bs4 import BeautifulSoup
import bs4
import re

from networkx.release import url



def open_url(url):
    headers = {'User-Agent': r'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/83.0.4103.61 Safari/537.36'}
    res =requests.get("https://movie.douban.com/top250",headers= headers)
    res.encoding='utf-8'
    #res =requests.get(url,headers=headers,proxies = proxies )
    res =requests.get(url,headers=headers)
    return res
def find_movice(res):
    soup =bs4.BeautifulSoup(res.text,'html.parser')
    movice=[]
    targets = soup.find_all("div", class_= "hd")
    for each in targets:
        movice.append(each.a.span.text)
    ranks =[]
    targets =soup.find_all("span",class_="rating_num")
    for each in targets:   
        ranks.append('评分:%s'%each.text)
    messages =[]
    targets =soup.find_all("div",class_="bd")
    for each in targets:
        try:
            messages.append(each.p.text.split('\n')[1].strip()+each.p.text.split('\n')[2].strip())
        except:
            continue
    result=[]
    length =len(movice)
    for i in range(length):
        result.append(movice[i]+ranks[i]+messages[i]+'\n')
    return result
def find_depth(res):
    soup =bs4.BeautifulSoup(res.text,'html.parser')
    depth =soup.find('span',class_='next').previous_sibling.previous_sibling.text
    return int(depth)
def main():
    host ="https://movie.douban.com/top250"
    res =open_url(host)
    depth =find_depth(res)
    result =[]
    for i in range(depth):
        url = host+'/?start='+str(25*i)
        res =open_url(url)
        result.extend(find_movice(res))
    with open("豆瓣250.txt","w",encoding="utf-8") as  f:
        for each in result:
            f.write(each)


if __name__ == '__main__':
    main()
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-8-22 15:07:37 | 显示全部楼层
像2楼一样改一下ua就行。
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2020-8-22 15:20:39 | 显示全部楼层
疾风怪盗 发表于 2020-8-22 13:26
最简单的加个headers试试

多谢了
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2025-1-19 07:51

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表