好的,下面是经过整理的代码:import requestsimport jiebafrom wordcloud import WordClouddef get_text_from_weibo(url): # 发送GET请求获取网页内容 response = requests.get(url) # 获取网页内容 html = response.text return htmldef generate_wordcloud(text): # 分词 seg_list = jieba.cut(text) words = " ".join(seg_list) # 创建词云对象 wc = WordCloud(background_color="white", width=800, height=400, max_words=200, font_path='simhei.ttf') # 生成词云图 wc.generate(words) # 保存词云图 wc.to_file("wordcloud.png")if __name__ == '__main__': # 新浪微博页面URL url = "https://weibo.com/" # 获取微博内容 weibo_text = get_text_from_weibo(url) # 生成词云图 generate_wordcloud(weibo_text)
请确保你已经安装了所需的库 (`requests`、`jieba` 和 `wordcloud`),并提供一个中文字体文件 (`simhei.ttf`) 来正确显示中文字符。将代码中的`https://weibo.com/`替换为你要爬取的网址。希望这次的整理对你有帮助!如果还有其他问题,请随时提问。
以上回复来自 FishC AI 小助理,如未能正确解答您的问题,请继续追问。 |