用生成式方法摸清动态页面小红书热点追踪实践
目录
用生成式方法“摸清”动态页面:小红书热点追踪实践
爬虫代理
开篇思路
很多刚入门做数据分析的人,在处理热门平台(例如小红书)时都会遇到类似的困难:
- 页面并不是传统的静态 HTML,而是需要脚本渲染后才能看到核心信息;
- 标签结构更新很快,前几天能用的规则可能很快失效;
- 初学者往往不知道该如何稳妥地获取标题、点赞数、评论等关键指标。
这篇文章结合一个真实的业务场景——市场热点追踪,分享如何通过 浏览器自动化工具(Selenium/Playwright) 配合 生成式方法 来推断页面结构,并抓取出有价值的数据。我们还会顺便引入代理服务,保证访问过程更加稳定。
前期准备
如果你打算自己动手,可以先具备以下条件:
- 基础的 Python 编程知识;
- 对浏览器驱动或 Playwright 有大致了解;
- 能够配置代理账号,确保访问不会轻易被封。
实操过程
1. 环境安装
你可以选择 Selenium 或 Playwright。
pip install selenium
或:
pip install playwright
playwright install
2. 设置代理
以常见的爬虫代理服务为例,写法类似:
#设置爬虫代理(参考亿牛云示例www.16yun.cn)
proxy_host = "proxy.16yun.cn"
proxy_port = "3100"
proxy_user = "16YUN"
proxy_pass = "16IP"
proxy = f"http://{proxy_user}:{proxy_pass}@{proxy_host}:{proxy_port}"
这样请求时就会通过中转,提高稳定性。
3. 启动浏览器
Selenium 方式
from selenium import webdriver
from selenium.webdriver.chrome.options import Options
chrome_options = Options()
chrome_options.add_argument(f'--proxy-server={proxy}')
chrome_options.add_argument("--headless")
driver = webdriver.Chrome(options=chrome_options)
driver.get("https://www.xiaohongshu.com/explore")
Playwright 方式
from playwright.sync_api import sync_playwright
with sync_playwright() as p:
browser = p.chromium.launch(proxy={"server": proxy}, headless=True)
page = browser.new_page()
page.goto("https://www.xiaohongshu.com/explore")
4. 生成式推断页面结构
与其死记硬背固定 XPath,不如让程序基于上下文“猜测”可能的路径。示例函数:
def ai_like_guess(html_snippet, target="title"):
if target == "title":
return '//div[contains(@class,"note-title")]/text()'
elif target == "likes":
return '//span[contains(@class,"like")]/text()'
elif target == "comments":
return '//span[contains(@class,"comment")]/text()'
return None
5. 组合代码(Playwright 示例)
# -*- coding: utf-8 -*-
from playwright.sync_api import sync_playwright
from lxml import etree
#设置爬虫代理(参考亿牛云示例www.16yun.cn)
proxy_host = "proxy.16yun.cn"
proxy_port = "3100"
proxy_user = "16YUN"
proxy_pass = "16IP"
proxy = f"http://{proxy_user}:{proxy_pass}@{proxy_host}:{proxy_port}"
def ai_like_guess(html_snippet, target="title"):
if target == "title":
return '//div[contains(@class,"note-title")]/text()'
elif target == "likes":
return '//span[contains(@class,"like")]/text()'
elif target == "comments":
return '//span[contains(@class,"comment")]/text()'
return None
def scrape_hot_notes(url="https://www.xiaohongshu.com/explore"):
with sync_playwright() as p:
browser = p.chromium.launch(proxy={"server": proxy}, headless=True)
page = browser.new_page()
page.goto(url, timeout=30000)
html = page.content()
dom = etree.HTML(html)
titles = dom.xpath(ai_like_guess(html, "title"))
likes = dom.xpath(ai_like_guess(html, "likes"))
comments = dom.xpath(ai_like_guess(html, "comments"))
results = []
for i in range(min(len(titles), len(likes), len(comments))):
results.append({
"标题": titles[i].strip(),
"点赞数": likes[i].strip(),
"评论数": comments[i].strip()
})
return results
if __name__ == "__main__":
data = scrape_hot_notes()
for d in data[:5]:
print(d)
常见问题与对策
- 只抓到空白页面:动态内容没加载,需要增加等待逻辑。
- 代理不可用:检查账号密码或尝试更换。
- 解析不到数据:生成式函数可能猜错,需要人工兜底。
踩坑提醒
很多人一开始会犯几个典型错误:
- 只停留在首页,忽略了滚动加载;
- 没有处理登录问题,导致只能看到部分内容;
- 盲目依赖自动生成的规则,没有写备用方案。
更稳妥的做法是:模拟滚动加载更多条目,提前准备 Cookie,人工校验生成规则是否靠谱。
后续提升
- 加入关键词搜索,获取某类产品的热度;
- 导出数据,用 Excel 或可视化工具做统计;
- 进一步做评论情感分类,支持市场调研。
收尾小结
整套方案的思路是:用浏览器驱动拿到动态页面 → 借助生成式推断结构 → 结合代理提高成功率。
它最大的价值在于,可以快速获取社交平台上的热门信息,并做基础的市场热点分析。
如果你把思路拓展一下,这套方法同样适用于其他平台,比如微博热搜、短视频评论区等。