from langchain_community.document_loaders import ScrapflyLoader
scrapfly_scrape_config = {
"asp": True, # 绕过抓取拦截和反机器人方案(如 Cloudflare)
"render_js": True, # 使用云无头浏览器启用 JavaScript 渲染
"proxy_pool": "public_residential_pool", # 选择代理池(数据中心或住宅)
"country": "us", # 选择代理位置
"auto_scroll": True, # 自动滚动页面
"js": "", # 由无头浏览器执行的自定义 JavaScript 代码
}
scrapfly_loader = ScrapflyLoader(
["https://web-scraping.dev/products"],
api_key="Your ScrapFly API key", # 从 https://www.scrapfly.io/ 获取 API 密钥
continue_on_failure=True, # 忽略无法处理的页面并记录异常
scrape_config=scrapfly_scrape_config, # 传入 scrape_config 对象
scrape_format="markdown", # 抓取结果格式,`markdown`(默认)或 `text`
)
# 将 URL 内容以 Markdown 格式加载为文档
documents = scrapfly_loader.load()
print(documents)