mrh 0e3dcdc184 完成打包并正常运行。crawl4ai 使用自定义浏览器。html convert 还有问题 hai 9 meses
..
api c08a17c95f 完成 crawl4ai 使用自定义浏览器批量抓取 hai 9 meses
celery 0e3dcdc184 完成打包并正常运行。crawl4ai 使用自定义浏览器。html convert 还有问题 hai 9 meses
conf ad5526ea13 备份。 celery 无法很好支持 playwright 上下文 hai 10 meses
crawl_pages 0e3dcdc184 完成打包并正常运行。crawl4ai 使用自定义浏览器。html convert 还有问题 hai 9 meses
html_convert 0e3dcdc184 完成打包并正常运行。crawl4ai 使用自定义浏览器。html convert 还有问题 hai 9 meses
search_engine 22020a65a1 新增删除某个关键词数据库;新增默认谷歌路径便携版 hai 9 meses
ARCHITECTURE.md 2b701092ff 删除 API 代码,准备改为 celery 的方式 hai 10 meses
readme.md a8f84b34ae 测试 prefect 但是效果不理想 hai 9 meses
run_manager.bat 0e3dcdc184 完成打包并正常运行。crawl4ai 使用自定义浏览器。html convert 还有问题 hai 9 meses
run_multi_proxy.bat 0e3dcdc184 完成打包并正常运行。crawl4ai 使用自定义浏览器。html convert 还有问题 hai 9 meses

readme.md

prefect

prefect config set PREFECT_API_URL="http://127.0.0.1:4200/api"
prefect start

celery

To use this system you would:

1 Start Celery worker with: celery -A worker.celery.app worker --loglevel=info --concurrency=1 2 Send tasks using:

脚本方式

from worker.celery.models import KeywordTaskModel
from worker.celery.tasks import search_keyword_task
task_data = KeywordTaskModel(keyword="Acampe carinata essential oil").model_dump()
search_keyword_task.delay(task_data)

命令行方式

G:\code\upwork\zhang_crawl_bio\download\Redis-x64-5.0.14.1\redis-server.exe
celery -A worker.celery.app flower --persistent=True --db=".\output\flower_db"
# 为不同PC启动worker时指定配置
$env:PC_NAME="w1"; celery -A worker.celery.app worker --hostname=$env:PC_NAME@%h
$env:PC_NAME="w2"; celery -A worker.celery.app worker --hostname=$env:PC_NAME@%h
$env:PC_NAME="w3"; celery -A worker.celery.app worker --hostname=$env:PC_NAME@%h
$env:PC_NAME="w4"; celery -A worker.celery.app worker --hostname=$env:PC_NAME@%h
$env:PC_NAME="w5"; celery -A worker.celery.app worker --hostname=$env:PC_NAME@%h
$env:PC_NAME="w6"; celery -A worker.celery.app worker --hostname=$env:PC_NAME@%h
$env:PC_NAME="w7"; celery -A worker.celery.app worker --hostname=$env:PC_NAME@%h