|
|
před 1 rokem | |
|---|---|---|
| .. | ||
| EDA | před 1 rokem | |
| agent_bench | před 1 rokem | |
| bird | před 1 rokem | |
| gaia | před 1 rokem | |
| humanevalfix | před 1 rokem | |
| logic_reasoning | před 1 rokem | |
| mint | před 1 rokem | |
| ml_bench | před 1 rokem | |
| regression | před 1 rokem | |
| static | před 1 rokem | |
| swe_bench | před 1 rokem | |
| README.md | před 1 rokem | |
| TUTORIAL.md | před 1 rokem | |
| __init__.py | před 1 rokem | |
This folder contains code and resources to run experiments and evaluations.
To better organize the evaluation folder, we should follow the rules below:
evaluation/swe_bench should contain
all the preprocessing/evaluation/analysis scripts.evaluation/swe_benchevaluation/ml_benchevaluation/humanevalfixevaluation/gaiaevaluation/EDAevaluation/mintevaluation/agent_benchevaluation/birdevaluation/logic_reasoningCheck this huggingface space for visualization of existing experimental results.
You can start your own fork of our huggingface evaluation outputs and submit a PR of your evaluation results to our hosted huggingface repo via PR following the guide here.