-
Notifications
You must be signed in to change notification settings - Fork 190
/
run_configs.txt
137 lines (125 loc) · 30 KB
/
run_configs.txt
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
This file contains the commands used to replicate the experiments in our paper.
These configurations were obtained based on the best validation accuracy. Note that these results were obtained using Python 3.7 with Tensorflow 1.14.0. Running with other Tensorflow versions may lead to slight differences in results due to randomness.
We recommend running on a GPU. With CUDA, this can be done by prepending "CUDA_VISIBLE_DEVICES=<your-gpu-number>" in front of each of the run commands below.
To visualize the results in Tensorboard, use the following command, adjusting the dataset name accordingly:
tensorboard --logdir=outputs/summaries/cora
--------------- Cora ----------------
MLP_128
Baseline:
First co-train iteration (i.e. iteration 0) of any of the runs below.
NGM:
python3.7 -m gam.experiments.run_train_gam_graph --data_path=<path_to_data> --dataset_name=cora --model_cls=mlp --model_agr=mlp --hidden_cls=128 -hidden_agr=128 --batch_size_cls=128 --batch_size_agr=128 --num_pairs_reg=128 --first_iter_original=True --num_samples_to_label=200 --max_num_iter_cotrain=1 --experiment_suffix='-NGM' --learning_rate_cls=1e-3 --num_iter_after_best_val_agr=2000 --num_iter_after_best_val_cls=2000 --row_normalize=False --always_agree=True --seed=1234 --use_graph=True --penalize_neg_agr=False
VAT:
python3.7 -m gam.experiments.run_train_gam_graph --data_path=<path_to_data> --dataset_name=cora --model_cls=mlp --model_agr=mlp --hidden_cls=128 -hidden_agr=128 --batch_size_cls=128 --batch_size_agr=128 --num_pairs_reg=128 --first_iter_original=True --num_samples_to_label=200 --max_num_iter_cotrain=1 --experiment_suffix='-NGM' --learning_rate_cls=1e-3 --num_iter_after_best_val_agr=2000 --num_iter_after_best_val_cls=2000 --row_normalize=False --always_agree=True --seed=1234 --use_graph=True --penalize_neg_agr=False --reg_weight_ll=0 --reg_weight_lu=0 --reg_weight_uu=0 --reg_weight_vat=1.0 --use_ent_min=False
VATENT:
python3.7 -m gam.experiments.run_train_gam_graph --data_path=<path_to_data> --dataset_name=cora --model_cls=mlp --model_agr=mlp --hidden_cls=128 -hidden_agr=128 --batch_size_cls=128 --batch_size_agr=128 --num_pairs_reg=128 --first_iter_original=True --num_samples_to_label=200 --max_num_iter_cotrain=1 --experiment_suffix='-NGM' --learning_rate_cls=1e-3 --num_iter_after_best_val_agr=2000 --num_iter_after_best_val_cls=2000 --row_normalize=False --always_agree=True --seed=1234 --use_graph=True --penalize_neg_agr=False --reg_weight_ll=0 --reg_weight_lu=0 --reg_weight_uu=0 --reg_weight_vat=1.0 --use_ent_min=True
GAM:
python3.7 -m gam.experiments.run_train_gam_graph --data_path=<path_to_data> --dataset_name=cora --model_cls=mlp --model_agr=mlp --hidden_cls=128 -hidden_agr=128 --batch_size_cls=128 --batch_size_agr=128 --num_pairs_reg=128 --first_iter_original=True --add_negative_edges_agr=True --aggregation_agr_inputs=dist --num_samples_to_label=200 --max_num_iter_cotrain=100 --first_iter_original=True --learning_rate_cls=1e-3 --num_iter_after_best_val_agr=2000 --num_iter_after_best_val_cls=2000 --row_normalize=False --reg_weight_lu=1 --reg_weight_uu=0.5 --always_agree=False --seed=111 --keep_label_proportions=True --use_graph=True --penalize_neg_agr=False --min_confidence_new_label=0.9 --experiment_suffix='-GAM'
GAM*:
python3.7 -m gam.experiments.run_train_gam_graph --data_path=<path_to_data> --dataset_name=cpra --model_cls=mlp --model_agr=mlp --hidden_cls=128 -hidden_agr=128 --batch_size_cls=128 --batch_size_agr=128 --num_pairs_reg=128 --first_iter_original=True --add_negative_edges_agr=True --aggregation_agr_inputs=dist --num_samples_to_label=200 --max_num_iter_cotrain=1000 --experiment_suffix='-GAM_star' --first_iter_original=True --learning_rate_cls=1e-3 --num_iter_after_best_val_agr=2000 --num_iter_after_best_val_cls=2000 --row_normalize=False --reg_weight_lu=100 --reg_weight_uu=50 --always_agree=False --seed=1234 --keep_label_proportions=True --use_graph=False --penalize_neg_agr=True
MLP_32_32_32_32:
Baseline:
First co-train iteration (i.e. iteration 0) of any of the runs below.
NGM:
python3.7 -m gam.experiments.run_train_gam_graph --data_path=<path_to_data> --dataset_name=cora --model_cls=mlp --model_agr=mlp --hidden_cls=32_32_32_32 -hidden_agr=32_32_32_32 --batch_size_cls=128 --batch_size_agr=128 --num_pairs_reg=512 --first_iter_original=True --num_samples_to_label=200 --max_num_iter_cotrain=1 --experiment_suffix='-NGM' --learning_rate_cls=1e-3 --num_iter_after_best_val_agr=2000 --num_iter_after_best_val_cls=2000 --row_normalize=False --always_agree=True --seed=1234 --use_graph=True --penalize_neg_agr=False
GAM:
python3.7 -m gam.experiments.run_train_gam_graph --data_path=<path_to_data> --dataset_name=cora --model_cls=mlp --model_agr=mlp --hidden_cls=32_32_32_32 -hidden_agr=32_32_32_32 --batch_size_cls=128 --batch_size_agr=128 --num_pairs_reg=128 --first_iter_original=True --add_negative_edges_agr=True --aggregation_agr_inputs=dist --num_samples_to_label=200 --max_num_iter_cotrain=1000 --experiment_suffix='-GAM' --first_iter_original=True --learning_rate_cls=1e-3 --num_iter_after_best_val_agr=2000 --num_iter_after_best_val_cls=2000 --row_normalize=False --reg_weight_lu=1000 --reg_weight_uu=500 --always_agree=False --seed=1234 --keep_label_proportions=True --use_graph=True --penalize_neg_agr=False
GAM*:
python3.7 -m gam.experiments.run_train_gam_graph --data_path=<path_to_data> --dataset_name=cora --model_cls=mlp --model_agr=mlp --hidden_cls=32_32_32_32 -hidden_agr=32_32_32_32 --batch_size_cls=128 --batch_size_agr=128 --num_pairs_reg=128 --first_iter_original=True --add_negative_edges_agr=True --aggregation_agr_inputs=dist --num_samples_to_label=200 --max_num_iter_cotrain=1000 --experiment_suffix='-GAM_star' --first_iter_original=True --learning_rate_cls=1e-3 --num_iter_after_best_val_agr=2000 --num_iter_after_best_val_cls=2000 --row_normalize=False --reg_weight_lu=10 --reg_weight_uu=5 --always_agree=False --seed=1234 --keep_label_proportions=True --use_graph=False --penalize_neg_agr=True
VAT:
python3.7 -m gam.experiments.run_train_gam_graph --data_path=<path_to_data> --dataset_name=cora --model_cls=mlp --model_agr=mlp --hidden_cls=32_32_32_32 -hidden_agr=32_32_32_32 --batch_size_cls=128 --batch_size_agr=128 --num_pairs_reg=128 --first_iter_original=True --num_samples_to_label=200 --max_num_iter_cotrain=1 --experiment_suffix='-NGM' --learning_rate_cls=1e-3 --num_iter_after_best_val_agr=2000 --num_iter_after_best_val_cls=2000 --row_normalize=False --always_agree=True --seed=1234 --use_graph=True --penalize_neg_agr=False --reg_weight_ll=0 --reg_weight_lu=0 --reg_weight_uu=0 --reg_weight_vat=1.0 --use_ent_min=False
VATENT:
python3.7 -m gam.experiments.run_train_gam_graph --data_path=<path_to_data> --dataset_name=cora --model_cls=mlp --model_agr=mlp --hidden_cls=32_32_32_32 -hidden_agr=32_32_32_32 --batch_size_cls=128 --batch_size_agr=128 --num_pairs_reg=128 --first_iter_original=True --num_samples_to_label=200 --max_num_iter_cotrain=1 --experiment_suffix='-VATENT' --learning_rate_cls=1e-3 --num_iter_after_best_val_agr=2000 --num_iter_after_best_val_cls=2000 --row_normalize=False --always_agree=True --seed=1234 --use_graph=True --penalize_neg_agr=False --reg_weight_ll=0 --reg_weight_lu=0 --reg_weight_uu=0 --reg_weight_vat=1.0 --use_ent_min=True
GCN_128:
Baseline:
First co-train iteration (i.e. iteration 0) of any of the runs below.
NGM:
python3.7 -m gam.experiments.run_train_gam_graph --data_path=<path_to_data> --dataset_name=cora --model_cls=gcn --model_agr=mlp --hidden_cls=128 --hidden_agr=128 --batch_size_cls=128 --batch_size_agr=128 --num_pairs_reg=512 --first_iter_original=True --num_samples_to_label=200 --max_num_iter_cotrain=1 --experiment_suffix='-NGM' --learning_rate_cls=1e-3 --num_iter_after_best_val_agr=2000 --num_iter_after_best_val_cls=2000 --row_normalize=False --always_agree=True --seed=1234 --use_graph=True --penalize_neg_agr=False
GAM:
python3.7 -m gam.experiments.run_train_gam_graph --data_path=<path_to_data> --dataset_name=cora --model_cls=gcn --model_agr=mlp --hidden_cls=128 --hidden_agr=128 --num_pairs_reg=512 --first_iter_original=True --add_negative_edges_agr=True --aggregation_agr_inputs=dist --num_samples_to_label=200 --max_num_iter_cotrain=1000 --first_iter_original=True --learning_rate_cls=1e-3 --num_iter_after_best_val_agr=2000 --experiment_suffix='-replaceLwithPred-noLabelProp' --num_iter_after_best_val_cls=2000 --row_normalize=False --reg_weight_lu=1 --reg_weight_uu=0.5 --always_agree=False --seed=111 --keep_label_proportions=False --use_graph=True --penalize_neg_agr=False --experiment_suffix='-GAM'
GAM*:
python3.7 -m gam.experiments.run_train_gam_graph --data_path=<path_to_data> --dataset_name=cora --model_cls=gcn --model_agr=mlp --hidden_cls=128 --hidden_agr=128 --batch_size_cls=128 --batch_size_agr=128 --num_pairs_reg=512 --first_iter_original=True --add_negative_edges_agr=True --aggregation_agr_inputs=dist --num_samples_to_label=200 --max_num_iter_cotrain=1000 --experiment_suffix='-GAM_star' --first_iter_original=True --learning_rate_cls=1e-3 --num_iter_after_best_val_agr=2000 --num_iter_after_best_val_cls=2000 --row_normalize=False --reg_weight_lu=10.0 --reg_weight_uu=5 --always_agree=False --seed=1234 --keep_label_proportions=True --use_graph=False
VAT:
python3.7 -m gam.experiments.run_train_gam_graph --data_path=<path_to_data> --dataset_name=cora --model_cls=gcn --model_agr=mlp --hidden_cls=128 --hidden_agr=128 --batch_size_cls=128 --batch_size_agr=128 --num_pairs_reg=128 --first_iter_original=True --num_samples_to_label=200 --max_num_iter_cotrain=1 --experiment_suffix='-VAT' --learning_rate_cls=1e-3 --num_iter_after_best_val_agr=2000 --num_iter_after_best_val_cls=2000 --row_normalize=False --always_agree=True --seed=1234 --use_graph=True --penalize_neg_agr=False --reg_weight_ll=0 --reg_weight_lu=0 --reg_weight_uu=0 --reg_weight_vat=1.0 --use_ent_min=False
VATENT:
python3.7 -m gam.experiments.run_train_gam_graph --data_path=<path_to_data> --dataset_name=cora --model_cls=gcn --model_agr=mlp --hidden_cls=128 --hidden_agr=128 --batch_size_cls=128 --batch_size_agr=128 --num_pairs_reg=128 --first_iter_original=True --num_samples_to_label=200 --max_num_iter_cotrain=1 --experiment_suffix='-VATENT' --learning_rate_cls=1e-3 --num_iter_after_best_val_agr=2000 --num_iter_after_best_val_cls=2000 --row_normalize=False --always_agree=True --seed=1234 --use_graph=True --penalize_neg_agr=False --reg_weight_ll=0 --reg_weight_lu=0 --reg_weight_uu=0 --reg_weight_vat=1.0 --use_ent_min=True --first_iter_original=False
--------------- Citeseer ----------------
MLP_128:
Baseline:
First co-train iteration (i.e. iteration 0) of any of the runs below.
NGM:
python3.7 -m gam.experiments.run_train_gam_graph --data_path=<path_to_data> --dataset_name=citeseer --model_cls=mlp --model_agr=mlp --hidden_cls=128 -hidden_agr=128 --batch_size_cls=128 --batch_size_agr=128 --num_pairs_reg=128 --first_iter_original=True --num_samples_to_label=200 --max_num_iter_cotrain=1 --experiment_suffix='-NGM' --learning_rate_cls=1e-3 --num_iter_after_best_val_agr=2000 --num_iter_after_best_val_cls=2000 --row_normalize=False --always_agree=True --seed=1234 --use_graph=True --penalize_neg_agr=False
GAM:
python3.7 -m gam.experiments.run_train_gam_graph --data_path=<path_to_data> --dataset_name=citeseer --model_cls=mlp --model_agr=mlp --hidden_cls=128 -hidden_agr=128 --batch_size_cls=128 --batch_size_agr=128 --num_pairs_reg=128 --first_iter_original=True --add_negative_edges_agr=True --aggregation_agr_inputs=dist --num_samples_to_label=50 --max_num_iter_cotrain=100 --first_iter_original=True --learning_rate_cls=1e-3 --num_iter_after_best_val_agr=2000 --num_iter_after_best_val_cls=2000 --row_normalize=False --reg_weight_lu=0.1 --reg_weight_uu=0.05 --always_agree=False --seed=333 --keep_label_proportions=True --use_graph=True --penalize_neg_agr=False --min_confidence_new_label=0.9 --experiment_suffix='-GAM'
GAM*:
python3.7 -m gam.experiments.run_train_gam_graph --data_path=<path_to_data> --dataset_name=citeseer --model_cls=mlp --model_agr=mlp --hidden_cls=128 -hidden_agr=128 --batch_size_cls=128 --batch_size_agr=128 --num_pairs_reg=512 --first_iter_original=True --add_negative_edges_agr=True --aggregation_agr_inputs=dist --num_samples_to_label=200 --max_num_iter_cotrain=1000 --experiment_suffix='-GAM_star' --first_iter_original=True --learning_rate_cls=1e-3 --num_iter_after_best_val_agr=2000 --num_iter_after_best_val_cls=2000 --row_normalize=False --reg_weight_lu=10 --reg_weight_uu=5 --always_agree=False --seed=1234
VAT:
python3.7 -m gam.experiments.run_train_gam_graph --data_path=<path_to_data> --dataset_name=citeseer --model_cls=mlp --model_agr=mlp --hidden_cls=128 -hidden_agr=128 --batch_size_cls=128 --batch_size_agr=128 --num_pairs_reg=128 --first_iter_original=True --num_samples_to_label=200 --max_num_iter_cotrain=1 --experiment_suffix='-VATENT' --learning_rate_cls=1e-3 --num_iter_after_best_val_agr=2000 --num_iter_after_best_val_cls=2000 --row_normalize=False --always_agree=True --seed=1234 --use_graph=True --penalize_neg_agr=False --reg_weight_ll=0 --reg_weight_lu=0 --reg_weight_uu=0 --reg_weight_vat=1.0 --use_ent_min=False
VATENT:
python3.7 -m gam.experiments.run_train_gam_graph --data_path=<path_to_data> --dataset_name=citeseer --model_cls=mlp --model_agr=mlp --hidden_cls=128 -hidden_agr=128 --batch_size_cls=128 --batch_size_agr=128 --num_pairs_reg=128 --first_iter_original=True --num_samples_to_label=200 --max_num_iter_cotrain=1 --experiment_suffix='-VAT --learning_rate_cls=1e-3 --num_iter_after_best_val_agr=2000 --num_iter_after_best_val_cls=2000 --row_normalize=False --always_agree=True --seed=1234 --use_graph=True --penalize_neg_agr=False --reg_weight_ll=0 --reg_weight_lu=0 --reg_weight_uu=0 --reg_weight_vat=1.0 --use_ent_min=True
MLP_32_32_32_32:
Baseline:
First co-train iteration (i.e. iteration 0) of any of the runs below.
NGM:
python3.7 -m gam.experiments.run_train_gam_graph --data_path=<path_to_data> --dataset_name=citeseer --model_cls=mlp --model_agr=mlp --hidden_cls=32_32_32_32 -hidden_agr=32_32_32_32 --batch_size_cls=128 --batch_size_agr=128 --num_pairs_reg=512 --first_iter_original=True --num_samples_to_label=200 --max_num_iter_cotrain=1 --experiment_suffix='-NGM' --learning_rate_cls=1e-3 --num_iter_after_best_val_agr=2000 --num_iter_after_best_val_cls=2000 --row_normalize=False --always_agree=True --seed=1234 --use_graph=True --penalize_neg_agr=False
GAM:
python3.7 -m gam.experiments.run_train_gam_graph --data_path=<path_to_data> --dataset_name=citeseer --model_cls=mlp --model_agr=mlp --hidden_cls=32_32_32_32 -hidden_agr=32_32_32_32 --batch_size_cls=128 --batch_size_agr=128 --num_pairs_reg=512 --first_iter_original=True --add_negative_edges_agr=True --aggregation_agr_inputs=dist --num_samples_to_label=200 --max_num_iter_cotrain=1000 --experiment_suffix='-GAM' --first_iter_original=True --learning_rate_cls=1e-3 --num_iter_after_best_val_agr=2000 --num_iter_after_best_val_cls=2000 --row_normalize=False --reg_weight_lu=10 --reg_weight_uu=5 --always_agree=False --seed=1234 --keep_label_proportions=True --use_graph=True --penalize_neg_agr=False --experiment_suffix='-GAM'
GAM*:
python3.7 -m gam.experiments.run_train_gam_graph --data_path=<path_to_data> --dataset_name=citeseer --model_cls=mlp --model_agr=mlp --hidden_cls=32_32_32_32 -hidden_agr=32_32_32_32 --batch_size_cls=128 --batch_size_agr=128 --num_pairs_reg=512 --first_iter_original=True --add_negative_edges_agr=True --aggregation_agr_inputs=dist --num_samples_to_label=200 --max_num_iter_cotrain=1000 --experiment_suffix='-GAM_star' --first_iter_original=True --learning_rate_cls=1e-3 --num_iter_after_best_val_agr=2000 --num_iter_after_best_val_cls=2000 --row_normalize=False --reg_weight_lu=1.0 --reg_weight_uu=0.5 --always_agree=False --seed=1234 --keep_label_proportions=True --use_graph=False --penalize_neg_agr=False
VAT:
python3.7 -m gam.experiments.run_train_gam_graph --data_path=<path_to_data> --dataset_name=citeseer --model_cls=mlp --model_agr=mlp --hidden_cls=32_32_32_32 -hidden_agr=32_32_32_32 --batch_size_cls=128 --batch_size_agr=128 --num_pairs_reg=128 --first_iter_original=True --num_samples_to_label=200 --max_num_iter_cotrain=1 --experiment_suffix='-VAT' --learning_rate_cls=1e-3 --num_iter_after_best_val_agr=2000 --num_iter_after_best_val_cls=2000 --row_normalize=False --always_agree=True --seed=1234 --use_graph=True --penalize_neg_agr=False --reg_weight_ll=0 --reg_weight_lu=0 --reg_weight_uu=0 --reg_weight_vat=1.0 --use_ent_min=False
VATENT:
python3.7 -m gam.experiments.run_train_gam_graph --data_path=<path_to_data> --dataset_name=citeseer --model_cls=mlp --model_agr=mlp --hidden_cls=32_32_32_32 -hidden_agr=32_32_32_32 --batch_size_cls=128 --batch_size_agr=128 --num_pairs_reg=128 --first_iter_original=True --num_samples_to_label=200 --max_num_iter_cotrain=1 --experiment_suffix='-VATENT' --learning_rate_cls=1e-3 --num_iter_after_best_val_agr=2000 --num_iter_after_best_val_cls=2000 --row_normalize=False --always_agree=True --seed=1234 --use_graph=True --penalize_neg_agr=False --reg_weight_ll=0 --reg_weight_lu=0 --reg_weight_uu=0 --reg_weight_vat=1.0 --use_ent_min=True
GCN_128:
Baseline:
First co-train iteration (i.e. iteration 0) of any of the runs below.
NGM:
python3.7 -m gam.experiments.run_train_gam_graph --data_path=<path_to_data> --dataset_name=citeseer --model_cls=gcn --model_agr=mlp --hidden_cls=128 --hidden_agr=128 --batch_size_cls=128 --batch_size_agr=128 --num_pairs_reg=512 --first_iter_original=True --num_samples_to_label=200 --max_num_iter_cotrain=1 --experiment_suffix='-NGM' --learning_rate_cls=1e-3 --num_iter_after_best_val_agr=2000 --num_iter_after_best_val_cls=2000 --row_normalize=False --always_agree=True --seed=1234 --use_graph=True --penalize_neg_agr=False
GAM:
python3.7 -m gam.experiments.run_train_gam_graph --data_path=<path_to_data> --dataset_name=citeseer --model_cls=gcn --model_agr=mlp --hidden_cls=128 --hidden_agr=128 --num_pairs_reg=512 --first_iter_original=True --add_negative_edges_agr=True --aggregation_agr_inputs=dist --num_samples_to_label=200 --max_num_iter_cotrain=50 --first_iter_original=True --learning_rate_cls=1e-3 --num_iter_after_best_val_agr=2000 --num_iter_after_best_val_cls=2000 --row_normalize=True --reg_weight_lu=0.01 --reg_weight_uu=0.005 --always_agree=False --seed=111 --keep_label_proportions=True --use_graph=True --penalize_neg_agr=False --experiment_suffix='-GAM'
GAM*:
python3.7 -m gam.experiments.run_train_gam_graph --data_path=<path_to_data> --dataset_name=citeseer --model_cls=gcn --model_agr=mlp --hidden_cls=128 --hidden_agr=128 --batch_size_cls=128 --batch_size_agr=128 --num_pairs_reg=512 --first_iter_original=True --add_negative_edges_agr=True --aggregation_agr_inputs=dist --num_samples_to_label=200 --max_num_iter_cotrain=1000 --experiment_suffix='-GAM_star' --first_iter_original=True --learning_rate_cls=1e-3 --num_iter_after_best_val_agr=2000 --num_iter_after_best_val_cls=2000 --row_normalize=False --reg_weight_lu=10.0 --reg_weight_uu=5 --always_agree=False --seed=1234 --keep_label_proportions=True --use_graph=False
VAT:
python3.7 -m gam.experiments.run_train_gam_graph --data_path=<path_to_data> --dataset_name=citeseer --model_cls=gcn --model_agr=mlp --hidden_cls=128 --hidden_agr=128 --batch_size_cls=128 --batch_size_agr=128 --num_pairs_reg=128 --first_iter_original=True --num_samples_to_label=200 --max_num_iter_cotrain=1 --experiment_suffix='-VAT' --learning_rate_cls=1e-3 --num_iter_after_best_val_agr=2000 --num_iter_after_best_val_cls=2000 --row_normalize=False --always_agree=True --seed=1234 --use_graph=True --penalize_neg_agr=False --reg_weight_ll=0 --reg_weight_lu=0 --reg_weight_uu=0 --reg_weight_vat=1.0 --use_ent_min=False
VATENT:
python3.7 -m gam.experiments.run_train_gam_graph --data_path=<path_to_data> --dataset_name=citeseer --model_cls=gcn --model_agr=mlp --hidden_cls=128 --hidden_agr=128 --batch_size_cls=128 --batch_size_agr=128 --num_pairs_reg=128 --first_iter_original=True --num_samples_to_label=200 --max_num_iter_cotrain=1 --experiment_suffix='-VATENT' --learning_rate_cls=1e-3 --num_iter_after_best_val_agr=2000 --num_iter_after_best_val_cls=2000 --row_normalize=False --always_agree=True --seed=1234 --use_graph=True --penalize_neg_agr=False --reg_weight_ll=0 --reg_weight_lu=0 --reg_weight_uu=0 --reg_weight_vat=1.0 --use_ent_min=True
--------------- Pubmed ----------------
MLP_128:
Baseline:
First co-train iteration (i.e. iteration 0) of any of the runs below.
NGM:
python3.7 -m gam.experiments.run_train_gam_graph --data_path=<path_to_data> --dataset_name=pubmed --model_cls=mlp --model_agr=mlp --hidden_cls=128 -hidden_agr=128 --batch_size_cls=128 --batch_size_agr=128 --num_pairs_reg=128 --first_iter_original=True --num_samples_to_label=200 --max_num_iter_cotrain=1 --experiment_suffix='-NGM' --learning_rate_cls=1e-3 --num_iter_after_best_val_agr=2000 --num_iter_after_best_val_cls=2000 --row_normalize=False --always_agree=True --seed=1234 --use_graph=True --penalize_neg_agr=False
GAM:
python3.7 -m gam.experiments.run_train_gam_graph --data_path=<path_to_data> --dataset_name=pubmed --model_cls=mlp --model_agr=mlp --hidden_cls=128 -hidden_agr=128 --batch_size_cls=128 --batch_size_agr=128 --num_pairs_reg=128 --first_iter_original=True --add_negative_edges_agr=True --aggregation_agr_inputs=dist --num_samples_to_label=200 --max_num_iter_cotrain=1000 --use_l2_cls=False --first_iter_original=True --learning_rate_cls=1e-3 --num_iter_after_best_val_agr=2000 --num_iter_after_best_val_cls=2000 --row_normalize=False --reg_weight_lu=0.1 --reg_weight_uu=0.05 --keep_label_proportions=False --use_graph=True --penalize_neg_agr=False --seed=111 --experiment_suffix='-GAM'
GAM*:
python3.7 -m gam.experiments.run_train_gam_graph --data_path=<path_to_data> --dataset_name=pubmed --model_cls=mlp --model_agr=mlp --hidden_cls=128 -hidden_agr=128 --batch_size_cls=128 --batch_size_agr=128 --num_pairs_reg=512 --first_iter_original=True --add_negative_edges_agr=True --aggregation_agr_inputs=dist --num_samples_to_label=200 --max_num_iter_cotrain=1000 --experiment_suffix='-GAM_star' --first_iter_original=True --learning_rate_cls=1e-3 --num_iter_after_best_val_agr=2000 --num_iter_after_best_val_cls=2000 --row_normalize=False --reg_weight_lu=1000 --reg_weight_uu=500 --always_agree=False --seed=1234
VAT:
python3.7 -m gam.experiments.run_train_gam_graph --data_path=<path_to_data> --dataset_name=pubmed --model_cls=mlp --model_agr=mlp --hidden_cls=128 -hidden_agr=128 --batch_size_cls=128 --batch_size_agr=128 --num_pairs_reg=128 --first_iter_original=True --num_samples_to_label=200 --max_num_iter_cotrain=1 --experiment_suffix='-VAT' --learning_rate_cls=1e-3 --num_iter_after_best_val_agr=2000 --num_iter_after_best_val_cls=2000 --row_normalize=False --always_agree=True --seed=1234 --use_graph=True --penalize_neg_agr=False --reg_weight_ll=0 --reg_weight_lu=0 --reg_weight_uu=0 --reg_weight_vat=1.0 --use_ent_min=False
VATENT:
python3.7 -m gam.experiments.run_train_gam_graph --data_path=<path_to_data> --dataset_name=pubmed --model_cls=mlp --model_agr=mlp --hidden_cls=128 -hidden_agr=128 --batch_size_cls=128 --batch_size_agr=128 --num_pairs_reg=128 --first_iter_original=True --num_samples_to_label=200 --max_num_iter_cotrain=1 --experiment_suffix='-VATENT' --learning_rate_cls=1e-3 --num_iter_after_best_val_agr=2000 --num_iter_after_best_val_cls=2000 --row_normalize=False --always_agree=True --seed=1234 --use_graph=True --penalize_neg_agr=False --reg_weight_ll=0 --reg_weight_lu=0 --reg_weight_uu=0 --reg_weight_vat=1.0 --use_ent_min=True
MLP_32_32_32_32:
Baseline:
First co-train iteration (i.e. iteration 0) of any of the runs below.
NGM:
python3.7 -m gam.experiments.run_train_gam_graph --data_path=<path_to_data> --dataset_name=pubmed --model_cls=mlp --model_agr=mlp --hidden_cls=32_32_32_32 -hidden_agr=32_32_32_32 --batch_size_cls=128 --batch_size_agr=128 --num_pairs_reg=512 --first_iter_original=True --num_samples_to_label=200 --max_num_iter_cotrain=1 --experiment_suffix='-NGM' --learning_rate_cls=1e-3 --num_iter_after_best_val_agr=2000 --num_iter_after_best_val_cls=2000 --row_normalize=False --always_agree=True --seed=1234 --use_graph=True --penalize_neg_agr=False
GAM:
python3.7 -m gam.experiments.run_train_gam_graph --data_path=<path_to_data> --dataset_name=pubmed --model_cls=mlp --model_agr=mlp --hidden_cls=32_32_32_32 -hidden_agr=32_32_32_32 --batch_size_cls=128 --batch_size_agr=128 --num_pairs_reg=512 --first_iter_original=True --add_negative_edges_agr=True --aggregation_agr_inputs=dist --num_samples_to_label=200 --max_num_iter_cotrain=1000 --experiment_suffix='-GAM' --first_iter_original=True --learning_rate_cls=1e-3 --num_iter_after_best_val_agr=2000 --num_iter_after_best_val_cls=2000 --row_normalize=False --reg_weight_lu=1000 --reg_weight_uu=500 --always_agree=False --seed=1234 --keep_label_proportions=True --use_graph=True --penalize_neg_agr=False --reg_weight_vat=0
GAM*:
python3.7 -m gam.experiments.run_train_gam_graph --data_path=<path_to_data> --dataset_name=pubmed --model_cls=mlp --model_agr=mlp --hidden_cls=32_32_32_32 -hidden_agr=32_32_32_32 --batch_size_cls=128 --batch_size_agr=128 --num_pairs_reg=512 --first_iter_original=True --add_negative_edges_agr=True --aggregation_agr_inputs=dist --num_samples_to_label=200 --max_num_iter_cotrain=1000 --experiment_suffix='-GAM_star' --first_iter_original=True --learning_rate_cls=1e-3 --num_iter_after_best_val_agr=2000 --num_iter_after_best_val_cls=2000 --row_normalize=False --reg_weight_lu=1.0 --reg_weight_uu=0.5 --always_agree=False --seed=1234
VAT:
python3.7 -m gam.experiments.run_train_gam_graph --data_path=<path_to_data> --dataset_name=pubmed --model_cls=mlp --model_agr=mlp --hidden_cls=32_32_32_32 -hidden_agr=32_32_32_32 --batch_size_cls=128 --batch_size_agr=128 --num_pairs_reg=128 --first_iter_original=True --num_samples_to_label=200 --max_num_iter_cotrain=1 --experiment_suffix='-VAT' --learning_rate_cls=1e-3 --num_iter_after_best_val_agr=2000 --num_iter_after_best_val_cls=2000 --row_normalize=False --always_agree=True --seed=1234 --use_graph=True --penalize_neg_agr=False --reg_weight_ll=0 --reg_weight_lu=0 --reg_weight_uu=0 --reg_weight_vat=1.0 --use_ent_min=False
VATENT:
python3.7 -m gam.experiments.run_train_gam_graph --data_path=<path_to_data> --dataset_name=pubmed --model_cls=mlp --model_agr=mlp --hidden_cls=32_32_32_32 -hidden_agr=32_32_32_32 --batch_size_cls=128 --batch_size_agr=128 --num_pairs_reg=128 --first_iter_original=True --num_samples_to_label=200 --max_num_iter_cotrain=1 --experiment_suffix='-VATENT' --learning_rate_cls=1e-3 --num_iter_after_best_val_agr=2000 --num_iter_after_best_val_cls=2000 --row_normalize=False --always_agree=True --seed=1234 --use_graph=True --penalize_neg_agr=False --reg_weight_ll=0 --reg_weight_lu=0 --reg_weight_uu=0 --reg_weight_vat=1.0 --use_ent_min=True
GCN_128:
Baseline:
First co-train iteration (i.e. iteration 0) of any of the runs below.
NGM:
python3.7 -m gam.experiments.run_train_gam_graph --data_path=<path_to_data> --dataset_name=pubmed --model_cls=gcn --model_agr=mlp --hidden_cls=128 --hidden_agr=128 --batch_size_cls=128 --batch_size_agr=128 --num_pairs_reg=512 --first_iter_original=True --num_samples_to_label=200 --max_num_iter_cotrain=1 --experiment_suffix='-NGM' --learning_rate_cls=1e-3 --num_iter_after_best_val_agr=2000 --num_iter_after_best_val_cls=2000 --row_normalize=False --always_agree=True --seed=1234 --use_graph=True --penalize_neg_agr=False
GAM:
python3.7 -m gam.experiments.run_train_gam_graph --data_path=<path_to_data> --dataset_name=pubmed --model_cls=gcn --model_agr=mlp --hidden_cls=128 --hidden_agr=128 --batch_size_cls=128 --batch_size_agr=128 --num_pairs_reg=512 --num_samples_to_label=500 --max_num_iter_cotrain=50 --experiment_suffix='-GAM' --row_normalize=False --reg_weight_lu=1.0 --reg_weight_uu=0.5 --seed=111 --keep_label_proportions=False --weight_decay_cls=5e-4 --weight_decay_agr=5e-2 --min_confidence_new_label=0.7 --experiment_suffix='-GAM'
GAM*:
python3.7 -m gam.experiments.run_train_gam_graph --data_path=<path_to_data> --dataset_name=pubmed --model_cls=gcn --model_agr=mlp --hidden_cls=128 --hidden_agr=128 --batch_size_cls=128 --batch_size_agr=128 --num_pairs_reg=512 --first_iter_original=True --add_negative_edges_agr=True --aggregation_agr_inputs=dist --num_samples_to_label=200 --max_num_iter_cotrain=1000 --experiment_suffix='-GAM_star-penNeg' --first_iter_original=True --learning_rate_cls=1e-3 --num_iter_after_best_val_agr=2000 --num_iter_after_best_val_cls=2000 --row_normalize=False --reg_weight_lu=0.1 --reg_weight_uu=0.05 --always_agree=False --seed=1234 --use_graph=False --penalize_neg_agr=True
VAT:
python3.7 -m gam.experiments.run_train_gam_graph --data_path=<path_to_data> --dataset_name=pubmed --model_cls=gcn --model_agr=mlp --hidden_cls=128 --hidden_agr=128 --batch_size_cls=128 --batch_size_agr=128 --num_pairs_reg=128 --first_iter_original=True --num_samples_to_label=200 --max_num_iter_cotrain=1 --experiment_suffix='-VAT' --learning_rate_cls=1e-3 --num_iter_after_best_val_agr=2000 --num_iter_after_best_val_cls=2000 --row_normalize=False --always_agree=True --seed=1234 --use_graph=True --penalize_neg_agr=False --reg_weight_ll=0 --reg_weight_lu=0 --reg_weight_uu=0 --reg_weight_vat=1.0 --use_ent_min=False
VATENT:
python3.7 -m gam.experiments.run_train_gam_graph --data_path=<path_to_data> --dataset_name=pubmed --model_cls=gcn --model_agr=mlp --hidden_cls=128 --hidden_agr=128 --batch_size_cls=128 --batch_size_agr=128 --num_pairs_reg=128 --first_iter_original=True --num_samples_to_label=200 --max_num_iter_cotrain=1 --experiment_suffix='-VATENT' --learning_rate_cls=1e-3 --num_iter_after_best_val_agr=2000 --num_iter_after_best_val_cls=2000 --row_normalize=False --always_agree=True --seed=1234 --use_graph=True --penalize_neg_agr=False --reg_weight_ll=0 --reg_weight_lu=0 --reg_weight_uu=0 --reg_weight_vat=1.0 --use_ent_min=True