Introduction
Optimization 기법 중 graduated non-convexity (GNC)라는 기법이 있는데, 현재 GTSAM에 이 GNC를 기반으로 해서 optimization을 하는 방법을 제공하고 있다 (엄밀히 말하자면 Luca가 GncOpimizer를 GTSAM library에 업데이트했다). 그래서 간략한 사용법 코드 snippet을 기록해두고자 한다.
코드 구조
gtsam::LevenbergMarquardtParams lmParams;
lmParams.setVerbosityLM("SUMMARY");
gtsam::GncParams<gtsam::LevenbergMarquardtParams> gncParams(lmParams);
gncParams.setKnownInliers(known_inlier_indices);
gncParams.setKnownOutliers(known_outlier_indices);
// Create GNC optimizer
gtsam::GncOptimizer<gtsam::GncParams<gtsam::LevenbergMarquardtParams>>
gnc_optimizer(input_nfg, input_values, gncParams);
gnc_optimizer.setInlierCostThresholdsAtProbability(0.7);
result = gnc_optimizer.optimize();
위에서 보이는 것처럼, Optimization class를 GNCOptimizer
로 선언하면 된다.
여기서 가장 중요한 것은 setInlierCostThresholdsAtProbability
함수이다.
이 함수는 특정 확률에서 inlier와 outlier를 구분하는 cost threshold를 설정하는데,
이 확률 값이 높을수록 더 strict한 기준을 적용하여 outlier를 filtering한다.
예를 들어, 높은 확률 (예: 0.7 이상)을 설정하면 threshold가 증가하여 더 많은 edge들이 outlier로 분류될 가능성이 커지고, 더 conservative하게 동작한다.
반대로 낮은 확률을 설정하면 threshold가 낮아져 더 많은 edge들이 inlier로 간주될 수 있어 상대적으로 덜 conservative하게 동작하게 된다.
Kimera-RPGO의 SolverParams.h
를 보면 해당 GncSolver를 사용하기 위해 어떻게 parameter를 관리하는지도 볼 수 있다.
void setGncInlierCostThresholdsAtProbability(
const double& alpha,
const size_t& max_iterations = 100,
const double& mu_step = 1.4,
const double& rel_cost_tol = 1e-5,
const double& weight_tol = 1e-4,
const bool& fix_prev_inliers = false,
const bool& bias_odom = false) {
use_gnc_ = true;
gnc_params.gnc_threshold_mode_ = GncParams::GncThresholdMode::PROBABILITY;
gnc_params.gnc_inlier_threshold_ = alpha;
gnc_params.max_iterations_ = max_iterations;
gnc_params.mu_step_ = mu_step;
gnc_params.relative_cost_tol_ = rel_cost_tol;
gnc_params.weights_tol_ = weight_tol;
gnc_params.fix_prev_inliers_ = fix_prev_inliers;
gnc_params.bias_odom_ = bias_odom;
}
나의 경헙에 비추어 보았을 때, alpha
이외의 변수들은 성능에 그리 큰 영향을 미치지 않았다.