非线性最小二乘法之Gauss Newton、L-M、Dog-Leg

2024-02-04 23:38

本文主要是介绍非线性最小二乘法之Gauss Newton、L-M、Dog-Leg,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

非线性最小二乘法之Gauss Newton、L-M、Dog-Leg

最快下降法

假设 hTF(x)<0 ,则h是 F(x) 下降方向,即对于任意足够小的 α>0 ,都满足 F(x+αh)<F(x)
现在讨论 F(x) 沿着h方向下降快慢:

limα0F(x)F(x+αh)αh=1hhTF(x)=F(x)cosθ

其中 θ 为矢量h和 F(x) 夹角,当 θ=π 时,下降最大。
hsd=F(x) ,是最快下降方向。


最小二乘问题

通常的最小二乘问题都可以表示为:

F(x)=12i=1n(fi(x)2)=12f(x)2=12f(x)Tf(x)

找到一个 x 使得 x=argminxF(x) ,其中 x=[x1x2xm] f(x)=[f1(x)f2(x)fn(x)]

假设对 f(x) i 个分量fi(x)在点 xk 处Taylor展开,
fi(xk+h)fi(xk)+fi(xk)Th i=1,2n
f(xk+h)f(xk)+J(xk)h ,其中Jacobin矩阵

J(xk)=f1(xk)Tf2(xk)Tfn(xk)=f1(xk)x1f2(xk)x1fn(xk)x1f1(xk)x2f2(xk)x2fn(xk)x2f1(xk)xmf2(xk)xmfn(xk)xm

通常记 fk=f(xk) Jk=J(xk) .
F(x)xj=i=1nfi(x)fi(x)xj

所以 F(x) 的梯度:
g=F(x)=J(x)Tf(x)


GaussNewton

选择 h 使得F(x) xk 附近二阶近似,则

F(xk+h)L(h)=12f(xk+h)Tf(xk+h)=12fTkfk+hTJTkfk+12hTJTkJkh=F(xk)+hTJTkfk+12hTJTkJkh

为使 F(xk+h) 取得极小值, L(h) 对h一阶导数 L(h)h=JTkfk+JTkJkh ,令 L(h)=0 ,则 (JTkJk)hgn=JTkfk
JTkJk 非奇异的时候, hgn=(JTkJk)1JTkfk xk+1=xk+hgn
由于GaussNewton求解过程中需要对 JTJ 求逆,所以当 JTJ 变成奇异的,GaussNewton方法失效。另外当 x0 离极小点较远时,GaussNewton算法可能会发散。


总结以上,GaussNewton法一般求解步骤:
- step1:根据 (JTkJk)hgn=JTkfk ,求解迭代步长 hgn
- step2: xk+1=xk+hgn 进行新的迭代;
- step3:若 |F(xk+1)F(xk)|<ϵ ,其中 ϵ 足够小,则认为 F(x) 以收敛,则退出迭代,否则重复step1;

通常GaussNewton法收敛较快,但是不稳定。而最快下降法稳定,但是收敛较慢。所以接下来我们介绍GaussNewton和最快下降法混合法。


LM阻尼最小二乘法

GaussNewton法是用 (JTkJk)h=JTkfk 来确定 h ,现在假设在JTkJk对角线上元素都加上同一个数 u>0
(JTkJk+uI)h=JTkfk
这样即使当 JTkJk 奇异,只要 u 取得充分大,总能使(JTkJk+uI)正定,则 (JTkJk+uI)h=JTkfk 肯定有解。这个解依赖于 u ,记作hlm

u=0uhlmhgnGaussNewton.uIhlmJTkfkhlm=1uJTkfk.uhlm0

因此 u 起着使步长hlm缩短的或阻尼的作用,此即为阻尼最小二乘法。


那么LM阻尼最小二乘法实际迭代过程中怎样调整 u
假设h足够小,对 f(x+h) 一阶近似 f(x+h)ι(h)=f(x)+J(x)h
则对 F(x+h) 二阶近似,

F(x+h)L(h)=12f(x+h)Tf(x+h)=12fTf+hTJTf+12hTJTJh=F(x)+hTJTf+12hTJTJh

我们定义一个增益比 ρ=F(x)F(x+hlm)L(0)L(hlm)
在实际中,我们选择一阶近似、二阶近似并不是在所有定义域都满足的,而是在 [xϵ,x+ϵ] 作用域内满足这个近似条件。
ρ 较大时,表明 F(x+h) 的二阶近似 L(h) F(x+h) 更加接近于 F(x) ,因此二阶近似比较好,所以可以减小 u ,采用更大的迭代步长,接近GaussNewton法来更快收敛;
而当ρ较小时,表明采取的二阶近似较差,因此通过增大 u ,采用更小的步长,接近最快下降法来稳定的迭代。
一种比较好的阻尼系数u ρ 选择策略:
初始值 A0=J(x0)TJ(x0) u0=τmax{aii} v0=2 ,算法对 τ 取值不敏感, τ 可以取 106 103 或者1都可以。
{if ρ>0elseu:=umax{13,1(2ρ1)3}u:=uvv:=2;v:=2v;


总结以上,LM阻尼最小二乘法求解步骤:
- step1:初始化 u0=τmax{aii} v0=2
- step2:求解梯度 gk=JTkfk ,如果 gkϵ1 ,则退出,否则继续;
- step3:根据 (JTkJk+ukI)hlm=JTkfk ,求解迭代步长 hlm 。若 hlmϵ2(x+ϵ2) ,则退出迭代,否则继续;
- step4: xnew=xk+hlm ,计算增益比 ρ=F(xk)F(xnew)L(0)L(hlm)
如果 ρ>0 ,则 xk+1=xnew uk+1=ukmax{13,1(2ρ1)3} vk+1=2
否则 uk+1=ukvk vk+1=2vk 。重复step2;

对于 ϵ1 ϵ2 可以选取任意小的值如 1012 ,只是作为迭代的终止条件,其值得选取对最终的收敛结果影响不大。


Dog-Leg最小二乘法

另外一个GaussNewton和最快下降法混合方法是Dog-Leg法,代替阻尼项而是用trust region。
回到上面讲到最快下降法,下降方向 hsd=F(xk)=JTkfk ,但是步进多长呢?或者沿着这个方向步进多长能使得 F(x) 取得最大程度的下降呢?
假设 f(x+αhsd)f(x)+αJ(x)hsd

F(x+αhsd)=12f(x)+αJ(x)hsd2F(x)+αhTsdJ(x)Tf(x)+12α2J(x)hsd2

为使得 F(x+αhsd) 最小,对 α 求导,
α=hTsdJ(x)Tf(x)J(x)hsd2=g2J(x)g2

则如果GaussNewton法则 xk+1xk=hgn ;如果最快下降法则 xk+1xk=αhsd


继续trust region是什么呢?
trust region即为在 hΔ 范围内, F(x+h)=F(x)+hTJTf+12hTJTJh 能够较好的近似,因此不管我们在选择GaussNewton还是最快下降法,必须满足 hgnΔ αhsdΔ ,二阶近似才能较好成立。
然后继续,Dog-Leg迭代步长 hdl hgn αhsd Δ 有什么关系?

if hgnΔelse if αhsdΔelsehdl=hgnhdl=Δhsdhsdhdl=αhsd+β(hgnαhsd)β使hdl=Δ

hdl hgn αhsd Δ 关系示意图:
半径

和阻尼最小二乘法类似,实际中怎样更新trust region半径呢?
继续选择增益比 ρ=F(x)F(x+hdl)L(0)L(hdl)

{if ρ>0.75if ρ<0.25Δ:=max{Δ,3hdl}Δ:=Δ/2


总结以上,Dog-Leg最小二乘法求解步骤:
- step1:初始化 Δ0
- step2:求解梯度 gk=JTkfk ,如果 gkϵ1 ,则退出,否则继续。如果 f(xk)ϵ3 ,则退出,否则继续。
- step3:如果trust region半径 Δkϵ2(xk+ϵ2) ,则退出迭代;否则继续;
- step4:分别根据GaussNewton法和最快下降法计算 hgn hsd ,然后计算最快下降法的迭代步长 α=g2J(x)g2
- step5:根据 hgn hsd 和trust region半径 Δk ,来计算Dog-Leg步进值 hdl 。若 hdlϵ2(xk+ϵ2) ,则退出迭代;否则继续。
- step6: xnew=xk+hdl ,计算增益比 ρ=F(xk)F(xnew)L(0)L(hdl)

if ρ>0if ρ>0.75elseif ρ<0.25xk+1=xnewΔk+1=max{Δk3hdl}Δk+1=Δk/2

重复step2。

对于 ϵ1 ϵ2 ϵ3 可以选取任意小的值如 1012 ,只是作为迭代的终止条件,其值得选取对最终的收敛结果影响不大。


举例:

拟合 f(x)=Asin(Bx)+Ccos(Dx) ,假设4个参数已知A=5、B=1、C=10、D=2,构造100个随机数作为x的采样值,然后计算 f(x) 再在上面加一个随机扰动量作为观测值。然后,利用输入与输出,来反推四个参数。

Gauss Newton代码:

double func(const VectorXd& input, const VectorXd& output, const VectorXd& params, double objIndex)
{// obj = A * sin(Bx) + C * cos(D*x) - Fdouble x1 = params(0);double x2 = params(1);double x3 = params(2);double x4 = params(3);double t = input(objIndex);double f = output(objIndex);return x1 * sin(x2 * t) + x3 * cos( x4 * t) - f;
}//return vector make up of func() element.
VectorXd objF(const VectorXd& input, const VectorXd& output, const VectorXd& params)
{VectorXd obj(input.rows());for(int i = 0; i < input.rows(); i++)obj(i) = func(input, output, params, i);return obj;
}//F = (f ^t * f)/2
double Func(const VectorXd& obj)
{return obj.squaredNorm()/2;
}double Deriv(const VectorXd& input, const VectorXd& output, int objIndex, const VectorXd& params,int paraIndex)
{VectorXd para1 = params;VectorXd para2 = params;para1(paraIndex) -= DERIV_STEP;para2(paraIndex) += DERIV_STEP;double obj1 = func(input, output, para1, objIndex);double obj2 = func(input, output, para2, objIndex);return (obj2 - obj1) / (2 * DERIV_STEP);
}MatrixXd Jacobin(const VectorXd& input, const VectorXd& output, const VectorXd& params)
{int rowNum = input.rows();int colNum = params.rows();MatrixXd Jac(rowNum, colNum);for (int i = 0; i < rowNum; i++){for (int j = 0; j < colNum; j++){Jac(i,j) = Deriv(input, output, i, params, j);}}return Jac;
}void gaussNewton(const VectorXd& input, const VectorXd& output, VectorXd& params)
{int errNum = input.rows();      //error  numint paraNum = params.rows();    //parameter  numVectorXd obj(errNum);double last_sum = 0;int iterCnt = 0;while (iterCnt < MAX_ITER){obj = objF(input, output, params);double sum = 0;sum = Func(obj);cout << "Iterator index: " << iterCnt << endl;cout << "parameter: " << endl << params << endl;cout << "error sum: " << endl << sum << endl << endl;if (fabs(sum - last_sum) <= 1e-12)break;last_sum = sum;MatrixXd Jac = Jacobin(input, output, params);VectorXd delta(paraNum);delta = (Jac.transpose() * Jac).inverse() * Jac.transpose() * obj;params -= delta;iterCnt++;}
}

LM代码:

double maxMatrixDiagonale(const MatrixXd& Hessian)
{int max = 0;for(int i = 0; i < Hessian.rows(); i++){if(Hessian(i,i) > max)max = Hessian(i,i);}return max;
}//L(h) = F(x) + h^t*J^t*f + h^t*J^t*J*h/2
//deltaL = h^t * (u * h - g)/2
double linerDeltaL(const VectorXd& step, const VectorXd& gradient, const double u)
{double L = step.transpose() * (u * step - gradient);return L/2;
}void levenMar(const VectorXd& input, const VectorXd& output, VectorXd& params)
{int errNum = input.rows();      //error numint paraNum = params.rows();    //parameter num//initial parameter VectorXd obj = objF(input,output,params);MatrixXd Jac = Jacobin(input, output, params);  //jacobinMatrixXd A = Jac.transpose() * Jac;             //HessianVectorXd gradient = Jac.transpose() * obj;      //gradient//initial parameter tao v epsilon1 epsilon2double tao = 1e-3;long long v = 2;double eps1 = 1e-12, eps2 = 1e-12;double u = tao * maxMatrixDiagonale(A);bool found = gradient.norm() <= eps1;if(found) return;double last_sum = 0;int iterCnt = 0;while (iterCnt < MAX_ITER){VectorXd obj = objF(input,output,params);MatrixXd Jac = Jacobin(input, output, params);  //jacobinMatrixXd A = Jac.transpose() * Jac;             //HessianVectorXd gradient = Jac.transpose() * obj;      //gradientif( gradient.norm() <= eps1 ){cout << "stop g(x) = 0 for a local minimizer optimizer." << endl;break;}cout << "A: " << endl << A << endl; VectorXd step = (A + u * MatrixXd::Identity(paraNum, paraNum)).inverse() * gradient; //negtive Hlm.cout << "step: " << endl << step << endl;if( step.norm() <= eps2*(params.norm() + eps2) ){cout << "stop because change in x is small" << endl;break;} VectorXd paramsNew(params.rows());paramsNew = params - step; //h_lm = -step;//compute f(x)obj = objF(input,output,params);//compute f(x_new)VectorXd obj_new = objF(input,output,paramsNew);double deltaF = Func(obj) - Func(obj_new);double deltaL = linerDeltaL(-1 * step, gradient, u);double roi = deltaF / deltaL;cout << "roi is : " << roi << endl;if(roi > 0){params = paramsNew;u *= max(1.0/3.0, 1-pow(2*roi-1, 3));v = 2;}else{u = u * v;v = v * 2;}cout << "u = " << u << " v = " << v << endl;iterCnt++;cout << "Iterator " << iterCnt << " times, result is :" << endl << endl;}
}

Dog-Leg代码:

void dogLeg(const VectorXd& input, const VectorXd& output, VectorXd& params)
{int errNum = input.rows();      //error numint paraNum = params.rows();    //parameter numVectorXd obj = objF(input, output, params);MatrixXd Jac = Jacobin(input, output, params);  //jacobinVectorXd gradient = Jac.transpose() * obj;      //gradient//initial parameter tao v epsilon1 epsilon2double eps1 = 1e-12, eps2 = 1e-12, eps3 = 1e-12;double radius = 1.0;bool found  = obj.norm() <= eps3 || gradient.norm() <= eps1;if(found) return;double last_sum = 0;int iterCnt = 0;while(iterCnt < MAX_ITER){VectorXd obj = objF(input, output, params);MatrixXd Jac = Jacobin(input, output, params);  //jacobinVectorXd gradient = Jac.transpose() * obj;      //gradientif( gradient.norm() <= eps1 ){cout << "stop F'(x) = g(x) = 0 for a global minimizer optimizer." << endl;break;}if(obj.norm() <= eps3){cout << "stop f(x) = 0 for f(x) is so small";break;}//compute how far go along stepest descent direction.double alpha = gradient.squaredNorm() / (Jac * gradient).squaredNorm();//compute gauss newton step and stepest descent step.VectorXd stepest_descent = -alpha * gradient;VectorXd gauss_newton = (Jac.transpose() * Jac).inverse() * Jac.transpose() * obj * (-1);double beta = 0;//compute dog-leg step.VectorXd dog_leg(params.rows());if(gauss_newton.norm() <= radius)dog_leg = gauss_newton;else if(alpha * stepest_descent.norm() >= radius)dog_leg = (radius / stepest_descent.norm()) * stepest_descent;else{VectorXd a = alpha * stepest_descent;VectorXd b = gauss_newton;double c = a.transpose() * (b - a);beta = (sqrt(c*c + (b-a).squaredNorm()*(radius*radius-a.squaredNorm()))-c)/(b-a).squaredNorm();dog_leg = alpha * stepest_descent + beta * (gauss_newton - alpha * stepest_descent);}cout << "dog-leg: " << endl << dog_leg << endl;if(dog_leg.norm() <= eps2 *(params.norm() + eps2)){cout << "stop because change in x is small" << endl;break;}VectorXd new_params(params.rows());new_params = params + dog_leg;cout << "new parameter is: " << endl << new_params << endl;//compute f(x)obj = objF(input,output,params);//compute f(x_new)VectorXd obj_new = objF(input,output,new_params);//compute delta F = F(x) - F(x_new)double deltaF = Func(obj) - Func(obj_new);//compute delat L =L(0)-L(dog_leg)double deltaL = 0;if(gauss_newton.norm() <= radius)deltaL = Func(obj);else if(alpha * stepest_descent.norm() >= radius)deltaL = radius*(2*alpha*gradient.norm() - radius)/(2.0*alpha);else{VectorXd a = alpha * stepest_descent;VectorXd b = gauss_newton;double c = a.transpose() * (b - a);beta = (sqrt(c*c + (b-a).squaredNorm()*(radius*radius-a.squaredNorm()))-c)/(b-a).squaredNorm();deltaL = alpha*(1-beta)*(1-beta)*gradient.squaredNorm()/2.0 + beta*(2.0-beta)*Func(obj);}double roi = deltaF / deltaL;if(roi > 0){params = new_params;}if(roi > 0.75){radius = max(radius, 3.0 * dog_leg.norm());}else if(roi < 0.25){radius = radius / 2.0;if(radius <= eps2*(params.norm()+eps2)){cout << "trust region radius is too small." << endl;break;}}cout << "roi: " << roi << " dog-leg norm: " << dog_leg.norm() << endl;cout << "radius: " << radius << endl;iterCnt++;cout << "Iterator " << iterCnt << " times" << endl << endl;}
}

main()

#include <eigen3/Eigen/Dense>
#include <eigen3/Eigen/Sparse>
#include <iostream>
#include <iomanip>
#include <math.h>using namespace std;
using namespace Eigen;const double DERIV_STEP = 1e-5;
const int MAX_ITER = 100;#define max(a,b) (((a)>(b))?(a):(b))int main(int argc, char* argv[])
{// obj = A * sin(Bx) + C * cos(D*x) - F//there are 4 parameter: A, B, C, D.int num_params = 4;//generate random data using these parameterint total_data = 100;VectorXd input(total_data);VectorXd output(total_data);double A = 5, B= 1, C = 10, D = 2;//load observation datafor (int i = 0; i < total_data; i++){//generate a random variable [-10 10]double x = 20.0 * ((random() % 1000) / 1000.0) - 10.0;double deltaY = 2.0 * (random() % 1000) /1000.0;double y = A*sin(B*x)+C*cos(D*x) + deltaY;input(i) = x;output(i) = y;}//gauss the parametersVectorXd params_gaussNewton(num_params);//init gaussparams_gaussNewton << 1.6, 1.4, 6.2, 1.7;VectorXd params_levenMar = params_gaussNewton;VectorXd params_dogLeg   = params_gaussNewton;gaussNewton(input, output, params_gaussNewton);levenMar(input, output, params_levenMar);dogLeg(input, output, params_dogLeg);cout << "gauss newton parameter: " << endl << params_gaussNewton << endl << endl << endl;cout << "Levenberg-Marquardt parameter: " << endl << params_levenMar << endl << endl << endl;cout << "dog-leg parameter: " << endl << params_dogLeg << endl << endl << endl;
}

least square
通常对于GaussNewton、LM、Dog-Leg,如果初始化的参数离真实值较近时,这三种方法都能收敛到真实值,而像例子中初始化参数 [1.6,1.4,6.2,1.7]T 与真实参数 [5,1,10,2]T 差距较大时,最后收敛的结果与真实值有一定的偏差。因为最小二乘法依赖于初始化参数,最后收敛的只能保证是一个极值点,但是不能保证是全局最优点,图中可以看到LM、Dog-Leg收敛的结果明显优于GaussNewton。


F
三种方法收敛过程中F值变化,可以看到LM、Dog-Leg收敛的结果明显优于GaussNewton。GaussNewton收敛过程中出现明显来回振荡,Dog-Leg最为平稳,LM收敛过程中出现三个阶段。


LM
阻尼最小二乘法收敛过程中, Fgu 的变化,可以看到在前5次迭代过程中,基本上GaussNewton方向占主导,但是 F 却出现略微增大情况,ρ<0二阶近似较差,导致阻尼系数迅速增大,纠正步进方向为最快下降法方向。


Dog-Leg
Dog-Leg收敛过程中trust region半径在不断改变,直到最后收敛后趋近于0。可以看到 radius 随着 ρ 增大而增大,而当 ρ 趋近于0时 radius 也收敛到0。


总结以上:

最小二乘法优化后结果依赖于初始值的选取,LM、Dog-Leg收敛结果明显好于GaussNewton。LM、Dog-Leg通常能够达到同样的收敛精度,综合来看Dog-Leg略优于LM。

这篇关于非线性最小二乘法之Gauss Newton、L-M、Dog-Leg的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/679139

相关文章

poj 1258 Agri-Net(最小生成树模板代码)

感觉用这题来当模板更适合。 题意就是给你邻接矩阵求最小生成树啦。~ prim代码:效率很高。172k...0ms。 #include<stdio.h>#include<algorithm>using namespace std;const int MaxN = 101;const int INF = 0x3f3f3f3f;int g[MaxN][MaxN];int n

poj 1287 Networking(prim or kruscal最小生成树)

题意给你点与点间距离,求最小生成树。 注意点是,两点之间可能有不同的路,输入的时候选择最小的,和之前有道最短路WA的题目类似。 prim代码: #include<stdio.h>const int MaxN = 51;const int INF = 0x3f3f3f3f;int g[MaxN][MaxN];int P;int prim(){bool vis[MaxN];

poj 2349 Arctic Network uva 10369(prim or kruscal最小生成树)

题目很麻烦,因为不熟悉最小生成树的算法调试了好久。 感觉网上的题目解释都没说得很清楚,不适合新手。自己写一个。 题意:给你点的坐标,然后两点间可以有两种方式来通信:第一种是卫星通信,第二种是无线电通信。 卫星通信:任何两个有卫星频道的点间都可以直接建立连接,与点间的距离无关; 无线电通信:两个点之间的距离不能超过D,无线电收发器的功率越大,D越大,越昂贵。 计算无线电收发器D

poj 1734 (floyd求最小环并打印路径)

题意: 求图中的一个最小环,并打印路径。 解析: ans 保存最小环长度。 一直wa,最后终于找到原因,inf开太大爆掉了。。。 虽然0x3f3f3f3f用memset好用,但是还是有局限性。 代码: #include <iostream>#include <cstdio>#include <cstdlib>#include <algorithm>#incl

hdu 1102 uva 10397(最小生成树prim)

hdu 1102: 题意: 给一个邻接矩阵,给一些村庄间已经修的路,问最小生成树。 解析: 把已经修的路的权值改为0,套个prim()。 注意prim 最外层循坏为n-1。 代码: #include <iostream>#include <cstdio>#include <cstdlib>#include <algorithm>#include <cstri

poj 2175 最小费用最大流TLE

题意: 一条街上有n个大楼,坐标为xi,yi,bi个人在里面工作。 然后防空洞的坐标为pj,qj,可以容纳cj个人。 从大楼i中的人到防空洞j去避难所需的时间为 abs(xi - pi) + (yi - qi) + 1。 现在设计了一个避难计划,指定从大楼i到防空洞j避难的人数 eij。 判断如果按照原计划进行,所有人避难所用的时间总和是不是最小的。 若是,输出“OPETIMAL",若

poj 2135 有流量限制的最小费用最大流

题意: 农场里有n块地,其中约翰的家在1号地,二n号地有个很大的仓库。 农场有M条道路(双向),道路i连接着ai号地和bi号地,长度为ci。 约翰希望按照从家里出发,经过若干块地后到达仓库,然后再返回家中的顺序带朋友参观。 如果要求往返不能经过同一条路两次,求参观路线总长度的最小值。 解析: 如果只考虑去或者回的情况,问题只不过是无向图中两点之间的最短路问题。 但是现在要去要回

poj 3422 有流量限制的最小费用流 反用求最大 + 拆点

题意: 给一个n*n(50 * 50) 的数字迷宫,从左上点开始走,走到右下点。 每次只能往右移一格,或者往下移一格。 每个格子,第一次到达时可以获得格子对应的数字作为奖励,再次到达则没有奖励。 问走k次这个迷宫,最大能获得多少奖励。 解析: 拆点,拿样例来说明: 3 2 1 2 3 0 2 1 1 4 2 3*3的数字迷宫,走两次最大能获得多少奖励。 将每个点拆成两个

poj 2195 bfs+有流量限制的最小费用流

题意: 给一张n * m(100 * 100)的图,图中” . " 代表空地, “ M ” 代表人, “ H ” 代表家。 现在,要你安排每个人从他所在的地方移动到家里,每移动一格的消耗是1,求最小的消耗。 人可以移动到家的那一格但是不进去。 解析: 先用bfs搞出每个M与每个H的距离。 然后就是网络流的建图过程了,先抽象出源点s和汇点t。 令源点与每个人相连,容量为1,费用为

poj 3068 有流量限制的最小费用网络流

题意: m条有向边连接了n个仓库,每条边都有一定费用。 将两种危险品从0运到n-1,除了起点和终点外,危险品不能放在一起,也不能走相同的路径。 求最小的费用是多少。 解析: 抽象出一个源点s一个汇点t,源点与0相连,费用为0,容量为2。 汇点与n - 1相连,费用为0,容量为2。 每条边之间也相连,费用为每条边的费用,容量为1。 建图完毕之后,求一条流量为2的最小费用流就行了