Inverse Optimization: Theory and Applications

2024-01-17 08:52

本文主要是介绍Inverse Optimization: Theory and Applications,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

一、介绍逆优化问题基本概念

传统优化问题是给定目标函数和约束,求最优决策。而逆优化问题是给定一组决策,求使这组决策成为最优决策的目标函数和/或约束条件。两类问题的思路正好相反。

传统优化问题由下述组成:

  1. 决策变量空间X
  2. 目标函数f(x),用于衡量不同决策的优劣
  3. 约束集g(x)≤0,限制决策选择范围
  4. 目标是求解min f(x),使其满足约束条件得到最优决策x*

而逆优化问题给出的是一个组决策{xi},目标是求解什么样的目标函数f'(x)和约束g'(x)≤0,可以使给出的决策集成为最优决策。

二、逆优化问题分类标准

  1. 前向问题结构分类
    视前向问题是否线性、整数规划、凸规划等进行分类,这将决定逆优化问题的表述和算法。

  2. 参数类型分类
    参数是否在目标函数参数或约束条件参数,一般分类讨论一个参数类型。

  3. 模型与数据匹配程度
    是否严格要求模型完全匹配观测数据,如果不匹配采用何种损失函数来衡量程度,从而将问题形式化。

基于这三个维度,文章给出经典逆优化和基于数据的逆优化两个分类。

三、经典逆优化问题算法

  1. 线性模型变形利用对偶理论及KKT条件将问题线性化成单层线性规划

  2. 整数规划模型采用切分算法逐步紧逼逆可行解空间

  3. 序贯决策模型用动态规划方法求解

  4. 网络流模型利用网络流对偶性条件解偶问题

  5. 凸规划模型利用对偶理论和KKT条件的凸 relax技巧

给出了不同模型下详细的问题变形和算法描述。

四、基于数据的逆优化问题形式

不再强求完全匹配,而是加入损失函数来衡量匹配程度的程详细。典型地,损失函数可以体现匹配程度,模型风险等成分。从而将问题整合成一个风险最小化问题来求解。

五、大规模问题学习方法

  1. 在线学习考虑数据顺序,以增量方式迭代学习

  2. 强化学习用于大规模动态决策问题

  3. 神经网络学习深入挖掘数据模式等方法

六、应用分类

  1. 设计型问题如交通控制、医疗激励等

  2. 估计型问题如能源需求学习、人性偏好提取等

  3. 混合型问题学习和设计兼备等

七、典型应用领域详解

给出了交通、物流、医疗、能源等各个领域的详细应用案例,阐述了逆优化在这些领域解决什么问题和取得什么成效。

这篇关于Inverse Optimization: Theory and Applications的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/615505

相关文章

【Derivation】Convex Optimization

Separation theorems and supporting hyperplanes(分离定理与支撑超平面)        Inner and outer polyhedral approximations.(内部与外部多面体逼近)        Let C belongs to Rn be a closed convex set.and suppose that x1,...xk a

LEAN 类型理论之注解(Annotations of LEAN Type Theory)—— 定义上相等(Definitional Equality)

定义上相等(Definitional Equality)指的是意义上相等,即同义,包括了,定义的缩写(Abbreviatory Definition),alpha转换,相同替代(substituting equals for equals)等。下面是LEAN给定的何谓 定义上相等。          注:罗列的推演规则中,如自明其义的,则不多加解析其前提、结果、或特定注解。

[论文笔记]Circle Loss: A Unified Perspective of Pair Similarity Optimization

引言 为了理解CoSENT的loss,今天来读一下Circle Loss: A Unified Perspective of Pair Similarity Optimization。 为了简单,下文中以翻译的口吻记录,比如替换"作者"为"我们"。 这篇论文从对深度特征学习的成对相似度优化角度出发,旨在最大化同类之间的相似度 s p s_p s

day58-graph theory-part08-8.29

tasks for today: 1. 拓扑排序 117.软件构建 2. dijkstra算法 47.参加科学大会 --------------------------------------------------------------------------------- 1. 拓扑排序 117.软件构建 In this practice, it involves mainly t

深入理解DPO(Direct Preference Optimization)算法

目录 1. 什么是DPO?2. Bradley-Terry模型2.1 奖励模型的训练 3. 从PPO到DPO4. DPO的简单实现5. 梯度分析Ref 1. 什么是DPO? 直接偏好优化(Direct Preference Optimization, DPO)是一种不需要强化学习的对齐算法。由于去除了复杂的强化学习算法,DPO 可以通过与有监督微调(SFT)相似的复杂度实现模型对

day57-graph theory-part07-8.28

tasks for today: 1. prim算法 53.寻宝 2. kruskal算法 53.寻宝 ---------------------------------------------------------------------------- 1. prim算法 53.寻宝 In this practice, we see how prim algorithm is use

论文速览【LLM】 —— 【ORLM】Training Large Language Models for Optimization Modeling

标题:ORLM: Training Large Language Models for Optimization Modeling文章链接:ORLM: Training Large Language Models for Optimization Modeling代码:Cardinal-Operations/ORLM发表:2024领域:使用 LLM 解决运筹优化问题 摘要:得益于大型语言模型

day56-graph theory-part06-8.26

tasks for today: 1. 108.冗余连接 2. 109.冗余连接II --------------------------------------------------------------------------------- 1. 108.冗余连接 in this practice, there is a rule needed to be identified:

Introduction to linear optimization 第二章全部课后题答案

费了好长时间,终于把这本经典理论教材第二章的课后题做完了。大部分都是证明题,很多都是比较有难度的。 不少题我参考了网上找到的一些资料的思路,但是有一些题目我觉得这些网上找到的答案也不太好,自己修正完善了下,少部分题目自己独立完成。 我把答案放在一个 Jupyter book 上,见链接:第二章答案

2013年北京师范大学新生程序设计竞赛网络赛--D. Number theory

D. Number theory Time Limit: 1000ms Case Time Limit: 1000ms Memory Limit: 65536KB 64-bit integer IO format:  %lld      Java class name:  Main Submit  Status  PID: 34055 Font Size: