全国服务热线:

15861139266

机器学习和计算机视觉的双层优化入门,苏州PLC培训,苏州上位机培训,苏州机器视觉培训,苏州工业机器人培训
发布时间:2023-05-08 10:01:05 点击次数:386

机器学习和计算机视觉的双层优化入门

运行示例:加载数据


import boml

from boml import utils

from test_script.script_helper import *


dataset = boml.load_data.meta_omniglot(

    std_num_classes=args.classes,

    examples_train=args.examples_train,

    examples_test=args.examples_test,

)

# create instance of BOMLExperiment for ong single task

ex = boml.BOMLExperiment(dataset)

为meta-learner和base-learner建立网络结构和定义参数


boml_ho = boml.BOMLOptimizer(

    method="MetaInit", inner_method="Simple", outer_method="Simple"

)

meta_learner = boml_ho.meta_learner(_input=ex.x, dataset=dataset, meta_model="V1")

ex.model = boml_ho.base_learner(_input=ex.x, meta_learner=meta_learner)

定义LL(Lower-Level低层策略)的目标和计算流程


loss_inner = utils.cross_entropy(pred=ex.model.out, label=ex.y)

accuracy = utils.classification_acc(pred=ex.model.out, label=ex.y)

inner_grad = boml_ho.ll_problem(

    inner_objective=loss_inner,

    learning_rate=args.lr,

    T=args.T,

    experiment=ex,

    var_list=ex.model.var_list,

)

定义UL(Upper-Level高层策略)的目标和计算流程


loss_outer = utils.cross_entropy(pred=ex.model.re_forward(ex.x_).out, label=ex.y_) # loss function

boml_ho.ul_problem(

    outer_objective=loss_outer,

    meta_learning_rate=args.meta_lr,

    inner_grad=inner_grad,

    meta_param=tf.get_collection(boml.extension.GraphKeys.METAPARAMETERS),

)

汇总上述定义的所有操作


# Only need to be called once after all the tasks are ready

boml_ho.aggregate_all()

元训练的迭代(iteration)


#注意,元学习训练一般是先训练搜索网络架构(也就是训练架构参数),

#之后用搜索完成的网络重新训练模型参数,

#这里的训练是指第一步训练架构参数(也就是元参数或者称为与网络架构相关的超参数)

with tf.Session() as sess:

    tf.global_variables_initializer().run(session=sess)

    for itr in range(args.meta_train_iterations):

        # Generate the feed_dict for calling run() everytime

        train_batch = BatchQueueMock(

            dataset.train, 1, args.meta_batch_size, utils.get_rand_state(1)

        )

        tr_fd, v_fd = utils.feed_dict(train_batch.get_single_batch(), ex)

        # Meta training step

        boml_ho.run(tr_fd, v_fd)

        if itr % 100 == 0:

            print(sess.run(loss_inner, utils.merge_dicts(tr_fd, v_fd)))

包含的算法列表:

看原文吧:代码链接


2.3、汉语版:对BLO(Bi-Level Optimization)双层优化的快速教程,也是论文1的快速说明

介绍:

双层优化(BLO)起源于经济博弈论,后来被引入到优化中。双层优化能够处理具有两层结构的问题,两层结构对应两个子任务,其中一个子任务嵌套在另一个子任务中。标准的双层优化问题可以正式的写成如下形式:



双层优化问题

在机器学习和计算机视觉领域的科研方向(或者称为科研问题)中,如超参数优化、多任务和元学习、神经结构搜索、对抗性学习和深度强化学习等,虽然看起来区别很大,但是都可以用双层优化将他们统一成为一个科研方向,也就是说这些算法可以看作是双层优化算法,这正是论文Investigating Bi-Level Optimization for Learning and Vision from a Unified Perspective: A Survey and Beyond的核心思想。此外,此文还创建了一个基于最佳响应的单级重构(best-response-based single-level reformulation),并创建了一个统一的算法框架,以理解和制定主流的基于梯度的双层优化方法,涵盖从基本的自动微分方案到各种加速、简化、扩展及其收敛性和复杂性等。我们总结了主流的基于梯度的双层优化算法,并在论文代码中说明了这些算法之间的内在关系。此文还说明了统一的算法框架对创建新的双层优化算法可以起到极其巨大的作用,并指出了未来研究的一些有希望的方向。



对各种基于梯度的双层优化算法的内在关系的解释图

论文说明总结了我们的相关进展和现有作品的参考资料,以便于快速了解基于梯度的双层优化的发展情况。此外,论文说明还提供了本次调查中讨论的重要论文列表、相应的代码以及有关双层优化的其他资源。论文说明将继续维护该网站,以促进双层优化领域的研究。






1.png


立即咨询
  • 品质服务

    服务贴心周到

  • 快速响应

    全天24小时随时沟通

  • 专业服务

    授权率高,保密性强

  • 完善售后服务

    快速响应需求,及时性服务

直播课程
软件开发基础课程
上位机软件开发课
机器视觉软件开发课
专题课
联系方式
电话:15861139266
邮箱:75607082@qq.com
地址:苏州吴中区木渎镇尧峰路69号
关注我们

版权所有:江苏和讯自动化设备有限公司所有 备案号:苏ICP备2022010314号-1

技术支持: 易动力网络