深度学习总结(2016.9--2016.10)

2024-03-14 15:18

本文主要是介绍深度学习总结(2016.9--2016.10),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

原本的打算是参加上海Bot大赛,在比赛中学习一下相关知识,就是想入门而已。开学半个月一直没找到状态,只是上上课。后来在师兄的帮助下,开始逐渐着手比赛的事情,虽然最终没有赶上在比赛截至前提交一版测试。但学了不少,不亏!

大致记录一下这一个月做的事情:

keras篇

  • win10下先配置keras,看keras文档,用theano后端跑了mnsit数据集,Dogs and Cats 数据集
  • 熟悉keras后,搭VGG16网络,加载全连接层之前的参数,自带函数无法做到
  • 加载部分参数,花了很久的时间才搞定,最终,强行一层一层的加载,全链接层用[-0.1,0.1]随机数,过程中学习了.h5文件的写入和读取
  • 重载参数参数后用数据集训练模型,但acc数值一直和瞎猜的一样,三类的话,acc就是0.33,同时loss在一个epoch后,数值上升,并且保持不变!!!一直都不变!!!(过了一个月,发现是lr太高了,把lr调低模型就开始收敛了)找了很久没有找到原因,一方面是知识匮乏,一方面keras封装的太高层了,完全看不到实现细节,最终放弃keras,转向了caffe。

caffe篇

  • win10下一晚上配好了caffe的cpu版本和gpu版本,感觉比keras好配置多了。查了资料学习如何使用,还是mnist入手,结果全是命令行一脸懵逼,好在搞清楚后确实方便很多,一行代码都没写,就是转数据成lmdb,设置各种路径,速度caffe确实比theano快,只不过命令行显示信息不如keras好看
  • 会用caffe后,改VGG16模型,重载参数,最后一层全连接层(fc3层)随机初始化参数,fc1和fc2层重载参数并小lr更新,fc3层大lr更新,一切顺利,训练了6个epoch后top1命中0.8,top5命中0.95
  • 想办法提高acc,之后就做了很多实验,如下:
  • 师兄说试试增加数据量,全连接层参数全部随机初始化,只训练最后三层。
  • 增加数据量方法:先保持长宽比调整原图片最短边为256,用边长224的正方形对图片进行crop,四个角+正中间,再左右反转,总共10张(原本还有旋转等,但一算扩大了134倍,有4T数据,放不下,就先扩大10倍)
  • train_set有12W张图片,大小12G,扩充数据花了4个小时,扩充后大小25G,再转成lmdb格式,用时10小时,大小260G。
  • 最后3层全连接层随机初始化参数,用260G数据训练30个epoch后准确率acc : 0.755080465171,比之前的还差…………

  • 就开始找原因,先后做了很多实验(以下实验结果所用模型为120W数据训练最后三层fc层,30epoch所得的模型):

    • 实验1:从train集合中抽出100张进行预测,统计acc,score=0.96
      这里写图片描述

    • 实验2:测试时,将测试图片直接压缩到224*224进行测试,统计acc=0.797251262775(这种方法acc比实验3的acc高)

    • 实验3:测试时,将每张测试图片保持长宽比调整到最短边为256,对四个角+中心用224*224大小的正方形进行crop,用crop出来的5个图片分别进行预测,将5个小图片预测出来的置信度对应相加再除以5(保证总的置信度为1),取置信度最高的类别为预测出来的类别,统计acc=0.755080465171

    • 实验4:结合实验2和实验3,将实验2和3预测出的置信度对应相加,平均,以计算出来的置信度为最终置信度,取最高为预测类别,统计acc=0.814049101374(这种方法准确率最高)

    • 实验5:做一个12*12的表格,行数表示真实的图片类别,列表示预测的类别,统计每种情况的图片数量(贴一个120W张图片30个epoch模型的结果)

      predict_pic_labels_32_use_mix_30_epoch_probability_12
      -calculate score test score:0.843392458593 pics:8513  time: 6.904585 s
      top 1 count_num: 6930 sum_num: 8513 acc : 0.814049101374
      test   table is :
      [ 989    3    0    0   15    1   16    4    3    4    1   10]
      [  23  476    7    4   12    3   32   63    7   13    3   38]
      [   3    5  605    3    3   21   12    1   63   96    7   10]
      [  13   13   13  632   17   66   23    7    3   12   15   22]
      [  15    1    2   12  886   34   30    6   18   22    7   11]
      [  13    5   10   17   20  341   22    3    7   29   17   11]
      [  10    6    2    6   21    3 1096    8    5    0    2    7]
      [  15   55    3    3    4    9   19  284    7   10    2   13]
      [  16    0   20    0   11    3   25    3  846   18    3    7]
      [  16    0   17    0    9    6    8    3    5   91    3   10]
      [   0    3    1    7    7   29   11    1    9   35  449    5]
      [   6   14    7   11    3    8   10    4    4    8    4  236]
      
    • 实验6:将test集合中错误分类的图片按类别输出,观察被分错的图片都有神马特点(发现大部分是动画图片)

      test_wrong_pic_6(cat)real_animaltoy_model _animalcartoon_animal
      sum_num=38813616236
      percent36%4%60%
    • 实验7:随机从train集合和test集合中抽出500张图片,分别人眼统计真实动物图片数量、玩具模型动物图片数量、动画动物图片数量
      train集合12W张图片,结果:

      train_set_12Wreal_animaltoy_model _animalcartoon_animal
      train_set_500_149802
      train_set_500_249604
      train_set_500_349316
      percent99.13%0.07%0.8%

      test集合8513张图片,结果:

      test_set_8513real_animaltoy_model _animalcartoon_animal
      test_set_500_14191071
      test_set_500_24961268
      percent84%2%14%
    • 实验8:从test集合中分别拿100张真实动物图片、玩具模型动物图和动画动物图片,进行测试统计acc

      test_set_100real_animaltoy_model _animalcartoon_animal
      acc84%52%35%
    • 结论:综合实验6、实验7和实验8,acc不高的主要原因就是训练集中卡通图片几乎没有,测试集中出现了许多卡通图片。次要原因是细粒度分类效果不好,实验1的结果就可以看出。
  • 接下来的工作就是两个方向,一个细粒度分类,一个domain transfer,师兄讲先看看domain transfer方面的论文吧

这篇关于深度学习总结(2016.9--2016.10)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/808825

相关文章

Python中logging模块用法示例总结

《Python中logging模块用法示例总结》在Python中logging模块是一个强大的日志记录工具,它允许用户将程序运行期间产生的日志信息输出到控制台或者写入到文件中,:本文主要介绍Pyt... 目录前言一. 基本使用1. 五种日志等级2.  设置报告等级3. 自定义格式4. C语言风格的格式化方法

深度解析Python中递归下降解析器的原理与实现

《深度解析Python中递归下降解析器的原理与实现》在编译器设计、配置文件处理和数据转换领域,递归下降解析器是最常用且最直观的解析技术,本文将详细介绍递归下降解析器的原理与实现,感兴趣的小伙伴可以跟随... 目录引言:解析器的核心价值一、递归下降解析器基础1.1 核心概念解析1.2 基本架构二、简单算术表达

深度解析Java @Serial 注解及常见错误案例

《深度解析Java@Serial注解及常见错误案例》Java14引入@Serial注解,用于编译时校验序列化成员,替代传统方式解决运行时错误,适用于Serializable类的方法/字段,需注意签... 目录Java @Serial 注解深度解析1. 注解本质2. 核心作用(1) 主要用途(2) 适用位置3

Spring 依赖注入与循环依赖总结

《Spring依赖注入与循环依赖总结》这篇文章给大家介绍Spring依赖注入与循环依赖总结篇,本文通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友参考下吧... 目录1. Spring 三级缓存解决循环依赖1. 创建UserService原始对象2. 将原始对象包装成工

Java MCP 的鉴权深度解析

《JavaMCP的鉴权深度解析》文章介绍JavaMCP鉴权的实现方式,指出客户端可通过queryString、header或env传递鉴权信息,服务器端支持工具单独鉴权、过滤器集中鉴权及启动时鉴权... 目录一、MCP Client 侧(负责传递,比较简单)(1)常见的 mcpServers json 配置

Maven中生命周期深度解析与实战指南

《Maven中生命周期深度解析与实战指南》这篇文章主要为大家详细介绍了Maven生命周期实战指南,包含核心概念、阶段详解、SpringBoot特化场景及企业级实践建议,希望对大家有一定的帮助... 目录一、Maven 生命周期哲学二、default生命周期核心阶段详解(高频使用)三、clean生命周期核心阶

深度剖析SpringBoot日志性能提升的原因与解决

《深度剖析SpringBoot日志性能提升的原因与解决》日志记录本该是辅助工具,却为何成了性能瓶颈,SpringBoot如何用代码彻底破解日志导致的高延迟问题,感兴趣的小伙伴可以跟随小编一起学习一下... 目录前言第一章:日志性能陷阱的底层原理1.1 日志级别的“双刃剑”效应1.2 同步日志的“吞吐量杀手”

MySQL中查询和展示LONGBLOB类型数据的技巧总结

《MySQL中查询和展示LONGBLOB类型数据的技巧总结》在MySQL中LONGBLOB是一种二进制大对象(BLOB)数据类型,用于存储大量的二进制数据,:本文主要介绍MySQL中查询和展示LO... 目录前言1. 查询 LONGBLOB 数据的大小2. 查询并展示 LONGBLOB 数据2.1 转换为十

Unity新手入门学习殿堂级知识详细讲解(图文)

《Unity新手入门学习殿堂级知识详细讲解(图文)》Unity是一款跨平台游戏引擎,支持2D/3D及VR/AR开发,核心功能模块包括图形、音频、物理等,通过可视化编辑器与脚本扩展实现开发,项目结构含A... 目录入门概述什么是 UnityUnity引擎基础认知编辑器核心操作Unity 编辑器项目模式分类工程

深度解析Python yfinance的核心功能和高级用法

《深度解析Pythonyfinance的核心功能和高级用法》yfinance是一个功能强大且易于使用的Python库,用于从YahooFinance获取金融数据,本教程将深入探讨yfinance的核... 目录yfinance 深度解析教程 (python)1. 简介与安装1.1 什么是 yfinance?