Deep_Learning_readme

2024-03-23 10:52
文章标签 deep learning readme

本文主要是介绍Deep_Learning_readme,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

本文目录

  • 1.环境安装
  • 2. A1-1实验:
  • 3. A1-2实验:
  • 4. A1-3实验 :
  • **5. A2-CNN实验**
  • **6. A3-RNN实验**

!!!!!!!!提示:全程路径和环境名字不要出现中文及中文符号若安装过程出现错误,大家将错误信息复制到百度查询解决即可!!!!!!!!!!

1.环境安装

首先进行环境的安装,推荐安装Anaconda,Anaconda中包含了conda等180多个科学包及其依赖项。其中conda则是一个开源的软件包管理系统和环境管理系统,用于安装多个版本的软件包及其依赖关系,并在它们之间轻松切换。方便我们进行环境管理。
大家根据自己系统,按照下面博文进行安装就行。
Anaconda安装与Python虚拟环境配置保姆级图文教程
若安装过程出现错误,大家将错误信息复制到百度查询解决即可。一直到下面这一步就行,后面的步骤不用做。

其中的test可以自拟(不要中文),其为环境变量名
end接下来开始实验部分讲解。

2. A1-1实验:

首先将老师给的文件夹解压,并打开Jupyter Notebook (Anaconda3)在这里插入图片描述
进入之后是个网页,点击右上角upload
在这里插入图片描述
将老师给的A1-1.ipynb文件导入,然后运行代码即可。

3. A1-2实验:

进行A1-2实验之前,我们需要安装torch这个库。首先打开这个终端
在这里插入图片描述
输入指令

conda activate test

推荐博文
在anaconda下安装pytorch + python3.8+GPU/CPU版本 详细教程

由于部分同学电脑没有显卡,且各个同学系统也不一致,因此大家根据需求安装GPU 或CPU版本即可。CPU安装过程较简单,GPU安装过程较繁琐。
我们均从博文的第五小节开始操作,因为前面流程我们已经配置完成。
在这里插入图片描述
其中的pytorch_38就是我们的test环境。根据自己配置的名字来就行。torch安装完成后,我们按照A1-1的步骤将其导入Jupyter Notebook运行即可。

4. A1-3实验 :

由于本实验还需要tensorflow,torchvision以及timeit这3个库,因此我们需要进行安装。
打开终端,
对于CPU版本的同学我们分别执行以下命令:

pip install torchvisionpip install timeitpip install tensorflow==2.3.1 -i https://pypi.tuna.tsinghua.edu.cn/simple

对于GPU版本的同学安装torchvision我们参考以下博文,注意一下版本对应关系就行。
在Anaconda中创建虚拟环境安装GPU版本的Pytorch及torchvision并在VsCode中使用虚拟环境
在第五章节,推荐使用5.2 离线安装,而不是在线安装,否则会出现一些bug。
对于GPU版本的同学安装tensorflow我们参考以下博文,注意一下版本对应关系就行。
tensorflow安装步骤(GPU版本,Anaconda环境下,Windows10)
接着我们直接打开jupyternotebook直接导入,运行代码即可。

5. A2-CNN实验

这个实验用到的依赖库我们已经安装完成,因此直接导入,运行代码就行。

6. A3-RNN实验

这篇关于Deep_Learning_readme的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/838095

相关文章

简单的Q-learning|小明的一维世界(3)

简单的Q-learning|小明的一维世界(1) 简单的Q-learning|小明的一维世界(2) 一维的加速度世界 这个世界,小明只能控制自己的加速度,并且只能对加速度进行如下三种操作:增加1、减少1、或者不变。所以行动空间为: { u 1 = − 1 , u 2 = 0 , u 3 = 1 } \{u_1=-1, u_2=0, u_3=1\} {u1​=−1,u2​=0,u3​=1}

简单的Q-learning|小明的一维世界(2)

上篇介绍了小明的一维世界模型 、Q-learning的状态空间、行动空间、奖励函数、Q-table、Q table更新公式、以及从Q值导出策略的公式等。最后给出最简单的一维位置世界的Q-learning例子,从给出其状态空间、行动空间、以及稠密与稀疏两种奖励函数的设置方式。下面将继续深入,GO! 一维的速度世界 这个世界,小明只能控制自己的速度,并且只能对速度进行如下三种操作:增加1、减

Deep Ocr

1.圈出内容,文本那里要有内容.然后你保存,并'导出数据集'. 2.找出deep_ocr_recognition_training_workflow.hdev 文件.修改“DatasetFilename := 'Test.hdict'” 310行 write_deep_ocr (DeepOcrHandle, BestModelDeepOCRFilename) 3.推理test.hdev

Learning Memory-guided Normality for Anomaly Detection——学习记忆引导的常态异常检测

又是一篇在自编码器框架中研究使用记忆模块的论文,可以看做19年的iccv的论文的衍生,在我的博客中对19年iccv这篇论文也做了简单介绍。韩国人写的,应该是吧,这名字听起来就像。 摘要abstract 我们解决异常检测的问题,即检测视频序列中的异常事件。基于卷积神经网络的异常检测方法通常利用代理任务(如重建输入视频帧)来学习描述正常情况的模型,而在训练时看不到异常样本,并在测试时使用重建误

Learning Temporal Regularity in Video Sequences——视频序列的时间规则性学习

Learning Temporal Regularity in Video Sequences CVPR2016 无监督视频异常事件检测早期工作 摘要 由于对“有意义”的定义不明确以及场景混乱,因此在较长的视频序列中感知有意义的活动是一个具有挑战性的问题。我们通过在非常有限的监督下使用多种来源学习常规运动模式的生成模型(称为规律性)来解决此问题。体来说,我们提出了两种基于自动编码器的方法,以

COD论文笔记 Adaptive Guidance Learning for Camouflaged Object Detection

论文的主要动机、现有方法的不足、拟解决的问题、主要贡献和创新点如下: 动机: 论文的核心动机是解决伪装目标检测(COD)中的挑战性任务。伪装目标检测旨在识别和分割那些在视觉上与周围环境高度相似的目标,这对于计算机视觉来说是非常困难的任务。尽管深度学习方法在该领域取得了一定进展,但现有方法仍面临有效分离目标和背景的难题,尤其是在伪装目标与背景特征高度相似的情况下。 现有方法的不足之处: 过于

One-Shot Imitation Learning

发表时间:NIPS2017 论文链接:https://readpaper.com/pdf-annotate/note?pdfId=4557560538297540609&noteId=2424799047081637376 作者单位:Berkeley AI Research Lab, Work done while at OpenAI Yan Duan†§ , Marcin Andrychow

Introduction to Deep Learning with PyTorch

1、Introduction to PyTorch, a Deep Learning Library 1.1、Importing PyTorch and related packages import torch# supports:## image data with torchvision## audio data with torchaudio## text data with t

《Learning To Count Everything》CVPR2021

摘要 论文提出了一种新的方法来解决视觉计数问题,即在给定类别中仅有少量标注实例的情况下,对任何类别的对象进行计数。将计数问题视为一个少样本回归任务,并提出了一种新颖的方法,该方法通过查询图像和查询图像中的少量示例对象来预测图像中所有感兴趣对象的存在密度图。此外,还提出了一种新颖的适应策略,使网络能够在测试时仅使用新类别中的少量示例对象来适应任何新的视觉类别。为了支持这一任务,作者还引入了一个包含

One-Shot Imitation Learning with Invariance Matching for Robotic Manipulation

发表时间:5 Jun 2024 论文链接:https://readpaper.com/pdf-annotate/note?pdfId=2408639872513958656&noteId=2408640378699078912 作者单位:Rutgers University Motivation:学习一个通用的policy,可以执行一组不同的操作任务,是机器人技术中一个有前途的新方向。然而,