【Tensor'flow】第一个FCN网络

2024-02-11 21:38
文章标签 第一个 网络 tensor flow fcn

本文主要是介绍【Tensor'flow】第一个FCN网络,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

学习Tensorflow,写一个超级简单的全卷积,效果没有,只是能跑通,没有dropout。


#!/usr/bin/env python
#coding:utf-8
from __future__ import absolute_import
from __future__ import divisionimport os,cv2
import numpy as np
import time
import tensorflow as tf
def weight_variable(shape):# 使用截断的正态分布初始权重initial = tf.truncated_normal(shape, stddev = 0.01)return tf.Variable(initial)def bias_variable(shape):return tf.Variable(tf.constant(0.0, shape = shape))def conv_layer(x, W, b):# W的尺寸是[ksize, ksize, input, output]conv = tf.nn.conv2d(x, W, strides = [1, 1, 1, 1], padding = 'SAME')conv_b = tf.nn.bias_add(conv, b)conv_relu = tf.nn.relu(conv_b)return conv_reludef max_pool_layer(x):return tf.nn.max_pool(x, ksize = [1, 2, 2, 1], strides = [1, 2, 2, 1], padding = 'SAME')def deconv_layer(x, W, output_shape, b):# strides = 2 两倍上卷积# output_shape = [batch_size, output_width, output_height, output_channel],注意第一个是batch_size# 权重W = [ksize, ksize, output, input]后两位和卷积相反deconv = tf.nn.conv2d_transpose(x, W, output_shape,  strides = [1, 2, 2, 1], padding = 'SAME')return tf.nn.bias_add(deconv, b)# 获取数据
def get_data(image_path, label_path):image_list = os.listdir(image_path)label_list = os.listdir(label_path)image_list_arr = []label_list_arr = []for file in image_list:if file[-3:] == 'png':# cv2.imread('', -1)保持原始数据读入;如果没有-1会以图片形式读入,变成三通道image = cv2.imread(os.path.join(image_path,file),-1)#image = transform.resize(image, (512,512))image_list_arr.append(image)for file in label_list:if file[-3:] == 'png':label = cv2.imread(os.path.join(label_path,file), -1)label_list_arr.append(label)return (image_list_arr, label_list_arr)# 读取下一个batch数据
def next_batch(images, labels, batch_size, shuffle = False):assert len(images) == len(labels)if shuffle:indices = np.arange(len(images))np.random.shuffle(indices)for start_idx in range(0, len(images) - batch_size + 1, batch_size):if shuffle:exceprt = indices[start_idx : start_idx + batch_size]else:exceprt = slice(start_idx, start_idx + batch_size)yield np.array(images)[exceprt], np.array(labels)[exceprt]def main():# 尽量写相对路径image_path = './data/mri'label_path =  './data/labels'# 如果内存耗尽可以考虑将batch减小batch_size = 4n_epoch = 2lr = 0.01images, labels = get_data(image_path, label_path)ratio = 0.8length = len(images)s = np.int(length * ratio)x_train = images[: s]y_train = labels[: s]x_val = images[s: ]y_val = labels[s:]keep_prob = tf.placeholder(tf.float32)# None代表样本数量不固定x = tf.placeholder(tf.float32, shape = [None, 256, 256, 3])y = tf.placeholder(tf.float32, shape = [None, 256, 256, 3])# input 256*256# weight([ksize, ksize, input, output])weight1 = weight_variable([3, 3, 3, 64])bias1 = bias_variable([64])conv1 = conv_layer(x, weight1, bias1)# input 256*256# output 128*128weight2 = weight_variable([3, 3, 64, 128])bias2 = bias_variable([128])conv2 = conv_layer(conv1, weight2, bias2)pool1 = max_pool_layer(conv2)# input 128*128# output 64*64weight3 = weight_variable([3, 3, 128, 256])bias3 = bias_variable([256])conv3 = conv_layer(pool1, weight3, bias3)pool2 = max_pool_layer(conv3)# deconv1# weight([ksize, ksize, output, input])# 64*64->128*128(pool1)deconv_weight1 = weight_variable([3, 3, 128, 256])deconv_b1 = bias_variable([128])deconv1 = deconv_layer(pool2, deconv_weight1, [batch_size, 128, 128, 128], deconv_b1)# 与pool1融合,使用add的话deconv和pool的output channel要一致fuse_pool1 = tf.add(deconv1, pool1)# deconv2# 128*128->256*256(input)deconv_weight2 = weight_variable([3, 3, 64, 128])deconv_b2 = bias_variable([64])deconv2 = deconv_layer(fuse_pool1, deconv_weight2, [batch_size, 256, 256, 64], deconv_b2)# 转换成与输入标签相同的size,获得最后结果weight16 = weight_variable([3, 3, 64, 3])bias16 = bias_variable([3])conv16 = tf.nn.conv2d(deconv2, weight16, strides = [1, 1, 1, 1], padding = 'SAME')conv16_b = tf.nn.bias_add(conv16, bias16)logits16 = conv16_b# lossloss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=logits16, labels=y))opt = tf.train.AdamOptimizer(1e-4).minimize(loss)sess = tf.Session()sess.run(tf.global_variables_initializer())for epoch in range(n_epoch):# trainfor x_train_batch, y_train_batch in next_batch(x_train, y_train, batch_size, shuffle = True):_, train_loss = sess.run([opt, loss], feed_dict = {x: x_train_batch, y: y_train_batch})print ("------trian loss: %f" % train_loss)# valval_loss = 0for x_val_batch, y_val_batch in next_batch(x_val, y_val, batch_size, shuffle = True):val_loss = sess.run([loss], feed_dict={x: x_val_batch, y: y_val_batch})print("------val loss : %f" % val_loss)sess.close()if __name__ == '__main__':main()


这篇关于【Tensor'flow】第一个FCN网络的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/700870

相关文章

如何通过海康威视设备网络SDK进行Java二次开发摄像头车牌识别详解

《如何通过海康威视设备网络SDK进行Java二次开发摄像头车牌识别详解》:本文主要介绍如何通过海康威视设备网络SDK进行Java二次开发摄像头车牌识别的相关资料,描述了如何使用海康威视设备网络SD... 目录前言开发流程问题和解决方案dll库加载不到的问题老旧版本sdk不兼容的问题关键实现流程总结前言作为

PyTorch使用教程之Tensor包详解

《PyTorch使用教程之Tensor包详解》这篇文章介绍了PyTorch中的张量(Tensor)数据结构,包括张量的数据类型、初始化、常用操作、属性等,张量是PyTorch框架中的核心数据结构,支持... 目录1、张量Tensor2、数据类型3、初始化(构造张量)4、常用操作5、常用属性5.1 存储(st

SSID究竟是什么? WiFi网络名称及工作方式解析

《SSID究竟是什么?WiFi网络名称及工作方式解析》SID可以看作是无线网络的名称,类似于有线网络中的网络名称或者路由器的名称,在无线网络中,设备通过SSID来识别和连接到特定的无线网络... 当提到 Wi-Fi 网络时,就避不开「SSID」这个术语。简单来说,SSID 就是 Wi-Fi 网络的名称。比如

Java实现任务管理器性能网络监控数据的方法详解

《Java实现任务管理器性能网络监控数据的方法详解》在现代操作系统中,任务管理器是一个非常重要的工具,用于监控和管理计算机的运行状态,包括CPU使用率、内存占用等,对于开发者和系统管理员来说,了解这些... 目录引言一、背景知识二、准备工作1. Maven依赖2. Gradle依赖三、代码实现四、代码详解五

好题——hdu2522(小数问题:求1/n的第一个循环节)

好喜欢这题,第一次做小数问题,一开始真心没思路,然后参考了网上的一些资料。 知识点***********************************无限不循环小数即无理数,不能写作两整数之比*****************************(一开始没想到,小学没学好) 此题1/n肯定是一个有限循环小数,了解这些后就能做此题了。 按照除法的机制,用一个函数表示出来就可以了,代码如下

Linux 网络编程 --- 应用层

一、自定义协议和序列化反序列化 代码: 序列化反序列化实现网络版本计算器 二、HTTP协议 1、谈两个简单的预备知识 https://www.baidu.com/ --- 域名 --- 域名解析 --- IP地址 http的端口号为80端口,https的端口号为443 url为统一资源定位符。CSDNhttps://mp.csdn.net/mp_blog/creation/editor

ASIO网络调试助手之一:简介

多年前,写过几篇《Boost.Asio C++网络编程》的学习文章,一直没机会实践。最近项目中用到了Asio,于是抽空写了个网络调试助手。 开发环境: Win10 Qt5.12.6 + Asio(standalone) + spdlog 支持协议: UDP + TCP Client + TCP Server 独立的Asio(http://www.think-async.com)只包含了头文件,不依

poj 3181 网络流,建图。

题意: 农夫约翰为他的牛准备了F种食物和D种饮料。 每头牛都有各自喜欢的食物和饮料,而每种食物和饮料都只能分配给一头牛。 问最多能有多少头牛可以同时得到喜欢的食物和饮料。 解析: 由于要同时得到喜欢的食物和饮料,所以网络流建图的时候要把牛拆点了。 如下建图: s -> 食物 -> 牛1 -> 牛2 -> 饮料 -> t 所以分配一下点: s  =  0, 牛1= 1~

poj 3068 有流量限制的最小费用网络流

题意: m条有向边连接了n个仓库,每条边都有一定费用。 将两种危险品从0运到n-1,除了起点和终点外,危险品不能放在一起,也不能走相同的路径。 求最小的费用是多少。 解析: 抽象出一个源点s一个汇点t,源点与0相连,费用为0,容量为2。 汇点与n - 1相连,费用为0,容量为2。 每条边之间也相连,费用为每条边的费用,容量为1。 建图完毕之后,求一条流量为2的最小费用流就行了

poj 2112 网络流+二分

题意: k台挤奶机,c头牛,每台挤奶机可以挤m头牛。 现在给出每只牛到挤奶机的距离矩阵,求最小化牛的最大路程。 解析: 最大值最小化,最小值最大化,用二分来做。 先求出两点之间的最短距离。 然后二分匹配牛到挤奶机的最大路程,匹配中的判断是在这个最大路程下,是否牛的数量达到c只。 如何求牛的数量呢,用网络流来做。 从源点到牛引一条容量为1的边,然后挤奶机到汇点引一条容量为m的边