寻味顺德一日游
大学城 → 顺德(华盖路 → 清晖园)半日—夜玩乐路线⏱ 建议 10 : 00 出发;如想更宽松,可把所有时段整体前移 1 h。
时间
行程
细节 / Tips
10 : 00 – 11 : 50
地铁:大学城南 → 北滘公园 (7 号线)→ 同站换乘 佛山 3 号线 顺德学院方向至 大良楼
7 号线大学城南⇢北滘公园全程≈49 min,6 : 00-23 : 00 运营 (定了!广州地铁七号线西延段将于5月1日14时正式开通 - 新浪新闻);北滘公园⇢大良楼约15 min,高峰车隔≈6 min (佛山地铁3号线运营时间)
11 : 50 – 13 : 30
华盖路 & 金榜上街午餐逛吃(大良楼 A 口出,步行 5-8 min)
- 民信老铺 双皮奶/姜撞奶(08 : 00-23 : 30) (【民信老铺(双皮奶博物馆店)】地址,电话,路线,周边设施 - 360地图) - 细妹五香牛杂、欢记水牛奶、姜撞奶档口……整条骑楼小吃街 1 km,边走边吃最省时 (【2025佛山景點】大良華蓋路商業步行街旅遊攻略(於3月更新))
13 ...
UNet-RCAN 复现
UNet-RCAN项目信息本文提出了一种UNet结合RCAN的网络结构,UNet网络模型主要负责进行弱光图像恢复进行数据填充,RCAN通道注意力模块负责进行将UNet的填充的数据进行清晰和修复伪影
论文题目:Denoising fast super-resolution STED microscopy with UNet_RCAN
代码地址:https://github.com/vebrahimi1990/UNet_RCAN_Denoising
网络框架UNet-RCAN模型中将残差链接更换成了CAB模块进行链接,CAB是一种通道注意力机制,能够提取图片中重要的信息,此外本模型还拥有两个输出output-1(UNet)和output-2(RCAN)通过设置相同的损失和优化器将模型的两个模块进行跟新
损失函数模型采用了符合损失函数loss-1和loss-2,loss-1负责对图像误差进行计算loss-2利用卷积核计算图像之间的平缓,防止过平滑
loss-1
12345678def ch_loss_2D(pred, gt): norm = tf.norm(pred - gt, ...
初始化
神经网络初始化神经网络的初始化对整个模型的训练起到至关重要的作用,一个合理的初始化能够让模型更快的拟合,反正不合适的初始化对整个模型是灾难性的影响。通常在自己构建模型的时候,pytorch会自动对模型中的权重进行正太分布初始化,当让在莫些模型中正太分布分布表现效果并不优良,亦或者是有特殊要求进行特征提取。这时就要利用到自定义初始化了Weight Initialization
选定卷积层为对象通常我们需要自定义的权重的层为卷积层,因为有的特殊的卷积核能够提取不同数据特征。为后面的模型训练提特征的筛选与提取getattr函数利用getattr函数能够完成指定层的的获取conv_weight = getattr(model, conv)这样就将model中名为conv层的卷积层的权重链接至conv_weight变量中。当conv_weight变量进行赋值改变的时候,对应的conv层中的参数同样发生改变。
进行参数初始化凯明初始化参考文献
不同层应用不同初始化方式
pytorch中的参数初始化方法总结
pytorch 中维度修改那些事
pytorch 维度操作那些事维度转置函数 transpose() 和 permute()123456789101112131415x = torch.randn([2,3])y = torch.randn([2,3,4])print(f'x.shape:{x.shape},y.shape{y.shape}')# transpose() torch.transpose(x)合法, x.transpose()合法。## torch.transpose(input, dim0, dim1, out=None)print(f'{x.transpose(0,1).shape,torch.transpose(x,0,1).shape}')# transpose 一次性只能对两个维度进行操作。因此在进行维度变化的时候多采用permute()print(f'{y.transpose(0,2).shape}')x = torch.randn([2,3])y = t ...
可视化
神经网络训练可视化TensorBoardTensorBoard是一款强大的深度学习可视化工具,可以配合pytorch将模型细节进行可视化,本文将介绍三种初步用法。进阶查看网络卷积层等后续使用在进行介绍,单详细通过学习初步的用法后后续根据其它网络教程也很容易实现
应用安装安装TensorBoard (按住默认最新版,老版本在可视化梯度中存在问题)pip install TensorBoard引用
123from torch.utils.tensorboard import SummaryWriter# 创建SummaryWriter类writer=SummaryWriter()
可视化图像可视化imgs 是图像DataLoader类,可视化能够实现将一组batch图像进行可视化。在进行图像可视化的时候,如果tensor数据是0到1则会自动扩大244倍,数据超过1则默认数据范围为0到244。如果图像在可视化之前还进行了额外的操作,需要进行相反的操作才能正常可视化
12# images:可视化画布名称,imgsDataLoader类,steps每次训练的数据writer.add_images ...
自定义数据集
自定义数据集在使用pytorch进行深度学习训练时,难以避免的使用自己的私有数据集。这时就需要进行手动封装,一个良好的数据集是深度学习完美的开始
定义数据集方法自定义数据需要使用torch.utils.data.Dataset类,这是自定义数据集的基础自定义数据无非就三要数,路径,标签处理及返回和数据大小返回
def __init__(self,root_dir,label_dir): 通常进行初始换,图像路径调用
def __getitem__(self, item): 按照自己的需要进行指定要,在下面的例子中,就自定义数据返回了图像本身和标签(标签是文件夹) 【这部分是自定义数据的关键】
def __len__(self):定义len方法,一般不需要特殊定义12345678910111213141516171819202122232425262728293031323334import torchimport torchvisionfrom torch.utils.data import Datasetimport osfrom PIL import Imagetr ...
第一次拉曼组会
第一次拉曼组会光谱的识别与3D成像方向
方法学:python、深度学习上的改进
一维拉曼:讲故事,干什么?好处是?
多模态转换(起步还需后续验证):拉曼光谱与全息成像是否能够互相和转换
组会安排
开会频率自由,不固定时间。但月最少两次
组会内容,与正常组会有别,主要是讨论问题抛出问题,解决问题。不需要太过严谨
拉曼基础需要学习拉曼基础知识,补全数学基础,值得一提的的是需要特别学习一下主成分分析法
组会内容基于深度可分离三维成像去噪方法的细胞拉曼成像 朱伟乐、小论文工作论文采用了神经网络对3D图像进行去噪处理,论文属于方法创新,创新了神经网络
数据集公开数据集,加上自己小样本数据辅佐说明实验
网络改进的CNN网络,通过分离模块减少了网络训练产生,使得网络训练3D图像速度大大快
loss目前:基础的损失函数,改进:加上约束项
问题选择作为真值的图像本身的噪声处理问题,图像优化过于平滑
万、小论文、一区工作就使用了一个简单的CNN网络对干细胞进行功能性的预测
数据集干细胞不同时间阶段中多功能性荧光图像
网络CNN
优点首先通过CNN网络学习到干细胞功能性预测,然后通过学习后的CNN网 ...
第二次组会
第二次组会一共四个人汇报,其中在投文献一篇方向为拉曼,三篇论汇报拉曼两片,层析一篇
在投文献深度学习预测单细胞H2O2含量
数据集细胞的数据集在预测问题上可以看作为时间序列,或者弱化其时间的数据看为序列。这种序列和文字序列有一定的相识性,在处理这方面数据可以更多的考虑循环神经网络和注意力机制进行处理
网络注意力机制
损失函数未知
评价指标R^2
论文问题网络结构不清晰,深度学习三要素 网络模型、损失函数和评价指标的选取有问题
论文汇报transformer+RNN 超高清重建图像网络RNN(head)
GAN生成式对抗网络
GAN生成式对抗网络GAN生成式对抗网络,GAN网络由生成网络和判别网络两个网络组成,生成式网络通过学习图片后将噪声转换为图片,而判别式网络将区分数据集图片和生成图片进行判别。生成式与判别式网络类似与小偷与警察,通过不断的博弈互相升级,在这场游戏中我们更加希望小偷取得胜利。既是生成式网络生成的图片可以让判别器难以判断。
网络结构GAN网络由两部分网络过程:生成式网络和判别式网络构成
GAN中鉴别器的目标引入了JS散度的概念来计算,事实上也可以看成是交叉熵乘一个负号,如图所示:
pytorch实现生成式网络12345678910111213141516class Generator(nn.Module): def __init__(self): super(Generator,self).__init__() self.main=nn.Sequential( nn.Linear(100,256), nn.ReLU(), nn.Linear(256,512), nn.ReLU(), nn ...
一、预备知识
预备知识基础重点范数矩阵求导反向传播(sum函数)``https://blog.csdn.net/qq_43722079/article/details/136583592