目标识别和文字检测算法 Faster R-CNN、CTPN

2024-02-02 04:20

本文主要是介绍目标识别和文字检测算法 Faster R-CNN、CTPN,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Faster R-CNN 目标检测算法

Towards Real-Time Object Detection with Region Proposal Networks

R-CNN:Regions with CNN features

  1. Input image
  2. Extract region proposals(~2k)
  3. Compute CNN features
  4. Classify regions

IoU Intersection over Union

测量在特定数据集中检测相应物体准确度的一个标准

预测范围: bounding boxex

ground-truth bounding boxes(人为在训练集图像中标出要检测物体的大概范围)

I o U = A r e a o f O v e r l a p A r e a o f U n i o n IoU = \frac{Area\quad of\quad Overlap}{Area \quad of \quad Union} IoU=AreaofUnionAreaofOverlap

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-IldTlrdy-1639284143003)(Detecting%20Text%20in%20Natural%20Image%20with%20Connectionist%20Text%20Proposal%20Network.assets/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2dhb3l1MTI1MzQwMTU2Mw==,size_16,color_FFFFFF,t_70.png)]

NMS (Non-Maximum Suppression)

Fast R-CNN

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-YaZeS7QC-1639284143006)(Detecting%20Text%20in%20Natural%20Image%20with%20Connectionist%20Text%20Proposal%20Network.assets/image-20211211202345500.png)]

Selection search

Anchor sliding window Feature extraction

RPN Loss

Cls label 二分类,是否有物体,使用IoU gt bounding box anchor box

Loc label
t x ∗ = ( x ∗ − x a ) / w a , t y ∗ = ( y ∗ − y a ) / h a , t w ∗ = l o g ( w ∗ / w a ) , t h ∗ = l o g ( t w ∗ ) t_x^* = (x^*-x_a)/w_a, t_y^* = (y^*-y_a)/h_a,\\ t_w^* = log(w^*/w_a), t_h^* = log(t_w^*) tx=(xxa)/wa,ty=(yya)/ha,tw=log(w/wa),th=log(tw)

t x = ( x − x a ) / w a , t y = ( y − y a ) / h a , t w = l o g ( w / w a ) , t h = l o g ( h / h a ) t_x = (x-x_a)/w_a, t_y = (y-ya)/h_a,\\ t_w = log(w/w_a), t_h = log(h/h_a) tx=(xxa)/wa,ty=(yya)/ha,tw=log(w/wa),th=log(h/ha)

Cls loss

Cross Entropy交叉熵

Loc Loss
z i = 0.5 ( x i − y i ) 2 / b e t a , i f ∣ x i − y i ∣ < b e t a z i = ∣ x i − y i ∣ − 0.5 ∗ b e t a , o t h e r w i s e z_i = 0.5(x_i-y_i)^2/beta, \quad if |x_i-y_i|<beta\\ z_i = |x_i-y_i|-0.5*beta, \quad otherwise zi=0.5(xiyi)2/beta,ifxiyi<betazi=xiyi0.5beta,otherwise

RoI Head Region of Interest

Mask R-CNN

L = L c l s + L b o x + L m a s k L = L_{cls}+L_{box}+L_{mask} L=Lcls+Lbox+Lmask

To this we apply a per-pixel sigmoid,and define L m a s k L_{mask} Lmask as the average binary cross-entropy loss. For an RoI associated with gorund-truth k, L m a s k L_{mask} Lmask is only defined o the k-th mask(other mask outputs do not contribute to the loss).

RoI Align不对齐,保留浮点,在小区域之内继续划分

CTPN 文字检测算法
Detecting Text in Natural Image with Connectionist Text Proposal Network
  • Detecting text in fine-scale proposals
  • Recurrent connectionist text proposals
  • Side-refinement

v c = ( c y − c y a ) / h a v c ∗ = ( c y ∗ − c y a ) / h a v h = l o g ( h / h a ) v h ∗ = l o g ( h ∗ / h a ) v_c= (c_y-c_y^a)/h^a\\ v_c^* = (c_y^*-c_y^a)/h^a\\ v_h = log(h/h_a)\\ v_h^* = log(h^*/h^a) vc=(cycya)/havc=(cycya)/havh=log(h/ha)vh=log(h/ha)

Text line construction

o ∗ = ( x s i d e ∗ − c x a ) / w a o^* = (x^*_{side} -c^a_x)/w^a o=(xsidecxa)/wa

Code

bounding box

CRNN 文字识别算法

An End-yo-End Trainable Neural Network for Image-based Sequence Recognition and Its Application to Scene Text Recognition

  • CRNN

  • Code

  • CTC[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-g467jlT1-1639284143006)(Detecting%20Text%20in%20Natural%20Image%20with%20Connectionist%20Text%20Proposal%20Network.assets/image-20211209220712175.png)]

  • lexicon-based

  • lexicon-free

feature sequence —— receptive field感受野

CRNN——CTC
π = − − h h − e − l − l l − o o − − B ( π ) = h e l l o p ( l ∣ y ) = ∑ π : B ( π ) = 1 p ( π ∣ y ) , p ( ′ h e l l o ′ ∣ y ) = ∑ π : B ( π ) = ′ h e l l o ′ p ( π ∣ y ) \pi = --hh-e-l-ll-oo--\\ B(\pi) = hello\\ p(l|y) = \sum_{\pi:B(\pi)=1} p(\pi|y), \quad p('hello'|y) = \sum_{\pi:B(\pi)='hello'} p(\pi|y) π=hhelllooB(π)=hellop(ly)=π:B(π)=1p(πy),p(helloy)=π:B(π)=hellop(πy)

CTC Theory

p ( l ∣ x ) = ∑ π ∈ B − 1 ( 1 ) p ( π ∣ x ) . h ( x ) = a r g m a x 1 ∈ L ≤ T p ( l ∣ x ) . O M L ( S , N w ) = − ∑ ( x , z ) ∈ S l n ( p ( z ∣ x ) ) = − ∑ ( x , z ) ∈ S l n ( ∑ π ∈ B − 1 ( z ) p ( π ∣ x ) ) p(l|x) = \sum_{\pi \in B^{-1}(1)} p(\pi|x).\\ h(x) = arg\quad max_{1\in L\leq T} \quad p(l|x).\\ O^{ML}(S,N_w) = -\sum_{(x,z)\in S} ln(p(z|x))=-\sum_{(x,z) \in S} ln(\sum_{\pi \in B^{-1}(z)} p(\pi |x)) p(lx)=πB1(1)p(πx).h(x)=argmax1LTp(lx).OML(S,Nw)=(x,z)Sln(p(zx))=(x,z)Sln(πB1(z)p(πx))

为了让所有的path都能在图中唯一、合法的表示,结点转换有如下约束:

  1. 转换只能往右下方向,其他方向不允许
  2. 相同的字符之间起码要有一个空字符
  3. 非空字符不能被跳过
  4. 起点必须从前两个字符开始
  5. 终点必须落在结尾两个字符

forward-backward

定义在时刻t经过节点s的全部前缀子路径的概率总和为前向概率 α t ( s ) \alpha_t(s) αt(s)
α 3 ( 4 ) = p ( a p ) + p ( a a p ) + p ( a p ) + p ( a p p ) \alpha_3(4) = p(_ap)+p(aap)+p(a_p)+p(app) α3(4)=p(ap)+p(aap)+p(ap)+p(app)

  • 情况1:第s个符号为空符号blank
    α t ( s ) = ( α t − 1 ( s ) + α t − 1 ( s − 1 ) ) ⋅ y s e q ( s ) t \alpha_t(s) = (\alpha_{t-1}(s)+\alpha_{t-1}(s-1))·y^t_{seq(s)} αt(s)=(αt1(s)+αt1(s1))yseq(s)t

  • 情况2:第s个符号等于第s-2个符号
    α t ( s ) = ( α t − 1 ( s ) + α t − 1 ( s − 1 ) ) ⋅ y s e q ( s ) t \alpha_t(s) = (\alpha_{t-1}(s)+\alpha_{t-1}(s-1))·y^t_{seq(s)} αt(s)=(αt1(s)+αt1(s1))yseq(s)t

  • 情况3:既不属于情况1,也不属于情况2
    α t ( s ) = ( α t − 1 ( s ) + α t − 1 ( s − 1 ) + α t − 1 ( s − 2 ) ) ⋅ y s e q ( s ) t \alpha_t(s) = (\alpha_{t-1}(s)+\alpha_{t-1}(s-1)+\alpha_{t-1}(s-2))·y^t_{seq(s)} αt(s)=(αt1(s)+αt1(s1)+αt1(s2))yseq(s)t
    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-GAanawON-1639284143009)(Detecting%20Text%20in%20Natural%20Image%20with%20Connectionist%20Text%20Proposal%20Network.assets/image-20211209231338595.png)]

不属于情况2
α t ( s ) = ( α t − 1 ( s ) + α t − 1 ( s − 1 ) + α t − 1 ( s − 2 ) ) ⋅ y s e q ( s ) t \alpha_t(s) = (\alpha_{t-1}(s)+\alpha_{t-1}(s-1)+\alpha_{t-1}(s-2))·y^t_{seq(s)} αt(s)=(αt1(s)+αt1(s1)+αt1(s2))yseq(s)t
[外链图片转存中...(img-GAanawON-1639284143009)]

这篇关于目标识别和文字检测算法 Faster R-CNN、CTPN的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/669448

相关文章

不懂推荐算法也能设计推荐系统

本文以商业化应用推荐为例,告诉我们不懂推荐算法的产品,也能从产品侧出发, 设计出一款不错的推荐系统。 相信很多新手产品,看到算法二字,多是懵圈的。 什么排序算法、最短路径等都是相对传统的算法(注:传统是指科班出身的产品都会接触过)。但对于推荐算法,多数产品对着网上搜到的资源,都会无从下手。特别当某些推荐算法 和 “AI”扯上关系后,更是加大了理解的难度。 但,不了解推荐算法,就无法做推荐系

康拓展开(hash算法中会用到)

康拓展开是一个全排列到一个自然数的双射(也就是某个全排列与某个自然数一一对应) 公式: X=a[n]*(n-1)!+a[n-1]*(n-2)!+...+a[i]*(i-1)!+...+a[1]*0! 其中,a[i]为整数,并且0<=a[i]<i,1<=i<=n。(a[i]在不同应用中的含义不同); 典型应用: 计算当前排列在所有由小到大全排列中的顺序,也就是说求当前排列是第

csu 1446 Problem J Modified LCS (扩展欧几里得算法的简单应用)

这是一道扩展欧几里得算法的简单应用题,这题是在湖南多校训练赛中队友ac的一道题,在比赛之后请教了队友,然后自己把它a掉 这也是自己独自做扩展欧几里得算法的题目 题意:把题意转变下就变成了:求d1*x - d2*y = f2 - f1的解,很明显用exgcd来解 下面介绍一下exgcd的一些知识点:求ax + by = c的解 一、首先求ax + by = gcd(a,b)的解 这个

综合安防管理平台LntonAIServer视频监控汇聚抖动检测算法优势

LntonAIServer视频质量诊断功能中的抖动检测是一个专门针对视频稳定性进行分析的功能。抖动通常是指视频帧之间的不必要运动,这种运动可能是由于摄像机的移动、传输中的错误或编解码问题导致的。抖动检测对于确保视频内容的平滑性和观看体验至关重要。 优势 1. 提高图像质量 - 清晰度提升:减少抖动,提高图像的清晰度和细节表现力,使得监控画面更加真实可信。 - 细节增强:在低光条件下,抖

【数据结构】——原来排序算法搞懂这些就行,轻松拿捏

前言:快速排序的实现最重要的是找基准值,下面让我们来了解如何实现找基准值 基准值的注释:在快排的过程中,每一次我们要取一个元素作为枢纽值,以这个数字来将序列划分为两部分。 在此我们采用三数取中法,也就是取左端、中间、右端三个数,然后进行排序,将中间数作为枢纽值。 快速排序实现主框架: //快速排序 void QuickSort(int* arr, int left, int rig

阿里开源语音识别SenseVoiceWindows环境部署

SenseVoice介绍 SenseVoice 专注于高精度多语言语音识别、情感辨识和音频事件检测多语言识别: 采用超过 40 万小时数据训练,支持超过 50 种语言,识别效果上优于 Whisper 模型。富文本识别:具备优秀的情感识别,能够在测试数据上达到和超过目前最佳情感识别模型的效果。支持声音事件检测能力,支持音乐、掌声、笑声、哭声、咳嗽、喷嚏等多种常见人机交互事件进行检测。高效推

高效录音转文字:2024年四大工具精选!

在快节奏的工作生活中,能够快速将录音转换成文字是一项非常实用的能力。特别是在需要记录会议纪要、讲座内容或者是采访素材的时候,一款优秀的在线录音转文字工具能派上大用场。以下推荐几个好用的录音转文字工具! 365在线转文字 直达链接:https://www.pdf365.cn/ 365在线转文字是一款提供在线录音转文字服务的工具,它以其高效、便捷的特点受到用户的青睐。用户无需下载安装任何软件,只

poj 3974 and hdu 3068 最长回文串的O(n)解法(Manacher算法)

求一段字符串中的最长回文串。 因为数据量比较大,用原来的O(n^2)会爆。 小白上的O(n^2)解法代码:TLE啦~ #include<stdio.h>#include<string.h>const int Maxn = 1000000;char s[Maxn];int main(){char e[] = {"END"};while(scanf("%s", s) != EO

烟火目标检测数据集 7800张 烟火检测 带标注 voc yolo

一个包含7800张带标注图像的数据集,专门用于烟火目标检测,是一个非常有价值的资源,尤其对于那些致力于公共安全、事件管理和烟花表演监控等领域的人士而言。下面是对此数据集的一个详细介绍: 数据集名称:烟火目标检测数据集 数据集规模: 图片数量:7800张类别:主要包含烟火类目标,可能还包括其他相关类别,如烟火发射装置、背景等。格式:图像文件通常为JPEG或PNG格式;标注文件可能为X

秋招最新大模型算法面试,熬夜都要肝完它

💥大家在面试大模型LLM这个板块的时候,不知道面试完会不会复盘、总结,做笔记的习惯,这份大模型算法岗面试八股笔记也帮助不少人拿到过offer ✨对于面试大模型算法工程师会有一定的帮助,都附有完整答案,熬夜也要看完,祝大家一臂之力 这份《大模型算法工程师面试题》已经上传CSDN,还有完整版的大模型 AI 学习资料,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费