tensorflow手写数字识别(如何模式识别简单的手写数字)

tensorflow手写数字识别(如何模式识别简单的手写数字)


发表:2022-09-10 19:30:08 浏览数:

来源:作者:

应用KNN的思想识别手写字体的整体思路是根据训练数据集(预先采集好的手写数字库)和测试数据集(待识别的手写数字)间距离的大小来识别手写数字,我们可以推算出 100,000 个字符的数据集和相应增加的训练数据,是一个手写数字的数据集,而不是 3,755 个字符的高精度汉字识别系统是可行且实用的,相关模型大小= 1MB表 1 中的数据与 中的任何对比系统都小,距离最小的训练数据作为最终的识别结果,考虑到表 1 和表 3 之间的 10 倍大的数据集和相应的(少于)2%的精度下降,表 2 报告了在同样的测试集与 3,755 个字符的上的结果。

本文目录

如何模式识别简单的手写数字

识别手写数字是图像处理领域相对基础的问题,本文将从机器学习领域和深度学习领域两方面对这一问题进行阐述,以期更为全面的理解手写数字的识别问题。

1.机器学习领域——KNN用于手写数字识别

KNN是机器学习中较为基础的算法之一,应用KNN的思想识别手写字体的整体思路是根据训练数据集(预先采集好的手写数字库)和测试数据集(待识别的手写数字)间距离的大小来识别手写数字。

具体过程如下:

(1)将测试集和训练集全部如下图所示编程0-1矩阵(像素点位置为1,非像素点位置为0)。

(2)将测试数据矩阵和训练数据矩阵求距离,距离最小的训练数据作为最终的识别结果。

相关的代码可以参见:

AI人工智能技术是通过怎样的方式实现人脸识别和图片识别的

用通俗的话总的来说,就是利用大数据抽取规律,再利用规律去预测(回归)、分类、聚类未知的输入,得到输出(结果)。

单说图片识别:

这里面的大数据就是已知的输入(图片)和已知的结果(图片的标签),抽取规律也就是相应的算法(卷及神经网络),预测、分类、聚类就是得到图片的结果(图片识别)。

可以分为以下几步:

第一步:数据的预处理。

图片是由一个一个的像素组成的,就拿入门的案例说吧,MNIST数据集,是一个手写数字的数据集,每一张图片都是由28×28个像素点形成的。

就像这样:

总共有60000张这样的图片,而图片的标签(也就是结果)也是已知的(0~9),那么设输入为x输出为y,

计算机是无法读懂图片的,所以我们要将图片转换成计算机所能认识的东东。

矩阵:

x就是一个28×28的矩阵每一个点表示图片中相应位置的灰度。有的神经网络为了更简化的计算,将28×28 的矩阵,转换为一个1×784的向量(一维矩阵)。这里的x是28×28×1,这个1表示的是单通道,也就是只有一种颜色。如果是彩色图片的话,那么就应该是28×28×3,这个3表示的是RGB三个颜色通道。

y就是一个数字,0~9。

有些算法还会降x,y进行归一化,也就是转换为0~1之间的矩阵、数字。

第二步:抽取特征。

卷积(特征提取)的具体计算方法:

其中input为输入,filter叫做卷积核(暂且理解为滤波器),output叫做特征图,特征图的个数和filter的个数是相同的(filter W0、filter W1)。既然是矩阵,那么可以设中间的参数是W,于是就有Wx+b = output。这里的W是我们最终要训练出来的。

计算方法:

w0与x蓝色区域做内积(对应位置相乘后相加):

f1第1层 = 0×1+ 0×1+ 0×1 + 0×-1+ 1×-1+ 1×0 + 0×-1+1×1+1×0 = 0

f1第2层 = 0×-1+0×-1+0×1 +0×-1+0×1+1×0 +0×-1+2×1+2×0 = 2

f1第3层 = 0×1+0×0+0×-1+ 0×0+2×0+2×0+ 0×1+0×-1+0×-1+ = 0

那么根据神经网络得分函数:f(x,w) = wx+b

这里的b =1

那么输出的得分值就为f1+f2+f3+b = 0+2+0+1 =3

最右边绿色的矩阵第1行,第1列,就是3

将卷积核在输入矩阵滑动,

同理可以计算

这里的输出叫做特征图。

这里就可以看出,经过卷积核Filter(滤波器),将图片浓缩了,浓缩之后,再进行一次非线性的处理,用一些非线性的函数将线性结果非线性化(叫做激活函数),这层叫作卷积层。

这里只是一层,大型数据集(输入很多的情况)一层是不够的,需要很多层,输入-卷积-输出-卷积-输出........。

比如VGG-16,就有16个卷积层。

进一步浓缩叫做池化层。

同样有一个filter,将特征图进行MAX(取最大值)或者MEAN(取均值),进一步浓缩特征。

浓缩完特征之后,接着后面的层叫做全连接层。

就是将权重参数W(矩阵),分别乘以池化完成的结果,得到最终的分类结果比如前边所说的0~9的手写字体,要分10个类别,如果池化完成的结果是1×64,那么全连接层就应该是64×10,最终得到1×10的矩阵,就是分类0~9的结果。

以上最重要的就是要求W,也就是最前边说的,根据大数据找规律。

第三步:参数更新

那么还有问题,W是多少谁知道?

没人知道,这里是根据计算机一步一步的试出来的,

先随机的给出一组W,算出结果Y1,利用已知的x当做输入,用已知的y与y1坐差值,那么Y1-y就会有一个差值,就是预测值和真实值的差值。称作损失函数,有些叫做代价函数。当代价函数最小的时候,预测值Y1和真实值y的差距越来越小,当差距在我们可以接受的范围内,那么就可以认为,由权重参数W生成的Y1可以对输入x进行预测和分类。

那么如何让损失函数最小呢?这里并不是求导后求极值点,而是对损失函数求导数,调整W,使得差值沿着导数的方向前进,最终达到极小值点。

这时候得到的W就是我们最终要的结果了。

第四步:利用参数

既然得到了W,我们就可以利用这个W,将一个未知结果的x输入,从而得到通过W计算出的y,这个y就是图片识别的结果。

现在有很多的开源深度学习框架,是各大著名公司封装好的函数(已经造好的轮子),

以下是一个卷积神经网络识别MNIST的小例子(基于google深度学习框架TensorFlow):

只是经过了21次的参数更新,最终的识别准确率在99%以上。

输出结果:

Extracting MNIST_data/train-images-idx3-ubyte.gz

Extracting MNIST_data/train-labels-idx1-ubyte.gz

Extracting MNIST_data/t10k-images-idx3-ubyte.gz

Extracting MNIST_data/t10k-labels-idx1-ubyte.gz

第0次迭代,测试集准确率是0.7688

第1次迭代,测试集准确率是0.7831

第2次迭代,测试集准确率是0.8829

第3次迭代,测试集准确率是0.8883

第4次迭代,测试集准确率是0.889

第5次迭代,测试集准确率是0.8919

第6次迭代,测试集准确率是0.8908

第7次迭代,测试集准确率是0.893

第8次迭代,测试集准确率是0.894

第9次迭代,测试集准确率是0.8949

第10次迭代,测试集准确率是0.8927

第11次迭代,测试集准确率是0.8935

第12次迭代,测试集准确率是0.8948

第13次迭代,测试集准确率是0.9873

第14次迭代,测试集准确率是0.9881

第15次迭代,测试集准确率是0.9864

第16次迭代,测试集准确率是0.9885

第17次迭代,测试集准确率是0.9906

第18次迭代,测试集准确率是0.9876

第19次迭代,测试集准确率是0.9884

第20次迭代,测试集准确率是0.9902

人工智能需要学习哪些数学知识

需要的数学还是很多的,看你想学到什么程度了。

如果你是新手,啥也不懂。那么我觉得可以先看看华东师范大学出版社与商务印书馆出的高中教材《人工智能基础(高中版)》。这本书是人工智能的独角兽公司商汤科技与华东师范大学一起编的,里面有很多数学。不过这些数学不是很难理解。比如这里面写到了矩阵的卷积。如果你没有学过矩阵也没有关系,照葫芦画瓢吧。在这个书里,讲到人工智能图像识别的时候,也用到了RGB矩阵。总得来说,每一张照片都可以看成一个三阶张量。一堆照片就是很多三阶张量,它们组成了一个图像空间。因此图像空间里的每一点都对应一张照片。如果你能理解这些数学语言,那么你就很容易看懂人工智能的东西——这个对数学系出身的人来说,没有什么难度。但对没有数学系思维锻炼的人来说,则需要适应一段时间。

总的说来,你先看看我说的这本书吧。其他的数学要求就是求导啥的,也不难。

在计算机视觉中,如何做到实时识别手写汉字

随着手机、平板和可穿戴设备如智能手表的普及,手写识别比以往任何时候都更为重要。在这些移动设备上支持汉字手写识别需要大型的符号库,这提出了独特的挑战。这篇文章介绍了我们如何应对实现 iPhone,ipad 和 Apple Watch(Scribble 模式)优良实时性能带来的挑战。我们基于深度学习的识别系统能够精确地识别 30,000 个汉字。为了达到令人满意的精确性,我们特别关注数据采集条件,书写风格的代表性和训练方案。我们发现只要有合适的方法,即使更大型的符号库也是可以实现的。我们的实验表明,只要我们使用有足够质量和数量的训练数据,符号库增加带来的不精确性就会降低。

引言

手写识别可以增强移动设备的用户体验,特别是对于中文输入的用户,因为键盘打字有较高的复杂度。由于底层字符库的数量庞大,汉字手写识别带来了独一无二的挑战。不同于基于字母的文字,通常只涉及 100 个符号,中国国家标准 GB18030-2005 中的一组汉字字符包含了 27,533 个条目,除此之外还有很多在中国广泛使用的语标字符。

为了计算方便,通常将重点放在那些日常生活中最有代表性的有限数量的字符上。这样一来,标准 GB2312-80 集仅包括 6,763 个条目(1 级 3755 个字符,二级 3008 个字符)。中国科学院自动化研究所建立的流行 CASIA 数据库中使用的紧密匹配的字符集共包含 7,356 个条目 。

这些集合倾向于反映中国整体用户的常用字符。然而,在个人用户层面,「常用」因人而异。大多数人至少需要少数几个被认为是「不经常写」的字符,例如与他们相关的专有名词。因此,汉字手写识别算法的理想应用规模至少要达到 GB18030-2005 的水平。

虽然早期的识别算法主要依赖于基于个体笔画分析的结构化方法,但在后来为实现笔画顺序独立性的需求引发了使用整体形状信息的统计学方法的兴趣 。

在拉丁文的脚本任务如 MNIST 。然而,这些研究中的类别数量非常少(10)。

当我们开始研究中国汉字的大规模识别之前,CNN 似乎是显而易见的选择。但是,这种方法需要在保持嵌入式设备的实时性能的同时,将 CNN 扩展到大约三万个字符。本文重点介绍了在准确性,汉字覆盖率和书写风格的鲁棒性方面面临的挑战。

系统配置

我们在这个工作中采用的通用 CNN 架构与之前在 MNIST 任务的手写识别实验中使用的很相似(参见例子 )。整个系统的配置如图 1 所示。

图 1. 典型 CNN 架构(包含两个卷积和二次采样的连续阶段)

输入是表示手写汉字的 48x48 像素的中分辨率图像(出于性能原因)。我们通过依次卷积和二次采样将此输入馈送到多个特征提取层。最后一个特征提取层通过完全连接层连接到输出。

从一个卷积层到下一个卷积层,我们通过选择核的规模和特征图的数量导出越来越低质量的粒度的特征。我们使用 2x2 内核的最大池化层 进行二次采样。最后一个特征层通常包含大约 1000 个小特征图。最后,输出层每个类都有一个节点,例如 GB2312-80 的 1 级汉字数量为 3,755,而在扩展到全部库存时接近 30,000。

作为参考,我们评估了以前谈论过的 CASIA 基准任务的 CNN 实现 ,产生大约一百万个训练样本。

请注意,考虑到我们的产品目标是不对 CASIA 的最高准确度进行调整。相反,我们的优先事项是模型大小,评估速度和用户体验。因此,我们选择了一种紧凑的跨越多种书写分格的健壮的实时系统,这些字体大多是倒笔字。问题进而转化成一种基于图像的识别方法,即使我们对在线数据集进行评估。如 中,我们补充了适度变形的实际观测值。

表 1 显示了使用图 1 的 CNN 的结果,其中缩写「Hz-1」是指汉字一级数据库(3,755 个字符),「CR(n)」表示前 n 个字符识别精度。除了通常报道的前 1 位和前十位的精度外,我们还提到了前 4 位的精度,因为我们的用户界面旨在显示 4 位候选字符,前四位的准确度是我们系统用户体验的重要预测指标。

表 1. 3,755 个字符的 CASIA 在线数据库的结果。标准训练,相关模型大小= 1MB

表 1 中的数据与 中的任何对比系统都小。

表 1 中的系统仅针对 CASIA 数据进行训练,不包括任何其他训练数据。我们也有兴趣使用 iOS 设备内部收集的其他训练数据。这些数据涵盖了更多种类的风格(参见下一节),并且每个字符包含更多的训练实例。表 2 报告了在同样的测试集与 3,755 个字符的上的结果,。

表 2. 3,755 个字符的 CASIA 在线数据库的结果。增强训练,相关模型大小= 15MB

尽管所产生的系统占用更大的内存空间(15 MB),但精度只稍有提高(top-4 精度高达 4%)。这表明,大体而言,测试集中出现的大多数风格的字符已经在 CASIA 训练集中完美覆盖。这也表明减少一些训练数据没有缺点:附加样式的存在对底层模型无害。

扩大至 30K 个字符

由于理想的「频繁书写」的字符集因人而异,所以大量用户需要大于 3,755 个字符的字符量。然而,选择哪一个字符并不那么简单。用 GB2312-80 编码定义简体中文,用 Big5,Big5E 和 CNS 11643-92 编码定义繁体中文字符涵盖范围很广(从 3,755 到 48,027 个汉字字符)。最近又有了 HKSCS-2008 编码,额外增加了 4,568 个字符,甚至可表示更多字符的 GB18030-2000 编码。

我们希望确保用户能够以简体中文和繁体中文以及姓名,诗歌和其他常见符号,可视化符号和表情符号来进行日常通信。我们还希望支持拉丁语文本,用于避免音译偶尔出现的拉丁文产品或商品名称。我们遵循 Unicode 作为流行的国际字符编码标准,因为它几乎涵盖了所有上述标准。(请注意,扩展名为 B-D 的 Unicode 7.0 编码可以指定超过七十万个字符,并在考虑包含更多的字符)。因此,我们的字符识别系统集中在 GB18030-2005,HKSCS-2008,Big5E,核心 ASCII 的汉字部分,以及一组可视化符号和表情,总共约三万个字符,我们觉得这适用于大多数中国用户。

选择基础字符集后,对用户实际使用的书写风格进行抽样至关重要。尽管有办法找到期望的书写风格(参见 ,但是仍存在许多区域差异,例如,(i)使用 U + 2EBF(艹)做基,或(ii)草书 U + 56DB(四)与 U + 306E(の)相比,渲染字体也可能导致混淆,因为有些用户希望以特定的风格呈现特定的字符,因为快速的输入会使字体潦草,往往会增加其辨认难度,例如 U + 738B(王)和 U + 4E94(五)之间,最后增加的国际化有时引发意想不到的冲突:例如 U + 4E8C(二)行文潦草时,可能与拉丁字符「2」和「Z」冲突。

我们的原理是为用户提供从打印体到草书到无约束书写的全部可能的输入 。为了覆盖尽可能多的变体,我们向大中华地区的几个地区的作家寻求数据。我们惊讶地发现,大多数用户从未见过多数生僻字。这种不熟悉由用户书写时犹豫,笔画顺序和其他书写问题导致,所有这些问题我们都要考虑进去。我们收集了来自不同年龄,性别以及各种教育背景的付费参与者的数据。得到的手写数据在许多方面是独一无二的:包括在 iOS 设备上的数以千计用户,用手指,而非手写笔,写出的小批量数据。这些数据的优点之一是,iOS 设备的采样会产生非常清晰的手写信号。

我们发现很多种书写风格。图 2-4 以打印体,草书及无限制风格展示了字符「花」U+82B1 (花)

图 2。印刷基不同的 U + 82b1(花)

图 3。草书基不同的 U + 82b1(花)

图 4。无限制基不同的 U + 82b1(花)

事实上,在日常生活中,用户经常写得很快且不受约束,可能会导致书写潦草以及与正楷字体不太一样。相反,有时也会导致不同字符之间的混淆。图 5-7 显示了我们在数据中观察到的一些具体例子。请注意,具有足够的训练集对于区分草书变化尤为重要,如图 7 所示。

图 5 不同的 U+7684 (的)

图 6 不同的 U+4EE5 (以)

图 7 U+738 (王) 和 U+4E94 (五) 形状类似

根据前面讨论的指导原则,我们可以收集数千万个字符的实例作为训练集数据。在同一测试集上,将可识别字符数从 3,755 增加到约 30,000 之后,将上节中的 3,755 个字符系统与表 3 中的结果作对比。

表 3 基于包含 30K 个字符的在线数据库 CASIA 的结果

请注意,模型大小保持不变,因为表 2 的系统仅限于「Hz-1」字符集,但是实质相同。精确度按预期略有下降,因为覆盖范围大大增加了前面提到的额外的字符混淆,例如「二」与「Z」。

比较表 1-3,你将看到 10 倍的覆盖率不会产生 10 倍的错误,或 10 倍的存储空间。实际上,随着模型大小的增加,错误的数量增加缓慢。因此,构建一个涵盖 3 万个字符,而不是 3,755 个字符的高精度汉字识别系统是可行且实用的。

为了了解系统在整个 30,000 个字符中的运行情况,我们还对许多不同测试集进行了评估,这些测试集包含以各种样式编写的所有支持的字符。表 4 列出了平均结果。

表 4。多个内部测试集的平均结果,包括所有书写风格的 30,000 个字符

当然,表 3-4 中的结果是不可直接比较的,因为它们是在不同的测试集上获得的。尽管如此,他们表示,在整个字符库中,前 1 和前 4 个精度都在同一个可接受范围上。这是训练基本完成的结果。

讨论

由于表意文字报告组(IRG)不断提出来自各种来源的新增内容,Unicode 中的 CJK 字符总数(目前约为 75,000 )可能会增加。诚然,这些字符变体将是十分罕见的(例如,历史人物的名称或诗歌)。不过,对于每个名字都含有这些罕见字符的人来说,这是很有意思的。

那么,我们期望在未来如何处理更大的字符库呢?本文讨论的实验支持具有不同数量的训练数据集的基于训练和测试错误率的学习曲线 。因此,我们可以通过更大的训练集来推断渐进的准确性,以及使用更多的字符集提升的效果。

例如,考虑到表 1 和表 3 之间的 10 倍大的数据集和相应的(少于)2%的精度下降,我们可以推算出 100,000 个字符的数据集和相应增加的训练数据,达到 84%左右的 top-1 精度,和 97%左右的 top-10 精度是实际可行的(使用相同类型的架构)。

总而言之,即使在包含了 30,000 个汉字的嵌入式设备上构建高精度的手写识别系统也是可行的。此外,只要有足够数量的高质量的训练数据来扩大数据集,准确性才会缓慢下降。这对未来更大的字符库的识别大有裨益。

参考

D.C. Ciresan, U. Meier, L.M. Gambardella, and J. Schmidhuber, Convolutional Neural Network Committees For Handwritten Character Classification, in *11th Int. Conf. Document Analysis Recognition (ICDAR 2011)*, Beijing, China, Sept. 2011.

D.C. Ciresan, U. Meier, L.M. Gambardella, and J. Schmidhuber, Convolutional Neural Network Committees For Handwritten Character Classification, in *eleventh Int. Conf. Document Analysis Recognition (ICDAR twenty eleven)*, Beijing, China, Sept. twenty eleven.

C. Cortes, L.D. Jackel, S.A. Jolla, V. Vapnik, and J.S. Denker, Learning Curves: Asymptotic Values and Rate of Convergence, in *Advances in Neural Information Processing Systems (NIPS 1993)*, Denver, pp. 327–334, Dec. 1993.

C. Cortes, L.D. Jackel, S.A. Jolla, V. Vapnik, and J.S. Denker, Learning Curves: Asymptotic Values and Rate of Convergence, in *Advances in Neural Information Processing Systems (NIPS nineteen ninety three)*, Denver, pp. three hundred twenty seven–three hundred thirty four, Dec. nineteen ninety three.

G.E. Hinton and K.J. Lang, Shape Recognition and Illusory Conjunctions, in *Proc. 9th Int. Joint Conf. Artificial Intelligence, Los Angeles, CA*, pp. 252–259, 1985.

G.E. Hinton and K.J. Lang, Shape Recognition and Illusory Conjunctions, in *Proc. 9th Int. Joint Conf. Artificial Intelligence, Los Angeles, CA*, pp. two hundred fifty two – two hundred fifty nine, nineteen eighty five.

Y. LeCun, L. Bottou, Y. Bengio, and P. Haffner, Gradient– based Learning Applied to Document Recognition, *Proc. IEEE*, Vol. 86, No. 11, pp. 2278–2324, Nov. 1998.

Y. LeCun, L. Bottou, Y. Bengio, and P. Haffner, Gradient– based Learning Applied to Document Recognition, *Proc. IEEE*, Vol. eighty six, No. eleven, pp. two thousand two hundred seventy eight–two thousand three hundred twenty four, Nov. nineteen ninety eight.

C.-L. Liu, S. Jaeger, and M. Nakagawa, Online Recognition of Chinese Characters: The State-of-the-Art, *IEEE Trans. Pattern Analysis Machine Intelligence*, Vol. 26, No. 2, pp. 198–213, Feb. 2004.

C.-L. Liu, S. Jaeger, and M. Nakagawa, Online Recognition of Chinese Characters: The State-of-the-Art, *IEEE Trans. Pattern Analysis Machine Intelligence*, Vol. twenty six, No. 2, pp. one hundred ninety eight–two hundred thirteen, Feb. Two thouasand four.

C.-L. Liu, F. Yin, D.-H. Wang, and Q.-F. Wang, CASIA Online and Offline Chinese Handwriting Databases, in *Proc. 11th Int. Conf. Document Analysis Recognition (ICDAR 2011)*, Beijing, China, Sept. 2011.

C.-L. Liu, F. Yin, D.-H. Wang, and Q.-F. Wang, CASIA Online and Offline Chinese Handwriting Databases, in *Proc. eleventh Int. Conf. Document Analysis Recognition (ICDAR twenty eleven)*, Beijing, China, Sept. twenty eleven.

C.-L. Liu, F. Yin, Q.-F. Wang, and D.-H.Wang, ICDAR 2011 Chinese Handwriting Recognition Competition,in *11th Int. Conf. Document Analysis Recognition (ICDAR 2011)*, Beijing, China, Sept. 2011.

C.-L. Liu, F. Yin, Q.-F. Wang, and D.-H.Wang, ICDAR twenty eleven Chinese Handwriting Recognition Competition,in *eleventh Int. Conf. Document Analysis Recognition (ICDAR twenty eleven)*, Beijing, China, Sept. twenty eleven.

Y. Li, L. Jin , X. Zhu, T. Long, SCUT-COUCH2008: A Comprehensive Online Unconstrained Chinese Handwriting Dataset (ICFHR 2008), Montreal, pp. 165–170, Aug. 2008.

Y. Li, L. Jin , X. Zhu, T. Long, SCUT-COUCH2008: A Comprehensive Online Unconstrained Chinese Handwriting Dataset (ICFHR 2008), Montreal, pp. one hundred sixy five–one hundred seventy, Aug. two thousand eight.

K. Jarrett, K. Kavukcuoglu, M. Ranzato, and Y. LeCun, What is the Best Multi-stage Architecture for Object Recognition?, in *Proc. IEEE Int. Conf. Computer Vision (ICCV09)*, Kyoto, Japan, Sept. 2009.

K. Jarrett, K. Kavukcuoglu, M. Ranzato, and Y. LeCun, What is the Best Multi-stage Architecture for Object Recognition?, in *Proc. IEEE Int. Conf. Computer Vision (ICCV09)*, Kyoto, Japan, Sept. two thousand nine.

U. Meier, D.C. Ciresan, L.M. Gambardella, and J. Schmidhuber, Better Digit Recognition with a Committee of Simple Neural Nets, in *11th Int. Conf. Document Analysis Recognition (ICDAR 2011)*, Beijing, China, Sept. 2011.

U. Meier, D.C. Ciresan, L.M. Gambardella, and J. Schmidhuber, Better Digit Recognition with a Committee of Simple Neural Nets, in *eleventh Int. Conf. Document Analysis Recognition (ICDAR twenty eleven)*, Beijing, China, Sept. twenty eleven.

P.Y. Simard, D. Steinkraus, and J.C. Platt, Best Practices for Convolutional Neural Networks Applied to Visual Document Analysis, in *7th Int. Conf. Document Analysis Recognition (ICDAR 2003)*, Edinburgh, Scotland, Aug. 2003.

P.Y. Simard, D. Steinkraus, and J.C. Platt, Best Practices for Convolutional Neural Networks Applied to Visual Document Analysis, in *7th Int. Conf. Document Analysis Recognition (ICDAR two thousand three)*, Edinburgh, Scotland, Aug. two thousand three.

Unicode, Chinese and Japanese, http://www.unicode.org/faq/han_cjk.html, 2015.

Unicode, Chinese and Japanese,http://www.unicode.org/faq/han_cjk.html, twenty fifteen.

F.F. Wang, Chinese Cursive Script: An Introduction to Handwriting in Chinese, Far Eastern Publications Series, New Haven, CT: Yale University Press, 1958.

F.F. Wang, Chinese Cursive Script: An Introduction to Handwriting in Chinese, Far Eastern Publications Series, New Haven, CT: Yale University Press, nineteen fifty eight.

F. Yin, Q.-F. Wang, X.-Y. Xhang, and C.-L. Liu, ICDAR2013 Chinese Handwriting Recognition Competition, in *11th Int. Conf. Document Analysis Recognition (ICDAR 2013)*, Washington DC, USA, Sept. 2013.

本站编辑:
    更多内容:

    沙特B2B电商平台Sary:进军北非市场

    Sary作为沙特B2B电商领头羊,在沙特电商行业的B2B市场份额中占80%。此次收购埃及同行Mowarrid,意味着Sary向北非市场的首次扩张,接下来Mowarrid也将作为Sary埃及站点开放。埃及是非洲第二大经济体,也是阿拉伯世界...

    阅读

    易贝滴眼液和贝复舒眼用凝胶一起用(贝复舒眼用凝胶冷冻后能用吗...

    本文目录贝复舒眼用凝胶冷冻后能用吗贝复舒凝胶的作用贝复舒眼用凝胶冷冻后能用吗贝复舒眼用凝胶冷冻后可能会影响到药物的效果,如果用于干眼症或严重

    阅读

    shirley怎么读(鬼吹灯 Shirley杨怎么读)

    本文目录鬼吹灯 Shirley杨怎么读Shirley中文怎么读shirley怎么念这些英文名怎么读Judy赞美Doris海洋女神名,属于大海

    阅读

    阿迪达斯验货网站(如何在阿迪达斯官网查鞋子的真假)

    2.主标/水洗标/吊牌/ID标 【主标】 现在大部分功能面料的ADIDAS衣服都是采用胶印的主标,一般正品的衣服内里都会有两张小标的,☆辨别

    阅读

    体验式购物和比价购物哪个才是趋势?你们网购一般在哪里,有优惠...

    有优惠吗欢迎来交流汽车充气泵哪个牌子好体验式购物和比价购物哪个才是趋势购物,所以说在淘宝上购物也不是很积极主动,购物会有比价,本文目录体验式

    阅读

    nars口红笔怎么转出来(你都有什么口红)

    本文目录你都有什么口红完全不化妆素颜涂口红会很奇怪吗如何化出雾面唇妆你都有什么口红我的口红更新的比较快,时间长的就丢掉了,现在就剩下下面这些

    阅读

    山东经济发展有没有机会超越广东?银商宝合法吗9he

    潜力更大深圳有哪些知名企业山东经济发展有没有机会超越广东山东要超过广东,山东最大的城市是青岛,首先我们就来看看深圳的世界五百强企业,青岛理工

    阅读

    弈航李宁工厂店是正品吗?商场李宁工厂折扣店里的鞋子是真货么

    本文目录弈航李宁工厂店是正品吗商场李宁工厂折扣店里的鞋子是真货么广州新塘有没有李宁工厂店济南李宁工厂店有哪些具体地址,谢谢李宁超级工厂店怎么

    阅读

    爱淘金为什么没有签到了(保险公司做保险业务员,几个月没开单了...

    本文目录保险公司做保险业务员,几个月没开单了,是不是应该辞职了网络成了诈骗犯的法外之地,为何抓捕困难为什么大学老师总是爱整一些所谓的平时分,

    阅读

    gap是啥意思?zara和gap是一个级别吗

    本文目录gap是啥意思zara和gap是一个级别吗gap中文什么意思GAP的中国公司gap是啥意思“gap”根据英文解释有“缝隙”的意思。是

    阅读

    乐天集团的家族宫斗(这段时间关注朴槿惠的人为何突然猛增)

    本文目录这段时间关注朴槿惠的人为何突然猛增为什么日本解散了财阀,韩国却不能腾讯的势力到底有多大,为什么说腾讯是中国版的超级财阀这段时间关注朴

    阅读

    宝格丽香水简介(宝格丽香水是世界名牌吗)

    本文目录宝格丽香水是世界名牌吗BVLGARI的香水是什么牌子多少钱宝格丽香水怎么样值得购买吗宝格丽香水价值主张宝格丽香水是世界名牌吗宝格丽是

    阅读

    惠氏铂臻莹萃有机奶粉(有机奶粉和普通奶粉的区别大吗有机奶粉哪...

    本文目录有机奶粉和普通奶粉的区别大吗有机奶粉哪款更值得推荐6个月宝宝喝惠氏启赋蕴萃有机奶粉怎么样铂臻奶粉怎么样对宝宝健康好吗惠氏铂臻奶粉港版

    阅读

    国内cfa最好的十大培训机构(中国最好的金融培训机构是哪家)

    本文目录中国最好的金融培训机构是哪家国内哪家CFA辅导机构好,金程教育业内好像挺知名的CFA考的人多吗,哪家辅导机构最出名找金程辅导CFA,

    阅读

    离岸公司注册代理在哪个网站发布信息(你们注册离岸公司会找哪家...

    本文目录你们注册离岸公司会找哪家代理公司帮忙会比较好我想注册离岸公司,可不知道该在哪里注册请大家推荐下想开设离岸账号接受美金,推荐一家正规的

    阅读

    蓝海市场有哪些行业(未来哪些行业是蓝海行业)

    2019年农村乡镇汽车市场会是新“蓝海”吗有关2019年农村乡镇汽车市场是不是新“蓝海”的问题,本文目录未来哪些行业是蓝海行业2019年农村

    阅读

    海外购药哪个网站正品(国外的电商网站可以卖药吗)

    本文目录国外的电商网站可以卖药吗有没有靠谱的正品全球购平台想买国外的一些保健品请问京东全球购是正品吗有没有其他海外购平台推荐国外的电商网站可

    阅读

    nursery卸妆膏(贝德玛卸妆水卸的干净吗还有什么好用的卸妆产品...

    本文目录贝德玛卸妆水卸的干净吗还有什么好用的卸妆产品推荐吗有什么好用的卸妆膏可以推荐本人干皮,只涂防晒,用的是安耐晒金瓶,求能卸干净又不拔干

    阅读

    跨境通还有翻身机会吗(2020年,跨境电商还值不值得做)

    跨境电商还值不值得做跨境通能摘帽吗跨境电商未来的前景如何2021年跨境电商有前途吗2020年,很多人都通过跨境电商获得了利润,但是如果在跨境

    阅读

    facebook message apk(台湾、香港和澳门的人平时聊天都用微信吗...

    本文目录台湾、香港和澳门的人平时聊天都用微信吗外贸人应该如何利用碎片化时间有效吸引客户询盘中国大部分人都玩微信,外国人玩什么通过什么方式交流

    阅读