兼容超大图片的处理_计算机读取超大图像的一些问题简述

近期在处理遥感数据的时候,发现了一些问题跟大家分享一下解决方案。
有一张不知道从哪里搞来的中国的夜间灯光数据,分辨率为28800*18000,在Python语言下,Opencv读取和PIL读取都会出现问题。
Opencv直接就是变量为Nonetype,连错都没报!
PIL是像素个数超过了限定值,报了错,PIL拒绝加载。
So,我找到了一些解决方案:
1、编写matlab程序,调用blockproc函数,进行切割,该方法适用于超大影像,如几个G,甚至几十GB的。
2、对于PIL、Opencv警告的处理也要具体问题具体分析:解压后的数据小于当前物理内存的图片,可以通过设置Image.MAX_IMAGE_PIXELS来适当提高触发警告的阈值,继而强制加载。解压后的数据大小可以用图片尺寸与色彩位深来估计。
如PIL:
>>> from PIL import Image
>>> Image.MAX_IMAGE_PIXELS = 1000000000 #Or None
>>> im = Image.open(r'some.tif')但是,对于解压后的数据显然大于当前物理内存的图片,应当灵活应用图片压缩方法具备的特性,例如JPEG的递进性(即Progressive)、JPEG 2000的区域解码(即Random Access)等等。然而这些特性,PIL几乎不能使用,因此应当考虑其他专业软件或者根据需求自行实现。
3、更换其他语言进行尝试,如C++,汇编语言。
4、万事都不如增加配置来的方便,烧钱吧!如果是20gb以上的图片,最好有128gb以上的内存,和480gb以上固态硬盘,主要是读写速度不够,所以硬盘一定要好。
也许对于具有极大物理内存的用户来说,通过调整阈值,图像尺寸似乎就没有了上限。但事实上考虑到Python令人遗憾的多核性能(至少对于cPython),以及一个平凡的观察——你通常需要处理很多小图片,或者些许大图片——加载一个特别大的图片将不会在合理的时间内完成,即使通过并行处理也节约不了太多时间(并没有那么多图片需要处理)。
参考文献:
Matlab切割超大影像blog.csdn.netPython图形库处理大型图片的有关问题 - 胡先生与他愉快的朋友们huzheyang.cn本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场,不承担相关法律责任。如若转载,请注明出处。 如若内容造成侵权/违法违规/事实不符,请点击【内容举报】进行投诉反馈!
