博客
关于我
从压缩文件流中读取数据
阅读量:320 次
发布时间:2019-03-04

本文共 1194 字,大约阅读时间需要 3 分钟。

public class ZipUtils {   		@Test	public void getZipFile() throws IOException {           String generateUrl = "http://文件地址";		//从服务器请求文件流,具体代码就不贴了//        CloseableHttpResponse response = HttpSender.toPost(FILE_URL, null);//        InputStream inputStream = response.getEntity().getContent();		URL url = new URL(generateUrl);		URLConnection conn = url.openConnection();		InputStream inputStream = conn.getInputStream();        ByteArrayOutputStream byteArray = new ByteArrayOutputStream();        byte[] buff = new byte[1024*1024]; //如果是稍微大的文件,这里配置的大一些        int len = 0;        while((len = inputStream.read(buff)) > 0) {               //把从服务端读取的文件流保存到ByteArrayOutputSteam中            byteArray.write(buff, 0, len);            byteArray.flush();        }        inputStream.close();//        response.close();        //GZIPInputstream解压文件,然后读取文件        BufferedReader bufferedReader = new BufferedReader(                new InputStreamReader(new GZIPInputStream(                        new ByteArrayInputStream(byteArray.toByteArray())), "utf-8"));        String line = null;        while((line = bufferedReader.readLine()) != null) {               System.out.println(line);        }    }	}

转载地址:http://hduh.baihongyu.com/

你可能感兴趣的文章
Mysql 索引问题集锦
查看>>
Mysql 纵表转换为横表
查看>>
mysql 编译安装 window篇
查看>>
mysql 网络目录_联机目录数据库
查看>>
MySQL 聚簇索引&&二级索引&&辅助索引
查看>>
Mysql 脏页 脏读 脏数据
查看>>
mysql 自增id和UUID做主键性能分析,及最优方案
查看>>
Mysql 自定义函数
查看>>
mysql 行转列 列转行
查看>>
Mysql 表分区
查看>>
mysql 表的操作
查看>>
mysql 视图,视图更新删除
查看>>
MySQL 触发器
查看>>
mysql 让所有IP访问数据库
查看>>
mysql 记录的增删改查
查看>>
MySQL 设置数据库的隔离级别
查看>>
MySQL 证明为什么用limit时,offset很大会影响性能
查看>>
Mysql 语句操作索引SQL语句
查看>>
MySQL 误操作后数据恢复(update,delete忘加where条件)
查看>>
MySQL 调优/优化的 101 个建议!
查看>>