Hadoop系列文章目录
1、hadoop3.1.4简单介绍及部署、简单验证
 2、HDFS操作 - shell客户端
 3、HDFS的使用(读写、上传、下载、遍历、查找文件、整个目录拷贝、只拷贝文件、列出文件夹下文件、删除文件及目录、获取文件及文件夹属性等)-java
 4、HDFS-java操作类HDFSUtil及junit测试(HDFS的常见操作以及HA环境的配置)
 5、HDFS API的RESTful风格–WebHDFS
 6、HDFS的HttpFS-代理服务
 7、大数据中常见的文件存储格式以及hadoop中支持的压缩算法
 8、HDFS内存存储策略支持和“冷热温”存储
 9、hadoop高可用HA集群部署及三种方式验证
 10、HDFS小文件解决方案–Archive
 11、hadoop环境下的Sequence File的读写与合并
 12、HDFS Trash垃圾桶回收介绍与示例
 13、HDFS Snapshot快照
 14、HDFS 透明加密KMS
 15、MapReduce介绍及wordcount
 16、MapReduce的基本用法示例-自定义序列化、排序、分区、分组和topN
 17、MapReduce的分区Partition介绍
 18、MapReduce的计数器与通过MapReduce读取/写入数据库示例
 19、Join操作map side join 和 reduce side join
 20、MapReduce 工作流介绍
 21、MapReduce读写SequenceFile、MapFile、ORCFile和ParquetFile文件
 22、MapReduce使用Gzip压缩、Snappy压缩和Lzo压缩算法写文件和读取相应的文件
 23、hadoop集群中yarn运行mapreduce的内存、CPU分配调度计算与优化
本文简单介绍WebHDFS和使用。
一、介绍
1、WebHDFS概述
WebHDFS 提供了访问HDFS的RESTful接口,内置组件,默认开启。
 WebHDFS 使得集群外的客户端可以不用安装HADOOP和JAVA环境就可以对HDFS进行访问,且客户端不受语言限制。
 当客户端请求某文件时,WebHDFS会将其重定向到该资源所在的datanode。
 
2、格式
FileSystem URIs vs HTTP URLs
 WebHDFS的文件系统schema为webhdfs://。URL格式为:
 webhdfs://:
 效果相当于 hdfs://:
 在RESTful风格的API中,相应的HTTP URL格式: 
   
 http://:
 
     
 
   
3、HTTP RESTful API参数
二、使用示例
hadoop的HDFS Web UI,其文件浏览功能是基于WebHDFS来操作HDFS实现的。如下示例:
 
- 基于HTTP RESTful API操作演示
 查看目录下所有文件及文件夹
  
 在浏览器地址栏中输入:http://192.168.10.41:9870/webhdfs/v1/?op=LISTSTATUS
 展示结果如下,其访问命令如上图 hadoop fs -ls /:
  
 读取指定文件内容
# 语法格式:
http://<HOST>:<PORT>/webhdfs/v1/<PATH>?op=OPEN[&offset=<LONG>][&length=<LONG>][&buffersize=<INT>][&noredirect=<true|false>]
# 其中noredirect参数用于指定是否重定向到一个datanode,在该节点可以读取文件数据
# 示例1
http://192.168.10.41:9870/webhdfs/v1/test/testing.txt?op=open&noredirect=false
# 示例2 -会直接下载数据文件
http://192.168.10.41:9870/webhdfs/v1/test/testing.txt?op=open&noredirect=true
- 1
- 2
- 3
- 4
- 5
- 6
- 7

 
                                    

评论记录:
回复评论: