AWS的湖倉(cāng)一體使用數(shù)據(jù)湖格式進(jìn)行銜接實(shí)例分析

AWS的湖倉(cāng)一體使用數(shù)據(jù)湖格式進(jìn)行銜接實(shí)例分析,很多新手對(duì)此不是很清楚,為了幫助大家解決這個(gè)難題,下面小編將為大家詳細(xì)講解,有這方面需求的人可以來(lái)學(xué)習(xí)下,希望你能有所收獲。

成都創(chuàng)新互聯(lián)主要業(yè)務(wù)有網(wǎng)站營(yíng)銷策劃、網(wǎng)站建設(shè)、網(wǎng)站制作、微信公眾號(hào)開(kāi)發(fā)、小程序設(shè)計(jì)、H5開(kāi)發(fā)、程序開(kāi)發(fā)等業(yè)務(wù)。一次合作終身朋友,是我們奉行的宗旨;我們不僅僅把客戶當(dāng)客戶,還把客戶視為我們的合作伙伴,在開(kāi)展業(yè)務(wù)的過(guò)程中,公司還積累了豐富的行業(yè)經(jīng)驗(yàn)、全網(wǎng)營(yíng)銷推廣資源和合作伙伴關(guān)系資源,并逐漸建立起規(guī)范的客戶服務(wù)和保障體系。 

一直有小伙伴詢問(wèn)能否使用Amazon Redshift(數(shù)倉(cāng))查詢Hudi表,現(xiàn)在它終于來(lái)了。

現(xiàn)在您可以使用Amazon Redshift查詢Amazon S3 數(shù)據(jù)湖中Apache Hudi/Delta Lake表數(shù)據(jù)。Amazon Redshift Spectrum作為Amazon Redshift的特性可以允許您直接從Redshift集群中查詢S3數(shù)據(jù)湖,而無(wú)需先將數(shù)據(jù)加載到其中,從而最大限度地縮短了洞察數(shù)據(jù)價(jià)值時(shí)間。

Redshift Spectrum支持Lake house架構(gòu),可以跨Redshift、Lake house和操作數(shù)據(jù)庫(kù)查詢數(shù)據(jù),而無(wú)需進(jìn)行ETL或加載數(shù)據(jù)。Redshift Spectrum支持開(kāi)放數(shù)據(jù)格式,如Parquet、ORC、JSON和CSV。Redshift Spectrum還支持查詢具有復(fù)雜嵌套數(shù)據(jù)類型(如struct、array或map)。

Redshift Spectrum允許您讀取Apache Hudi 0.5.2版本的Copy-on-Write(CoW)表的最新快照,并且可以通過(guò)manifest文件讀取最新的Delta Lake 0.5.0版本表。

要查詢Apache Hudi的Copy-On-Write(CoW)格式的數(shù)據(jù),可以使用Amazon Redshift-Spectrum外表。Hudi Copy On Write表是存儲(chǔ)在Amazon S3中的Apache Parquet文件的集合。有關(guān)更多信息,請(qǐng)參閱開(kāi)源Apache Hudi文檔中的Copy-On-Write表。

當(dāng)創(chuàng)建引用Hudi CoW格式數(shù)據(jù)的外表后,將外表中的每一列映射到Hudi數(shù)據(jù)中的列。映射是按列完成的。

Hudi分區(qū)和未分區(qū)表的數(shù)據(jù)定義語(yǔ)言(DDL)語(yǔ)句與其他Apache Parquet文件格式的語(yǔ)句類似。對(duì)于Hudi表,可以將INPUTFORMAT定義為org.apache.hudi.hadoop.HoodieParquetInputFormat. LOCATION參數(shù)必須指向包含.hoodie文件夾的Hudi表基礎(chǔ)文件夾,該文件夾是建立Hudi提交時(shí)間線所必需的。在某些情況下,對(duì)Hudi表的SELECT操作可能會(huì)失敗,并顯示消息**No valid Hudi commit timeline found**。如果是,請(qǐng)檢查.hoodie文件夾是否在正確的位置,并且包含有效的Hudi提交時(shí)間線。

注意,Apache Hudi格式只有在使用AWS Glue Data時(shí)支持,不支持使用Apache Hive metastore作為外部catalog。

使用如下命令定義非分區(qū)表

CREATE EXTERNAL TABLE tbl_name (columns)
ROW FORMAT SERDE 'org.apache.hadoop.hive.ql.io.parquet.serde.ParquetHiveSerDe'
STORED AS
INPUTFORMAT 'org.apache.hudi.hadoop.HoodieParquetInputFormat'
OUTPUTFORMAT 'org.apache.hadoop.hive.ql.io.parquet.MapredParquetOutputFormat'
LOCATION 's3://s3-bucket/prefix'
 

使用如下命令定義分區(qū)表

CREATE EXTERNAL TABLE tbl_name (columns)
PARTITIONED BY(pcolumn1 pcolumn1-type[,...])
ROW FORMAT SERDE 'org.apache.hadoop.hive.ql.io.parquet.serde.ParquetHiveSerDe'
STORED AS
INPUTFORMAT 'org.apache.hudi.hadoop.HoodieParquetInputFormat'
OUTPUTFORMAT 'org.apache.hadoop.hive.ql.io.parquet.MapredParquetOutputFormat'
LOCATION 's3://s3-bucket/prefix'
 

為Hudi分區(qū)表添加分區(qū),請(qǐng)使用ALTER TABLE ADD PARTITION命令,其中LOCATION參數(shù)指向?qū)儆诜謪^(qū)的Amazon S3子文件夾。

使用如下命令添加分區(qū)

ALTER TABLE tbl_name
ADD IF NOT EXISTS PARTITION(pcolumn1=pvalue1[,...])
LOCATION 's3://s3-bucket/prefix/partition-path'

看完上述內(nèi)容是否對(duì)您有幫助呢?如果還想對(duì)相關(guān)知識(shí)有進(jìn)一步的了解或閱讀更多相關(guān)文章,請(qǐng)關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道,感謝您對(duì)創(chuàng)新互聯(lián)的支持。

網(wǎng)站欄目:AWS的湖倉(cāng)一體使用數(shù)據(jù)湖格式進(jìn)行銜接實(shí)例分析
瀏覽地址:http://muchs.cn/article36/gdeisg.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供網(wǎng)站建設(shè)、搜索引擎優(yōu)化網(wǎng)站策劃、網(wǎng)站設(shè)計(jì)公司、域名注冊(cè)、定制網(wǎng)站

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來(lái)源: 創(chuàng)新互聯(lián)

成都做網(wǎng)站