Sparkstdout日志亂碼

  采用Apache版本spark1.2.1時沒有出現(xiàn)亂碼,但spark-1.1.0-cdh6.2.1版本中,在分布處理的map函數(shù)里對數(shù)據(jù)進行打印輸出進行debug時

成都創(chuàng)新互聯(lián)主營陸川網(wǎng)站建設(shè)的網(wǎng)絡(luò)公司,主營網(wǎng)站建設(shè)方案,App定制開發(fā),陸川h5小程序制作搭建,陸川網(wǎng)站營銷推廣歡迎陸川等地區(qū)企業(yè)咨詢

val rs = rdd.filter(e => {val (lable,text) = (e._2(2), e._2(3));  m.filterItem(lable, text) })
           .reduceByKey((x,y) => m.merge(x, y))
           .map{case (x,y) => {println(x + "\t" + y);  (x._1.toLong, x._2, y(1), y(3) )}}

發(fā)現(xiàn)stdout文件里面中文內(nèi)容亂碼

(5,?????????????)       List(????????????? ? ??, http://xinligs.cn.china.cn/, A0, ,???:???,,??:?????????????138?,??:7975209__??:15028078833__??:15176090928,,,,,,,,????:???????????????????????(11)???,,,,, false, 4, 7)
?????????????   17      ,???:???,,??:?????????????138?,??:7975209__??:15028078833__??:15176090928,,,,,,,,????:???????????????????????(11)???,,,,

在/var/run/spark/work/目錄中查看對應(yīng)app-20150605171809-0003中的stdout文件

stderr:                           ASCII C++ program text
stdout:                           UTF-8 Unicode text, with very long lines

stdout是ASCII編碼的,對中文肯定顯示不了

在使用service啟動Java程序時,機器上hadoop中stdout輸出的日志也是是中文亂碼

修改 /sbin/service  ,在env -i 后面加上 LANG="$LANG"

重啟spark的各節(jié)點

service spark-master restart
service spark-worker restart

最后日志中文顯示正常

文章標題:Sparkstdout日志亂碼
文章地址:http://www.muchs.cn/article6/ghjgog.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供外貿(mào)網(wǎng)站建設(shè)微信小程序、靜態(tài)網(wǎng)站、網(wǎng)站制作、全網(wǎng)營銷推廣、網(wǎng)站建設(shè)

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)

網(wǎng)站優(yōu)化排名