小編給大家分享一下docker掛載NVIDIA顯卡如何運(yùn)行pytorch,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!
創(chuàng)新互聯(lián)公司服務(wù)項目包括章貢網(wǎng)站建設(shè)、章貢網(wǎng)站制作、章貢網(wǎng)頁制作以及章貢網(wǎng)絡(luò)營銷策劃等。多年來,我們專注于互聯(lián)網(wǎng)行業(yè),利用自身積累的技術(shù)優(yōu)勢、行業(yè)經(jīng)驗(yàn)、深度合作伙伴關(guān)系等,向廣大中小型企業(yè)、政府機(jī)構(gòu)等提供互聯(lián)網(wǎng)行業(yè)的解決方案,章貢網(wǎng)站推廣取得了明顯的社會效益與經(jīng)濟(jì)效益。目前,我們服務(wù)的客戶以成都為中心已經(jīng)輻射到章貢省份的部分城市,未來相信會繼續(xù)擴(kuò)大服務(wù)區(qū)域并繼續(xù)獲得客戶的支持與信任!主機(jī)運(yùn)行環(huán)境
$ uname -a Linux CentOS 3.10.0-514.26.2.el7.x86_64 #1 SMP Tue Jul 4 15:04:05 UTC 2017 x86_64 x86_64 x86_64 GNU/Linux $ cat /usr/local/cuda/version.txt CUDA Version 8.0.61 $ cat /usr/local/cuda/include/cudnn.h | grep CUDNN_MAJOR -A 2 #define CUDNN_MAJOR 6 #define CUDNN_MINOR 0 #define CUDNN_PATCHLEVEL 21 #define CUDNN_VERSION (CUDNN_MAJOR * 1000 + CUDNN_MINOR * 100 + CUDNN_PATCHLEVEL) #include "driver_types.h" # NVIDIA 1080ti
一、關(guān)于GPU的掛載
1. 在docker運(yùn)行時指定device掛載
先查看一下有哪些相關(guān)設(shè)備
$ ls -la /dev | grep nvidia crw-rw-rw- 1 root root 195, 0 Nov 15 13:41 nvidia0 crw-rw-rw- 1 root root 195, 1 Nov 15 13:41 nvidia1 crw-rw-rw- 1 root root 195, 255 Nov 15 13:41 nvidiactl crw-rw-rw- 1 root root 242, 0 Nov 15 13:41 nvidia-uvm crw-rw-rw- 1 root root 242, 1 Nov 15 13:41 nvidia-uvm-tools
電腦上裝了兩個顯卡。我需要運(yùn)行pytorch,dockerhub中pytorch官方鏡像沒有g(shù)pu支持,所以只能先pull一個anaconda鏡像試試,后面可以編排成Dockerfile。
$ docker run -it -d --rm --name pytorch -v /home/qiyafei/pytorch:/mnt/home --privileged=true --device /dev/nvidia-uvm:/dev/nvidia-uvm --device /dev/nvidia1:/dev/nvidia1 --device /dev/nvidiactl:/dev/nvidiactl okwrtdsh/anaconda3 bash
okwrtdsh的鏡像似乎是針對他們實(shí)驗(yàn)室GPU環(huán)境的,有點(diǎn)過大了,不過勉強(qiáng)運(yùn)行一下還是可以的。在容器內(nèi)部還需要
安裝pytorch:
$ conda install pytorch torchvision -c pytorch
這里運(yùn)行torch成功,但是加載顯卡失敗了,可能還是因?yàn)轵?qū)動不匹配的原因吧,需要重新安裝驅(qū)動,暫時不做此嘗試;
二、通過nvidia-docker在docker內(nèi)使用顯卡
詳細(xì)信息:https://github.com/NVIDIA/nvidia-docker
(1)安裝nvidia-docker
nvidia-docker其實(shí)是docker引擎的一個應(yīng)用插件,專門面向NVIDIA GPU,因?yàn)閐ocker引擎是不支持NVIDIA驅(qū)動的,安裝插件后可以在用戶層上直接使用cuda。具體看上圖。這個圖很形象,docker引擎的運(yùn)行機(jī)制也表現(xiàn)出來了,就是在系統(tǒng)內(nèi)核之上通過cgroup和namespace虛擬出一個容器OS的用戶空間,我不清楚這是否運(yùn)行在ring0上,但是cuda和應(yīng)用確實(shí)可以使用了(虛擬化的問題,如果關(guān)心此類問題可以了解一些關(guān)于docker、kvm等等虛擬化的實(shí)現(xiàn)方式,目前是系統(tǒng)類比較火熱的話題)
下載rpm包:https://github.com/NVIDIA/nvidia-docker/releases/download/v1.0.1/nvidia-docker-1.0.1-1.x86_64.rpm
這里也可以通過添加apt或者yum sourcelist的方式進(jìn)行安裝,但是我沒有root權(quán)限,而且update容易引起docker重啟,如果不是實(shí)驗(yàn)室的個人環(huán)境不推薦這么做,防止破壞別人正在運(yùn)行的程序(之前公司一個小伙子就是在阿里云上進(jìn)行了yum update,結(jié)果導(dǎo)致公司部分業(yè)務(wù)停了一個上午)。
$ sudo rpm -i nvidia-docker-1.0.1-1.x86_64.rpm && rm nvidia-docker-1.0.1-1.x86_64.rpm $ sudo systemctl start nvidia-docker
(2)容器測試
我們還需要NVIDIA官方提供的docker容器nvidia/cuda,里面已經(jīng)編譯安裝了CUDA和CUDNN,或者直接run,缺少image的會自動pull。
$ docker pull nvidia/cuda $ nvidia-docker run --rm nvidia/cuda nvidia-smi
在容器內(nèi)測試是可以成功使用nvidia顯卡的:
(3)合適的鏡像或者自制dockerfile
合適的鏡像:這里推薦Floydhub的pytorch,注意對應(yīng)的cuda和cudnn版本。
docker pull floydhub/pytorch:0.3.0-gpu.cuda8cudnn6-py3.22 nvidia-docker run -ti -d --rm floydhub/pytorch:0.3.0-gpu.cuda8cudnn6-py3.22 bash
自制dockerfile
首先,我們需要把要裝的東西想清楚:
1. 基礎(chǔ)鏡像肯定是NVIDIA官方提供的啦,最省事,不用裝cuda和cudnn了;
2. vim、git、lrzsz、ssh這些肯定要啦;
3. anaconda、pytorch肯定要啦;
所以需要準(zhǔn)備好國內(nèi)源source.list,否則安裝速度很慢。
deb-src http://archive.ubuntu.com/ubuntu xenial main restricted #Added by software-properties deb http://mirrors.aliyun.com/ubuntu/ xenial main restricted deb-src http://mirrors.aliyun.com/ubuntu/ xenial main restricted multiverse universe #Added by software-properties deb http://mirrors.aliyun.com/ubuntu/ xenial-updates main restricted deb-src http://mirrors.aliyun.com/ubuntu/ xenial-updates main restricted multiverse universe #Added by software-properties deb http://mirrors.aliyun.com/ubuntu/ xenial universe deb http://mirrors.aliyun.com/ubuntu/ xenial-updates universe deb http://mirrors.aliyun.com/ubuntu/ xenial multiverse deb http://mirrors.aliyun.com/ubuntu/ xenial-updates multiverse deb http://mirrors.aliyun.com/ubuntu/ xenial-backports main restricted universe multiverse deb-src http://mirrors.aliyun.com/ubuntu/ xenial-backports main restricted universe multiverse #Added by software-properties deb http://archive.canonical.com/ubuntu xenial partner deb-src http://archive.canonical.com/ubuntu xenial partner deb http://mirrors.aliyun.com/ubuntu/ xenial-security main restricted deb-src http://mirrors.aliyun.com/ubuntu/ xenial-security main restricted multiverse universe #Added by software-properties deb http://mirrors.aliyun.com/ubuntu/ xenial-security universe deb http://mirrors.aliyun.com/ubuntu/ xenial-security multiverse
下載anaconda的地址:https://repo.continuum.io/archive/Anaconda3-5.0.1-Linux-x86_64.sh,這里直接在Dockerfile里下了,具體如下:
$ vim Dockerfile FROM nvidia/cuda LABEL author="qyf" ENV PYTHONIOENCODING=utf-8 RUN mv /etc/apt/sources.list /etc/apt/sources.list.bak ADD $PWD/sources.list /etc/apt/sources.list RUN apt-get update --fix-missing && \ apt-get install -y vim net-tools curl wget git bzip2 ca-certificates libglib2.0-0 libxext6 libsm6 libxrender1 mercurial subversion apt-transport-https software-properties-common RUN apt-get install -y openssh-server -y RUN echo 'root:passwd' | chpasswd RUN sed -i 's/PermitRootLogin prohibit-password/PermitRootLogin yes/' /etc/ssh/sshd_config RUN sed -i 's/#PasswordAuthentication yes/PasswordAuthentication yes/' /etc/ssh/sshd_config RUN echo 'export PATH=/opt/conda/bin:$PATH' > /etc/profile.d/conda.sh && wget --quiet https://repo.continuum.io/archive/Anaconda3-5.0.1-Linux-x86_64.sh -O ~/anaconda.sh && /bin/bash ~/anaconda.sh -b -p /opt/conda && rm ~/anaconda.sh RUN apt-get install -y grep sed dpkg && \ TINI_VERSION=`curl https://github.com/krallin/tini/releases/latest | grep -o "/v.*\"" | sed 's:^..\(.*\).$:\1:'` && \ curl -L "https://github.com/krallin/tini/releases/download/v${TINI_VERSION}/tini_${TINI_VERSION}.deb"; > tini.deb && \ dpkg -i tini.deb && \ rm tini.deb && \ apt-get clean ENV PATH /opt/conda/bin:$PATH RUN conda install pytorch torchvision -c pytorch -y ENTRYPOINT [ "/usr/bin/tini", "--" ] CMD [ "/bin/bash" ]
通過docker build構(gòu)造鏡像:
docker build -t pytorch/cuda8 ./
運(yùn)行成功調(diào)用cuda?!?/p>
三、關(guān)于一些bug
這里有部分debian的配置,我照著dockerhub上anaconda鏡像抄的,這里就不再配置了,反正跑起來后有鏡像也可以用。系統(tǒng)隨后可能會出現(xiàn)錯誤:
kernel:unregister_netdevice: waiting for lo to become free. Usage count = 1
這個小哥給出了一個解決方案,至少他給出的錯誤原因我是相信的:是由內(nèi)核的TCP套接字錯誤引發(fā)的。這里我給出一些思考,關(guān)于上面的結(jié)構(gòu)圖,在顯卡上,通過nvidia-docker,docker之上的容器可以使用到底層顯卡(驅(qū)動顯然是在docker之下的),而TCP套接字,我猜測也是這種使用方法,而虛擬出來的dockerOS,應(yīng)該是沒有權(quán)限來訪問宿主機(jī)內(nèi)核的,至少內(nèi)核限制了部分權(quán)限。
以上是“docker掛載NVIDIA顯卡如何運(yùn)行pytorch”這篇文章的所有內(nèi)容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內(nèi)容對大家有所幫助,如果還想學(xué)習(xí)更多知識,歡迎關(guān)注創(chuàng)新互聯(lián)成都網(wǎng)站設(shè)計公司行業(yè)資訊頻道!
另外有需要云服務(wù)器可以了解下創(chuàng)新互聯(lián)scvps.cn,海內(nèi)外云服務(wù)器15元起步,三天無理由+7*72小時售后在線,公司持有idc許可證,提供“云服務(wù)器、裸金屬服務(wù)器、高防服務(wù)器、香港服務(wù)器、美國服務(wù)器、虛擬主機(jī)、免備案服務(wù)器”等云主機(jī)租用服務(wù)以及企業(yè)上云的綜合解決方案,具有“安全穩(wěn)定、簡單易用、服務(wù)可用性高、性價比高”等特點(diǎn)與優(yōu)勢,專為企業(yè)上云打造定制,能夠滿足用戶豐富、多元化的應(yīng)用場景需求。
分享文章:docker掛載NVIDIA顯卡如何運(yùn)行pytorch-創(chuàng)新互聯(lián)
本文URL:http://muchs.cn/article18/ceeidp.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供電子商務(wù)、面包屑導(dǎo)航、靜態(tài)網(wǎng)站、外貿(mào)網(wǎng)站建設(shè)、品牌網(wǎng)站制作、網(wǎng)站內(nèi)鏈
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)
猜你還喜歡下面的內(nèi)容