使用 ML docker 映像和在 Dockerfile 中运行 pip install 之间的区别
pytorch 276
原文标题 :Difference between using a ML docker image and running pip install in Dockerfile
我看到有许多可用的 Docker 镜像可用于流行的 ML 框架,例如 PyTorchandTensorflow。
使用这些预构建的镜像和在 Dockerfile 中使用pip install
或conda install
安装这些库有什么区别?
我通常从支持 GPU 的nvidia/cuda
基础映像构建我的自定义 Docker 映像,然后运行 bash 命令来安装包含上述库的我的requirements.txt
文件。例子:
FROM nvidia/cuda:10.2-cudnn7-runtime-ubuntu18.04
...
# Activate virtual environment and install requirements
RUN /bin/bash -c "cd src \
&& source activate my_venv \
&& pip install -r requirements.txt"
我觉得使用pip install
给了我更多的自由,让我可以选择一个基础镜像,让我能够在我最喜欢的操作系统上使用 GPU。我想这可能与性能问题有关。