如何使用纯Python激活Google CoLab GPU
问题描述
我是Google CoLab新手。
我正尝试在那里进行深度学习。
我已经编写了一个类来创建和训练LSTM网络,只使用python,而不是任何特定的深度学习库,如TensorFlow、pytorch等。
我认为我使用的是GPU,因为我在CoLab中正确选择了运行时类型。
但是,在代码执行期间,我有时收到退出GPU模式的消息,因为我没有使用它。
因此,我的问题是:如何使用Google CoLab GPU,只使用普通的python,而不使用特殊的人工智能库?是否有类似于"装饰器代码"的内容可以放入我的原始代码中,以便激活GPU?解决方案
确保nVIDIA驱动程序是最新的,您还可以安装CUDA工具包(协作时不确定是否需要)
又称Numba
如果需要,您可以使用conda安装它们
示例
conda install numba & conda install cudatoolkit
or
pip install numba
我们将对要在GPU上计算的函数使用numba.jit修饰符。装饰符有几个参数,但我们将只使用target参数。target告诉jit编译哪个源("cpu"或"cuda")的代码。"CUDA"对应于GPU。但是,如果将cpu作为参数传递,则jit会尝试优化代码在cpu上运行得更快,并提高速度。
from numba import jit, cuda
import numpy as np
@jit(target ="cuda")
def func(a):
for i in range(10000000):
a[i]+= 1
相关文章