在PyTorch中使用GPU加速計算可以通過以下步驟實現:
import torch
if torch.cuda.is_available():
print("GPU is available!")
else:
print("GPU is not available.")
# 創建一個Tensor對象
x = torch.randn(3, 3)
# 將Tensor對象移動到GPU設備上
x = x.to('cuda')
import torch.nn as nn
# 定義一個簡單的神經網絡模型
class SimpleNN(nn.Module):
def __init__(self):
super(SimpleNN, self).__init__()
self.fc1 = nn.Linear(10, 5)
self.fc2 = nn.Linear(5, 2)
def forward(self, x):
x = self.fc1(x)
x = self.fc2(x)
return x
# 創建模型實例并將其移動到GPU設備上
model = SimpleNN()
model = model.to('cuda')
# 將輸入數據和標簽移動到GPU設備上
inputs = inputs.to('cuda')
labels = labels.to('cuda')
# 使用GPU設備進行前向傳播和反向傳播
outputs = model(inputs)
loss = criterion(outputs, labels)
loss.backward()
optimizer.step()
通過以上步驟,可以在PyTorch中使用GPU加速計算,提高訓練模型的速度和效率。