在Torch中進行序列到序列(seq2seq)任務通常涉及使用循環神經網絡(RNN)或變換器模型(如Transformer)來實現。以下是一個簡單的使用RNN進行序列到序列任務的示例代碼:
import torch
from torchtext.legacy import data, datasets
# 定義數據中的Field對象
SRC = data.Field(tokenize='spacy', tokenizer_language='en_core_web_sm', init_token='<sos>', eos_token='<eos>', lower=True)
TRG = data.Field(tokenize='spacy', tokenizer_language='de_core_news_sm', init_token='<sos>', eos_token='<eos>', lower=True)
# 加載數據集
train_data, valid_data, test_data = datasets.Multi30k.splits(exts=('.en', '.de'), fields=(SRC, TRG))
# 構建詞匯表
SRC.build_vocab(train_data, min_freq=2)
TRG.build_vocab(train_data, min_freq=2)
# 創建數據加載器
BATCH_SIZE = 128
device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
train_iterator, valid_iterator, test_iterator = data.BucketIterator.splits((train_data, valid_data, test_data), batch_size=BATCH_SIZE, device=device)
from models import Seq2Seq
# 定義超參數
INPUT_DIM = len(SRC.vocab)
OUTPUT_DIM = len(TRG.vocab)
ENC_EMB_DIM = 256
DEC_EMB_DIM = 256
HID_DIM = 512
N_LAYERS = 2
ENC_DROPOUT = 0.5
DEC_DROPOUT = 0.5
# 創建Seq2Seq模型
model = Seq2Seq(INPUT_DIM, OUTPUT_DIM, ENC_EMB_DIM, DEC_EMB_DIM, HID_DIM, N_LAYERS, ENC_DROPOUT, DEC_DROPOUT).to(device)
import torch.optim as optim
# 定義優化器和損失函數
optimizer = optim.Adam(model.parameters())
TRG_PAD_IDX = TRG.vocab.stoi[TRG.pad_token]
criterion = nn.CrossEntropyLoss(ignore_index = TRG_PAD_IDX)
# 訓練模型
import trainer
N_EPOCHS = 10
CLIP = 1
for epoch in range(N_EPOCHS):
trainer.train(model, train_iterator, optimizer, criterion, CLIP)
trainer.evaluate(model, valid_iterator, criterion)
# 測試模型
trainer.evaluate(model, test_iterator, criterion)
以上代碼僅提供了一個簡單的序列到序列任務的示例,實際應用中可能需要進行更多細節的調整和優化。同時,還可以嘗試使用其他模型(如Transformer)來實現更復雜的序列到序列任務。