鱼C论坛

 找回密码
 立即注册
查看: 2198|回复: 32

pytorch的nn模型训练数据

[复制链接]
发表于 2024-10-19 15:23:27 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
  1. class DNN(nn.Module):

  2.     def __init__(self):
  3.         super(DNN, self).__init__()
  4.         self.dense_layers = Sequential(
  5.             Linear(7, 256),
  6.             ReLU(),
  7.             Dropout(),
  8.             Linear(256, 32),
  9.             ReLU(),
  10.             Dropout()
  11.         )
  12.         self.output_layer = Sequential(
  13.             Linear(32, 1)
  14.         )

  15.     def forward(self, x):
  16.         x = self.dense_layers(x)
  17.         x = self.output_layer(x)
  18.         return x
复制代码

上述构造simplenn这个函数的过程中,
为什么要建立构造函数__init__?并在里面建立神经网络层?
  1. super(DNN, self).__init__()
复制代码
是什么意思
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

发表于 2024-10-19 15:30:19 | 显示全部楼层
在PyTorch中,构造函数`__init__`用于初始化类的实例,它在创建对象时会自动调用。为神经网络模型定义`__init__`有几个重要原因:

1. **初始化神经网络层**:在`__init__`函数中,我们定义神经网络的层(如全连接层、激活函数、Dropout层等)。这使得网络的结构在实例化模型时被确定下来,用户可以方便地创建和管理多层模型。

2. **配置层参数**:在`__init__`中,我们可以设置层的参数,比如每一层的输入和输出节点数。这使模型更灵活并易于调整。

3. **继承父类的初始化**:`super(DNN, self).__init__()`调用了父类`nn.Module`的`__init__`方法。`nn.Module`是PyTorch中所有神经网络模块的基类,包含了许多神经网络训练所需的基本功能。通过调用`super()`,我们继承了这些功能,如参数管理、模型保存和加载等。这样,我们的模型`DNN`就可以利用PyTorch提供的所有便利功能。

总结来说,`__init__`用于设置模型的结构,并确保模型具有PyTorch框架的所有基础功能。

以上回复来自 FishC AI 小助理,如未能正确解答您的问题,请继续追问。
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2024-10-19 15:34:30 | 显示全部楼层
FishC 发表于 2024-10-19 15:30
在PyTorch中,构造函数`__init__`用于初始化类的实例,它在创建对象时会自动调用。为神经网络模型定义`__in ...
  1. class SimpleNN(nn.Module):
  2.     def __init__(self):
  3.         super().__init__()
  4.         self.layer1 = nn.Linear(5, 128)
  5.         self.layer2 = nn.Linear(128, 256)
  6.         self.layer3 = nn.Linear(256, 128)
  7.         self.layer4 = nn.Linear(128, 1)

  8.     def forward(self, x):
  9.         x = self.layer1(x)
  10.         x = F.relu(x)
  11.         x = self.layer2(x)
  12.         x = F.relu(x)
  13.         x = self.layer3(x)
  14.         x = F.relu(x)
  15.         x = self.layer4(x)
  16.         x = torch.sigmoid(x)
  17.         return x
复制代码

和这种定义方式有什么相似之处
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2024-10-19 15:41:53 | 显示全部楼层
Terence888 发表于 2024-10-19 15:34
class SimpleNN(nn.Module):
    def __init__(self) ...


两个模型定义方式的相似之处如下:

1. **都是子类化自 `nn.Module`**:两种方式都使用了PyTorch的`nn.Module`作为基类,表明它们都是神经网络模型。通过继承`nn.Module`,可以充分利用PyTorch提供的神经网络功能。

2. **使用`__init__`方法初始化网络层**:在两个类中,`__init__`方法都被用来初始化网络层。这是定义神经网络结构的标准方式。

3. **使用分层结构**:两种模型都分为多个线性层(`nn.Linear`),并且逐层进行数据传递。在模型构建中,每一层的输出被传递到下一层。

4. **激活函数的应用**:两者都在某些层之间应用了激活函数。`SimpleNN`使用了`F.relu`作为激活函数,而之前的模型使用了`ReLU`对象,不过其核心功能相似,都是对线性层的非线性变换。

5. **前向传递通过`forward`定义**:两者都定义了`forward`方法来描述数据在模型中的流动过程。这是PyTorch中定义数据如何通过模型的标准方法。

6. **输出变换**:在最后输出层,`SimpleNN`使用了`torch.sigmoid`作为非线性变换,而之前的模型没有明确提到输出层的活化函数。

总结来说,这两种方式在结构初始化、激活函数使用和数据前向传递方式上非常相似,都是标准的PyTorch神经网络定义。主要区别在于具体层的数量和参数、激活函数的选择以及对输出层的处理方式。

以上回复来自 FishC AI 小助理,如未能正确解答您的问题,请继续追问。
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2024-10-19 17:00:15 | 显示全部楼层
FishC 发表于 2024-10-19 15:41
两个模型定义方式的相似之处如下:

1. **都是子类化自 `nn.Module`**:两种方式都使用了PyTorch的`n ...
  1. nn_train = data_train.filter(regex='Survived|Age_.*|SibSp|Parch|Fare_.*|Sex_.*|Embarked_.*|Pclass_.*')
  2. X = nn_train.drop(columns='Survived')
  3. y = nn_train['Survived']

  4. fold_size = X.shape[0] // 5

  5. X_train, y_train = None, None
  6.     for j in range(k):
  7.         idx = slice(j * fold_size, (j + 1) * fold_size)
  8.         X_part, y_part = X[idx, :], y[idx]
  9.         if j == i:
  10.             X_valid, y_valid = X_part, y_part
  11.         elif X_train is None:
  12.             X_train, y_train = X_part, y_part
  13.         else:
  14.             X_train = torch.cat([X_train, X_part], 0)
  15.             y_train = torch.cat([y_train, y_part], 0)
复制代码

k折交叉验证中取出第k次的训练数据和验证数据,代码报错
  1. Cell In[43], line 8
  2.     for j in range(k):
  3.     ^
  4. IndentationError: unexpected indent
复制代码
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2024-10-19 17:00:25 | 显示全部楼层
Terence888 发表于 2024-10-19 17:00
nn_train = data_train.filter(regex='Survived|Age_. ...


你的代码中存在一个缩进错误,`for j in range(k):`行前面的缩进不一致导致了这个错误。让我们来修正一下代码,并确保逻辑上是正确的:

  1. nn_train = data_train.filter(regex='Survived|Age_.*|SibSp|Parch|Fare_.*|Sex_.*|Embarked_.*|Pclass_.*')
  2. X = nn_train.drop(columns='Survived')
  3. y = nn_train['Survived']  # 应该选择'Survived'这一列作为标签

  4. fold_size = len(X) // 5  # 使用len(X)来计算数据量

  5. X_train, y_train = None, None

  6. for j in range(k):
  7.     idx = slice(j * fold_size, (j + 1) * fold_size)
  8.     X_part, y_part = X[idx], y[idx]
  9.     if j == i:
  10.         X_valid, y_valid = X_part, y_part
  11.     elif X_train is None:
  12.         X_train, y_train = X_part, y_part
  13.     else:
  14.         X_train = torch.cat((X_train, X_part), 0)
  15.         y_train = torch.cat((y_train, y_part), 0)
复制代码


此代码的几个修正点:
1. **缩进问题**:确保`for`循环的缩进是正确的,从而避免`IndentationError`。
2. **索引和切片**:使用`slice`来正确获取训练集和验证集的切片。
3. **`y`选择错误的更正**:在最初的`y = nn_train`中,应该选择`Survived`列作为目标(标签)。
4. **使用`len(X)`**:计算`fold_size`时使用`len(X)`而不是`X.shape`。
5. **`torch.cat`的参数**:在调用`torch.cat`时,需要传递一个包含张量的元组,如`(X_train, X_part)`。

记得在实际运行时需确保变量`k`和`i`已经定义,且`pandas`和`torch`已经正确导入。这样修改后应该可以正确执行分割数据集的操作。

以上回复来自 FishC AI 小助理,如未能正确解答您的问题,请继续追问。
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2024-10-19 17:09:32 | 显示全部楼层
FishC 发表于 2024-10-19 17:00
你的代码中存在一个缩进错误,`for j in range(k):`行前面的缩进不一致导致了这个错误。让我们来修正一 ...
  1. ---------------------------------------------------------------------------
  2. TypeError                                 Traceback (most recent call last)
  3. File /opt/conda/lib/python3.10/site-packages/pandas/core/indexes/base.py:3805, in Index.get_loc(self, key)
  4.    3804 try:
  5. -> 3805     return self._engine.get_loc(casted_key)
  6.    3806 except KeyError as err:

  7. File index.pyx:167, in pandas._libs.index.IndexEngine.get_loc()

  8. File index.pyx:173, in pandas._libs.index.IndexEngine.get_loc()

  9. TypeError: '(slice(0, 142, None), slice(None, None, None))' is an invalid key

  10. During handling of the above exception, another exception occurred:

  11. InvalidIndexError                         Traceback (most recent call last)
  12. Cell In[45], line 10
  13.       8 for j in range(5):
  14.       9         idx = slice(j * fold_size, (j + 1) * fold_size)
  15. ---> 10         X_part, y_part = X[idx, :], y[idx]
  16.      11         if j == i:
  17.      12             X_valid, y_valid = X_part, y_part

  18. File /opt/conda/lib/python3.10/site-packages/pandas/core/frame.py:4102, in DataFrame.__getitem__(self, key)
  19.    4100 if self.columns.nlevels > 1:
  20.    4101     return self._getitem_multilevel(key)
  21. -> 4102 indexer = self.columns.get_loc(key)
  22.    4103 if is_integer(indexer):
  23.    4104     indexer = [indexer]

  24. File /opt/conda/lib/python3.10/site-packages/pandas/core/indexes/base.py:3817, in Index.get_loc(self, key)
  25.    3812     raise KeyError(key) from err
  26.    3813 except TypeError:
  27.    3814     # If we have a listlike key, _check_indexing_error will raise
  28.    3815     #  InvalidIndexError. Otherwise we fall through and re-raise
  29.    3816     #  the TypeError.
  30. -> 3817     self._check_indexing_error(key)
  31.    3818     raise

  32. File /opt/conda/lib/python3.10/site-packages/pandas/core/indexes/base.py:6059, in Index._check_indexing_error(self, key)
  33.    6055 def _check_indexing_error(self, key):
  34.    6056     if not is_scalar(key):
  35.    6057         # if key is not a scalar, directly raise an error (the code below
  36.    6058         # would convert to numpy arrays and raise later any way) - GH29926
  37. -> 6059         raise InvalidIndexError(key)

  38. InvalidIndexError: (slice(0, 142, None), slice(None, None, None))
复制代码

依然报错
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2024-10-19 17:09:41 | 显示全部楼层
Terence888 发表于 2024-10-19 17:09
-------------------------------------------------- ...


根据错误信息,您正在尝试使用不正确的方式索引pandas DataFrame中的数据。在这段代码中,您试图通过`slice`对象对X和y进行索引,而这在pandas中是不直接支持的。您需要通过行索引来选择。

首先,确保X和y都是适当的pandas DataFrame或Series。

以下是如何根据索引正确地进行分割,以避免这种错误:

  1. nn_train = data_train.filter(regex='Survived|Age_.*|SibSp|Parch|Fare_.*|Sex_.*|Embarked_.*|Pclass_.*')
  2. X = nn_train.drop(columns='Survived')
  3. y = nn_train['Survived']  # 确保y是正确的Series

  4. fold_size = len(X) // 5

  5. X_train, y_train = None, None
  6. k = 5  # 确保定义k
  7. i = 0  # 确保定义i, 这里假设你想验证第i个分区

  8. for j in range(k):
  9.     start_idx = j * fold_size
  10.     end_idx = (j + 1) * fold_size
  11.     X_part = X.iloc[start_idx:end_idx]  # 使用.iloc根据行索引获取数据
  12.     y_part = y.iloc[start_idx:end_idx]

  13.     if j == i:
  14.         X_valid, y_valid = X_part, y_part
  15.     elif X_train is None:
  16.         X_train, y_train = X_part, y_part
  17.     else:
  18.         X_train = pd.concat([X_train, X_part], axis=0)
  19.         y_train = pd.concat([y_train, y_part], axis=0)
复制代码


1. **`iloc`方法**:用于通过整数切片来选择DataFrame的行。这是将索引从错误的多slice转换为适合pandas索引的方法。

2. **`pd.concat`**:用于连接多个DataFrame或Series,`axis=0`表示进行行追加。这代替了`torch.cat`,因为在分割数据阶段,最好使用pandas的工具进行处理。

这段修改后的代码应该可以修复你的错误,并正确地执行数据集的k折分割。

以上回复来自 FishC AI 小助理,如未能正确解答您的问题,请继续追问。
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2024-10-19 18:41:17 | 显示全部楼层
FishC 发表于 2024-10-19 17:09
根据错误信息,您正在尝试使用不正确的方式索引pandas DataFrame中的数据。在这段代码中,您试图通过`s ...
  1. def load_array(data_arrays, batch_size, is_train=True):  #@save
  2.     """Construct a PyTorch data iterator."""
  3.     dataset = data.TensorDataset(*data_arrays)
  4.     return data.DataLoader(dataset, batch_size, shuffle=is_train)
  5. ```
复制代码

为什么要进行这步操作?其中data是什么
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2024-10-19 18:41:24 | 显示全部楼层
Terence888 发表于 2024-10-19 18:41
def load_array(data_arrays, batch_size, is_train=T ...


在这个代码片段中,`load_array`函数的目的是将给定的数据数组(`data_arrays`)转换成一个PyTorch的数据迭代器,以便在训练或评估模型时能够批量读取数据。这是为了简化数据处理过程并提高效率的重要步骤。

具体解释如下:

1. **`data.TensorDataset(*data_arrays)`**:
   - `TensorDataset`是PyTorch中的一个类,用于将特征和标签组合到一个数据集(dataset)对象中。在这个例子中,`*data_arrays`代表将传入的多个张量数组(特征和标签)解包成多个独立的参数,以便创建`TensorDataset`。

2. **`data.DataLoader(...)`**:
   - `DataLoader` 是 PyTorch 中用于加载数据的迭代器。它提供了多线程的数据加载、可定制的批次化处理机制(通过`batch_size`控制每次返回的数据量),以及数据的随机打乱(通过`shuffle`参数)。当`is_train`为`True`时,数据将被随机打乱,以增加训练的随机性,从而有助于提高模型的泛化能力。

3. **`data`**:
   - 这通常是指 `torch.utils.data` 模块,该模块包含了创建数据集和数据加载器的重要工具。PyTorch通过这个模块提供了一系列方便的数据处理接口。

综上所述,这个函数有助于在训练过程中以适当的批量读取数据,有效管理和策划数据,以便更好地利用PyTorch的训练功能。如果您使用该函数,请确保导入了正确的模块,如 `from torch.utils import data`。

以上回复来自 FishC AI 小助理,如未能正确解答您的问题,请继续追问。
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2024-10-19 18:56:16 | 显示全部楼层
FishC 发表于 2024-10-19 18:41
在这个代码片段中,`load_array`函数的目的是将给定的数据数组(`data_arrays`)转换成一个PyTorch的数 ...
  1. from torch.utils import data
  2. nn_train = data_train.filter(regex='Survived|Age_.*|SibSp|Parch|Fare_.*|Sex_.*|Embarked_.*|Pclass_.*')
  3. X = nn_train.drop(columns='Survived')
  4. y = nn_train['Survived']
  5. dataset = data.TensorDataset(X, y)
  6. train_iter = data.DataLoader(dataset,batch_size=99)
复制代码


报错
  1. ---------------------------------------------------------------------------
  2. TypeError                                 Traceback (most recent call last)
  3. Cell In[19], line 5
  4.       3 X = nn_train.drop(columns='Survived')
  5.       4 y = nn_train['Survived']
  6. ----> 5 dataset = data.TensorDataset(X, y)
  7.       6 train_iter = data.DataLoader(dataset,batch_size=99)

  8. File /opt/conda/lib/python3.10/site-packages/torch/utils/data/dataset.py:204, in TensorDataset.__init__(self, *tensors)
  9.     203 def __init__(self, *tensors: Tensor) -> None:
  10. --> 204     assert all(tensors[0].size(0) == tensor.size(0) for tensor in tensors), "Size mismatch between tensors"
  11.     205     self.tensors = tensors

  12. File /opt/conda/lib/python3.10/site-packages/torch/utils/data/dataset.py:204, in <genexpr>(.0)
  13.     203 def __init__(self, *tensors: Tensor) -> None:
  14. --> 204     assert all(tensors[0].size(0) == tensor.size(0) for tensor in tensors), "Size mismatch between tensors"
  15.     205     self.tensors = tensors

  16. TypeError: 'int' object is not callable
复制代码
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2024-10-19 18:56:24 | 显示全部楼层
Terence888 发表于 2024-10-19 18:56
from torch.utils import data
nn_train = data_trai ...


您的代码会报`TypeError`,是因为`data.TensorDataset`期望的是PyTorch张量(`torch.Tensor`),而不是pandas的DataFrame对象。因此你需要先将`X`和`y`这些数据转换为PyTorch张量。

以下是如何修正代码:

  1. import torch
  2. from torch.utils import data

  3. # 从DataFrame转换为张量
  4. X = torch.tensor(nn_train.drop(columns='Survived').values, dtype=torch.float32)
  5. y = torch.tensor(nn_train['Survived'].values, dtype=torch.float32)

  6. # 创建TensorDataset
  7. dataset = data.TensorDataset(X, y)

  8. # 创建DataLoader
  9. train_iter = data.DataLoader(dataset, batch_size=99)
复制代码


### 修正说明
1. **转换为张量**:`torch.tensor()`用于将numpy数组或列表转换为PyTorch张量类型。这里指定了数据类型`dtype=torch.float32`,以确保与PyTorch的计算兼容。通常,特征和标签的类型都是浮点数。
   
2. **选择正确的列作为标签**:之前的`y`直接用到了完整的`nn_train`,应该选出`'Survived'`列作为标签。

以上改动将帮助你成功地创建一个可以用于PyTorch模型训练的数据加载器。

以上回复来自 FishC AI 小助理,如未能正确解答您的问题,请继续追问。
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2024-10-20 10:04:31 | 显示全部楼层
FishC 发表于 2024-10-19 18:56
您的代码会报`TypeError`,是因为`data.TensorDataset`期望的是PyTorch张量(`torch.Tensor`),而不是 ...
  1. data_set = pd.concat((train.drop(['Survived'], axis = 1), test), axis = 0)

  2. data_set = data_set.drop(['PassengerId', 'Name', 'Sex', 'Ticket', 'Cabin', 'Embarked'], axis = 1)
  3. data_set = data_set.fillna(data_set.mean())

  4. n_train = train.shape[0]
  5. train_x, test_x = data_set[:n_train], data_set[n_train:]
  6. train_y = train['Survived']

  7. train_x = train_x[train_x.keys()].values
  8. test_x = test_x[test_x.keys()].values
  9. train_y = train_y.values

  10. import torch.optim as optim
  11. from torch.autograd import Variable
  12. from torch.utils.data import DataLoader, SubsetRandomSampler
  13. from sklearn.model_selection import KFold

  14. k_folds = 5
  15. kfold = KFold(n_splits=k_folds, shuffle=True)

  16. simple_dataset = SimpleDataset(train_x, train_y)

  17. loss_list = []
  18. acc_list = []

  19. for fold, (train_ids, valid_ids) in enumerate(kfold.split(simple_dataset)):
  20.     print(f'FOLD {fold}')
  21.     print('--------------------------------')
  22.     train_subsampler = SubsetRandomSampler(train_ids)
  23.     valid_subsampler = SubsetRandomSampler(valid_ids)
  24.    
  25.     train_loader = DataLoader(simple_dataset, batch_size=99, sampler=train_subsampler)
  26.     valid_loader = DataLoader(simple_dataset, batch_size=99, sampler=valid_subsampler)
  27.    
  28.     simple_nn = SimpleNN()
  29.     optimizer = optim.Adam(simple_nn.parameters(), lr=0.01)
  30.     error = nn.BCELoss()
  31.    
  32.     for epoch in range(300):
  33.         with torch.no_grad():
  34.             valid_loss = 0
  35.             num_right = 0
  36.             for tensor_x, tensor_y in valid_loader:
  37.                 tensor_x = tensor_x.float()
  38.                 tensor_y = tensor_y.float().reshape(-1, 1)
  39.                 output = simple_nn(tensor_x)
  40.                 loss = error(output, tensor_y)
  41.                 valid_loss += loss.item() * len(tensor_x)
  42.                 result = [1 if out >= 0.5 else 0 for out in output]
  43.                 num_right += np.sum(np.array(result) == tensor_y.numpy().reshape(-1))
  44.             
  45.             valid_loss = valid_loss / len(valid_loader.sampler.indices)
  46.             valid_accuracy = num_right / len(valid_loader.sampler.indices)
  47.         
  48.             if epoch % 50 == 0:
  49.                 print('Valid Loss: {} Accuracy: {} Epoch:{}'.format(valid_loss, valid_accuracy, epoch))

  50.         train_loss = 0
  51.         num_right = 0
  52.         for tensor_x, tensor_y in train_loader:
  53.             tensor_x = tensor_x.float()
  54.             tensor_y = tensor_y.float().reshape(-1, 1)
  55.             optimizer.zero_grad()
  56.             output = simple_nn(tensor_x)
  57.             loss = error(output, tensor_y)
  58.             loss.backward()
  59.             optimizer.step()

  60.             train_loss += loss.item() * len(tensor_x)
  61.             result = [1 if out >= 0.5 else 0 for out in output]
  62.             num_right += np.sum(np.array(result) == tensor_y.numpy().reshape(-1))
  63.         
  64.         train_loss = train_loss / len(train_loader.sampler.indices)
  65.         accuracy = num_right / len(train_loader.sampler.indices)
  66.    
  67.         if epoch % 50 == 0:
  68.             print('Loss: {} Accuracy: {} Epoch:{}'.format(train_loss, accuracy, epoch))
  69.             
  70.     loss_list.append(valid_loss)
  71.     acc_list.append(valid_accuracy)

  72. print('Training Ended')
  73. print('Average Loss: {} Average Accuracy: {}'.format(np.mean(loss_list), np.mean(acc_list)))
复制代码

帮我解读一下以上代码
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2024-10-20 10:11:11 | 显示全部楼层
FishC 发表于 2024-10-19 18:56
您的代码会报`TypeError`,是因为`data.TensorDataset`期望的是PyTorch张量(`torch.Tensor`),而不是 ...
  1. for fold, (train_ids, valid_ids) in enumerate(kfold.split(simple_dataset)):
  2.     print(f'FOLD {fold}')
  3.     print('--------------------------------')
  4.     train_subsampler = [code]SubsetRandomSampler(train_ids)
复制代码

    valid_subsampler = SubsetRandomSampler(valid_ids)
   
    train_loader = DataLoader(simple_dataset, batch_size=99, sampler=train_subsampler)
    valid_loader = DataLoader(simple_dataset, batch_size=99, sampler=valid_subsampler)[/code]
上述使用k折交叉验证获取数据迭代器,其中
问题一:
  1. simple_dataset = SimpleDataset(train_x, train_y)
复制代码
作用是什么?
问题二:
  1. SubsetRandomSampler(train_ids)
复制代码
作用是什么
问题三:
  1. enumerate(kfold.split(simple_dataset))
复制代码
使用enumerate函数迭代获取的数据是什么样的
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2024-10-20 10:17:37 | 显示全部楼层
Terence888 发表于 2024-10-20 10:11
for fold, (train_ids, valid_ids) in enumerate(kfol ...


好的,我们一起看看这段代码所做的事情。

### 问题一:`simple_dataset = SimpleDataset(train_x, train_y)`作用是什么?

`SimpleDataset`应该是您自定义的一个子类,继承自`torch.utils.data.Dataset`。其作用是将`train_x`和`train_y`整合成一个可以被PyTorch的数据加载器(`DataLoader`)使用的数据集对象。它的典型实现会重载两个方法:`__len__()`返回数据集中样本的数量,`__getitem__()`返回指定索引(`idx`)的特征和标签。一旦这个`Dataset`对象创建好,它就可以分配数据给不同的数据加载器。

### 问题二:`SubsetRandomSampler(train_ids)`作用是什么?

`SubsetRandomSampler`是PyTorch的一个采样器类。给定一组索引(如`train_ids`),它会在这些索引中随机采样。这样做可以创建出一个子样本集。在上面的代码中,`train_ids`代表用于训练的样本索引。通过提供这些索引给`SubsetRandomSampler`,你可以确保从数据集中随机选择这些样本。这在划分训练和验证集时非常有用。

### 问题三:`enumerate(kfold.split(simple_dataset))`使用`enumerate`函数迭代获取的数据是什么样的?

`enumerate`是一个内置Python函数,它在迭代时同时提供元素的索引和元素本身。在这个上下文中,`kfold.split(simple_dataset)`会返回一个生成器,该生成器每次迭代产生一个由训练样本索引和验证样本索引组成的元组,格式为:`(train_indices, test_indices)`。

`enumerate(kfold.split(simple_dataset))`会为每个这样的元组提供一个索引`fold`。因此,`fold`是该交叉验证折的编号,`train_ids`和`valid_ids`是该折对应的训练集和验证集样本索引。

总结:
- `simple_dataset`将特征和标签组织成数据集对象,便于使用。
- `SubsetRandomSampler`用于从指定索引中随机采样数据。
- `enumerate(kfold.split(simple_dataset))`有助于遍历交叉验证的每个折次,并索引每次划分。

以上回复来自 FishC AI 小助理,如未能正确解答您的问题,请继续追问。
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2024-10-20 10:32:49 | 显示全部楼层
FishC 发表于 2024-10-20 10:17
好的,我们一起看看这段代码所做的事情。

### 问题一:`simple_dataset = SimpleDataset(train_x, t ...
  1. train_loss += loss.item() * len(tensor_x)
复制代码

这段代码怎么理解
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2024-10-20 10:45:37 | 显示全部楼层
Terence888 发表于 2024-10-20 10:32
train_loss += loss.item() * len(tensor_x)
这段代 ...


这段代码中的 `train_loss += loss.item() * len(tensor_x)` 主要负责累积当前批次的损失,具体解释如下:

1. **`loss`**:`loss` 是计算得出的当前批次的损失值,这通常是一个 PyTorch 的张量。

2. **`loss.item()`**:`loss` 是一个张量时,如果您想要得到其数值表示,可以使用 `.item()` 方法将单一值张量转换为 Python 的数值类型(比如浮点数)。这是因为通常张量是多维的,但通过损失函数计算后往往产生的是一个标量张量。

3. **`len(tensor_x)`**:`tensor_x` 是当前批次中的一组训练样本,`len(tensor_x)` 返回的是这个批次中样本的数目,等同于 `batch_size`,除非最后一个批次可能样本数不足。

4. **`train_loss += loss.item() * len(tensor_x)`**:这里的目的是,根据当前批次的损失和批次的规模累计损失。一般情况下 `loss.item()` 已经是批均损失。如果需要积累总的损失,乘以样本数量后累计到 `train_loss` 中。这使得后续计算总损失或平均损失时可以获得更多的自由和准确性。

总结:该行代码通过累积每个批次的损失乘以批次大小,最终得到整个数据集上的总训练损失,为后续可能的损失输出、损失绘图或其它分析提供基础数量支持。

以上回复来自 FishC AI 小助理,如未能正确解答您的问题,请继续追问。
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2024-10-20 10:53:12 | 显示全部楼层
FishC 发表于 2024-10-20 10:45
这段代码中的 `train_loss += loss.item() * len(tensor_x)` 主要负责累积当前批次的损失,具体解释如 ...
  1. num_right += np.sum(np.array(result) == tensor_y.numpy().reshape(-1))
复制代码

这段代码如何解读
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2024-10-20 10:53:23 | 显示全部楼层
Terence888 发表于 2024-10-20 10:53
num_right += np.sum(np.array(result) == tensor_y.n ...


这段代码的目的是计算当前批次中模型预测正确的样本数量。以下是对这段代码的详细解读:

1. **`result`**:假设这是模型的预测结果,通常是一个张量或数组,包含了对每个样本的预测值。

2. **`tensor_y`**:这是当前批次的真实标签,通常是一个PyTorch张量。

3. **`tensor_y.numpy().reshape(-1)`**:将`tensor_y`从PyTorch张量转换为NumPy数组,并将其展平为一维数组。`reshape(-1)`的作用是将多维数组展平为一维,这样可以方便地与`result`进行逐元素比较。

4. **`np.array(result)`**:将`result`转换为NumPy数组,以便与`tensor_y`的NumPy数组进行比较。

5. **`np.array(result) == tensor_y.numpy().reshape(-1)`**:逐元素比较预测结果和真实标签,生成一个布尔数组,其中每个元素表示对应位置的预测是否正确(`True`表示正确,`False`表示错误)。

6. **`np.sum(...)`**:对布尔数组进行求和,`True`被视为1,`False`被视为0,因此求和结果即为预测正确的样本数量。

7. **`num_right += ...`**:将当前批次中预测正确的样本数量累加到`num_right`中,`num_right`用于记录到目前为止所有批次中预测正确的总样本数。

总结:这段代码通过比较预测结果和真实标签,计算出当前批次中预测正确的样本数量,并将其累加到总计数中。

以上回复来自 FishC AI 小助理,如未能正确解答您的问题,请继续追问。
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2024-10-20 11:13:23 | 显示全部楼层
FishC 发表于 2024-10-20 10:53
这段代码的目的是计算当前批次中模型预测正确的样本数量。以下是对这段代码的详细解读:

1. **`resu ...
  1. with torch.no_grad():
  2.             valid_loss = 0
  3.             num_right = 0
  4.             for tensor_x, tensor_y in valid_loader:
  5.                 tensor_x = tensor_x.float()
  6.                 tensor_y = tensor_y.float().reshape(-1, 1)
  7.                 output = simple_nn(tensor_x)
  8.                 loss = error(output, tensor_y)
  9.                 valid_loss += loss.item() * len(tensor_x)
  10.                 result = [1 if out >= 0.5 else 0 for out in output]
  11.                 num_right += np.sum(np.array(result) == tensor_y.numpy().reshape(-1))
  12.             
  13.             valid_loss = valid_loss / len(valid_loader.sampler.indices)
  14.             valid_accuracy = num_right / len(valid_loader.sampler.indices)
  15.         
  16.             if epoch % 50 == 0:
  17.                 print('Valid Loss: {} Accuracy: {} Epoch:{}'.format(valid_loss, valid_accuracy, epoch))
复制代码


为什么验证集不执行梯度下降
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2025-4-19 16:47

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表