diff --git a/logs/main_unit_test.log b/logs/main_unit_test.log
index 27f46a93fba1731443ad0ff79f633e329fcb21e1..b1a1cf012abbfb66418dfe32cdd53ffdd8c03251 100644
--- a/logs/main_unit_test.log
+++ b/logs/main_unit_test.log
@@ -2286,3 +2286,56 @@ INFO:root:The loaded dataset contains 25 latitudes, 37 longitudes, 28 depths and
 INFO:root:Loading the index from sub_2CMEMS-MEDSEA-2010-2016-training.nc.bin_index.idx
 INFO:root:  - The train fold has 541835 samples
 INFO:root:  - The valid fold has 135325 samples
+INFO:root:= Dataloaders
+INFO:root:  - Dataset creation
+INFO:root:The loaded dataset contains 25 latitudes, 37 longitudes, 28 depths and 2222 time points
+INFO:root:Generating the index
+INFO:root:Loading the index from sub_2CMEMS-MEDSEA-2010-2016-training.nc.bin_index.idx
+INFO:root:  - Loaded a dataset with 677160 samples
+INFO:root:  - Splitting the data in training and validation sets
+INFO:root:Generating the subset files from 677160 samples
+INFO:root:  - Subset dataset
+INFO:root:The loaded dataset contains 25 latitudes, 37 longitudes, 28 depths and 2222 time points
+INFO:root:Loading the index from sub_2CMEMS-MEDSEA-2010-2016-training.nc.bin_index.idx
+INFO:root:The loaded dataset contains 25 latitudes, 37 longitudes, 28 depths and 2222 time points
+INFO:root:Loading the index from sub_2CMEMS-MEDSEA-2010-2016-training.nc.bin_index.idx
+INFO:root:  - The train fold has 541863 samples
+INFO:root:  - The valid fold has 135297 samples
+����������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������INFO:root:Building the dataloader
+INFO:root:= Dataloaders
+INFO:root:  - Dataset creation
+INFO:root:The loaded dataset contains 25 latitudes, 37 longitudes, 28 depths and 365 time points
+INFO:root:Generating the index
+INFO:root:Loading the index from sub_2CMEMS-MEDSEA-2017-testing.nc.bin_index.idx
+INFO:root:I loaded 112860 values in the test set
+INFO:root:= Filling in the submission file
+INFO:root:= Dataloaders
+INFO:root:  - Dataset creation
+INFO:root:The loaded dataset contains 25 latitudes, 37 longitudes, 28 depths and 2222 time points
+INFO:root:Generating the index
+INFO:root:Loading the index from sub_2CMEMS-MEDSEA-2010-2016-training.nc.bin_index.idx
+INFO:root:  - Loaded a dataset with 677160 samples
+INFO:root:  - Splitting the data in training and validation sets
+INFO:root:Generating the subset files from 677160 samples
+INFO:root:  - Subset dataset
+INFO:root:The loaded dataset contains 25 latitudes, 37 longitudes, 28 depths and 2222 time points
+INFO:root:Loading the index from sub_2CMEMS-MEDSEA-2010-2016-training.nc.bin_index.idx
+INFO:root:The loaded dataset contains 25 latitudes, 37 longitudes, 28 depths and 2222 time points
+INFO:root:Loading the index from sub_2CMEMS-MEDSEA-2010-2016-training.nc.bin_index.idx
+INFO:root:  - The train fold has 541665 samples
+INFO:root:  - The valid fold has 135495 samples
+INFO:root:= Dataloaders
+INFO:root:  - Dataset creation
+INFO:root:The loaded dataset contains 25 latitudes, 37 longitudes, 28 depths and 2222 time points
+INFO:root:Generating the index
+INFO:root:Loading the index from sub_2CMEMS-MEDSEA-2010-2016-training.nc.bin_index.idx
+INFO:root:  - Loaded a dataset with 677160 samples
+INFO:root:  - Splitting the data in training and validation sets
+INFO:root:Generating the subset files from 677160 samples
+INFO:root:  - Subset dataset
+INFO:root:The loaded dataset contains 25 latitudes, 37 longitudes, 28 depths and 2222 time points
+INFO:root:Loading the index from sub_2CMEMS-MEDSEA-2010-2016-training.nc.bin_index.idx
+INFO:root:The loaded dataset contains 25 latitudes, 37 longitudes, 28 depths and 2222 time points
+INFO:root:Loading the index from sub_2CMEMS-MEDSEA-2010-2016-training.nc.bin_index.idx
+INFO:root:  - The train fold has 541585 samples
+INFO:root:  - The valid fold has 135575 samples
diff --git a/model.py b/model.py
index 5795a9bef463606423d91ab357c4259cce9c8827..58bb42c9b2a78e93619957a05a2f04d6e6f0485c 100644
--- a/model.py
+++ b/model.py
@@ -120,14 +120,14 @@ class CNN1D(torch.nn.Module):
     def __init__(self, cfg, num_inputs):
         super(CNN1D, self).__init__()
         self.model = torch.nn.Sequential(
-            *conv_block(num_inputs, 5, 0.01),
-            *conv_block(32, 6, 0.1),
-            *conv_block(64,7,0.01)
+            *conv_block(num_inputs, 6, 0.01),
+            *conv_block(64, 7, 0.01),
+            *conv_block(128,8,0.01)
         )
         self.avg_pool = torch.nn.AdaptiveAvgPool1d(1)
 
         self.fc = nn.Sequential(
-            nn.Linear(128, 32),
+            nn.Linear(256, 32),
             nn.ReLU(),
             nn.Linear(32,cfg["Dataset"]["num_days"])
         )
@@ -148,12 +148,12 @@ class CNN1D(torch.nn.Module):
 def conv_block(in_channels, power, dropout_p):
     return [
         torch.nn.Conv1d(in_channels, 2**power, 16),
-        torch.nn.BatchNorm1d(2**power),
-        torch.nn.ReLU(),
-        torch.nn.Dropout(p=dropout_p),
-        #torch.nn.Conv1d(2**power, 2**power, 8),
         #torch.nn.BatchNorm1d(2**power),
-        #torch.nn.ReLU(),
+        torch.nn.LeakyReLU(),
+        torch.nn.Dropout(p=dropout_p),
+        torch.nn.Conv1d(2**power, 2**power, 8),
+        torch.nn.BatchNorm1d(2**power),
+        torch.nn.LeakyReLU(),
         #torch.nn.Dropout(p=dropout_p),
         torch.nn.MaxPool1d(2, stride = 1)
     ]
diff --git a/optimizers.py b/optimizers.py
index f3ca7900465cc3f662f6af7c98c8d80f00f4dbeb..a696044fba31703f1f29f81818419f944f86edcf 100644
--- a/optimizers.py
+++ b/optimizers.py
@@ -1,5 +1,5 @@
 import torch.optim
 
 def optimizer(cfg, model):
-    result = {"Adam" : torch.optim.Adam(model.parameters(), lr = 1e-2)}
+    result = {"Adam" : torch.optim.Adam(model.parameters(), lr = 1e-3)}
     return result[cfg["Optimizer"]]
diff --git a/train_indices.subset b/train_indices.subset
index 4308015c593bc75d7e610a92746786e5974e4504..82ff06c8175de13333850a1293f875a45886aa20 100644
Binary files a/train_indices.subset and b/train_indices.subset differ
diff --git a/valid_indices.subset b/valid_indices.subset
index 1b116a4811420d5fb9bcad210da82dab22626a0f..2879dd700471194d299571d05e917450856b3b49 100644
Binary files a/valid_indices.subset and b/valid_indices.subset differ