Advertisement
Guest User

GAN

a guest
Nov 16th, 2020
188
0
Never
Not a member of Pastebin yet? Sign Up, it unlocks many cool features!
Python 3.15 KB | None | 0 0
  1. cell_size = 8
  2. im_size = (8, 8)
  3. input_size = (*im_size, 3)
  4. gen_params = 50
  5.  
  6. def discriminator():
  7.     m = keras.models.Sequential()
  8.  
  9.     m.add(keras.layers.UpSampling2D(input_shape = input_size))
  10.     m.add(keras.layers.Conv2D(cell_size,
  11.                               5,
  12. #                               input_shape = input_size,
  13.                               padding = 'same',
  14. #                              activation=keras.activations.selu,
  15. #                               kernel_initializer = 'lecun_normal'
  16.                              ))
  17.     m.add(keras.layers.Dropout(0.4))
  18.     m.add(keras.layers.BatchNormalization(momentum=0.9))
  19.     m.add(keras.layers.LeakyReLU(alpha=0.2))
  20.  
  21.  
  22.     m.add(keras.layers.Conv2D(cell_size,
  23.                               1,
  24.                               input_shape = input_size,
  25.                               padding = 'same',
  26. #                              activation=keras.activations.selu,
  27. #                               kernel_initializer = 'lecun_normal'
  28.                              ))
  29.     m.add(keras.layers.Dropout(0.4))
  30.     m.add(keras.layers.BatchNormalization(momentum=0.9))
  31.     m.add(keras.layers.LeakyReLU(alpha=0.2))
  32.  
  33.     m.add(keras.layers.Conv2D(cell_size,
  34.                               1,
  35.                               input_shape = input_size,
  36.                               padding = 'same',
  37. #                              activation=keras.activations.selu,
  38. #                               kernel_initializer = 'lecun_normal'
  39.                              ))
  40.     m.add(keras.layers.Dropout(0.4))
  41.     m.add(keras.layers.BatchNormalization(momentum=0.9))
  42.     m.add(keras.layers.LeakyReLU(alpha=0.2))
  43.    
  44.     m.add(keras.layers.Flatten())
  45.     m.add(keras.layers.Dense(1, activation=keras.activations.sigmoid))
  46.     return m
  47.  
  48.  
  49. def generator():
  50.     m = keras.models.Sequential()
  51.  
  52.     m.add(keras.layers.Dense(8 * 8 * 3,
  53.                              input_dim=gen_params,
  54. #                              activation=keras.activations.selu,
  55. #                               kernel_initializer = 'lecun_normal'
  56.                              ))
  57.  
  58.     m.add(keras.layers.BatchNormalization(momentum=0.9))
  59.     m.add(keras.layers.LeakyReLU(alpha=0.2))
  60.     m.add(keras.layers.Dropout(0.4))
  61.     m.add(keras.layers.Reshape((8, 8, 3)))
  62.  
  63.  
  64.     m.add(keras.layers.Conv2DTranspose(4,
  65.                                        1,
  66.                                        padding = 'same',
  67. #                                        activation = keras.activations.selu,
  68.                                        kernel_initializer = 'lecun_normal'))
  69.     m.add(keras.layers.BatchNormalization(momentum=0.9))
  70.     m.add(keras.layers.LeakyReLU(alpha=0.2))
  71.     m.add(keras.layers.Dropout(0.4))
  72.  
  73.     m.add(keras.layers.Conv2DTranspose(input_size[-1],
  74.                                    5,
  75.                                    padding = 'same',
  76.                                    activation = keras.activations.sigmoid,
  77. #                               kernel_initializer = 'lecun_normal'
  78.                              ))
  79.     assert np.array_equal(m.layers[-1].output_shape[1:], input_size), m.summary()
  80.    
  81.     return m
Advertisement
Add Comment
Please, Sign In to add comment
Advertisement