Advertisement
Guest User

Untitled

a guest
Nov 13th, 2019
101
0
Never
Not a member of Pastebin yet? Sign Up, it unlocks many cool features!
text 3.22 KB | None | 0 0
  1. Рисовать все последовательно по уровням просто квадратами типа []->[]->[]...
  2. activation - функция активации, в гугле график есть.
  3. Conv2D(x, y, ...) сверточный двухмерный слой, x - число матриц свертки, все матрицы размером y x y.
  4. MaxPooling2D((a, b)) - слой макс-пулинга, из каждого участка axb входной матрицы получает запоминает макс. число.
  5. Flatten() - слой преобразует тензоры любой размерности в одномерный массив.
  6. Dense(x) - полностью связанный уровень с x нейронами.
  7. BatchNormalization() - слой батч-нормализации, влияет на распределение градиентов при обратном проходе нейросети.
  8. len(values_to_ints) у последнего денса в моделях это количество классов.
  9.  
  10.  
  11.  
  12. model1 = tf.keras.Sequential([
  13. tf.keras.layers.Conv2D(4, 5, activation='relu', input_shape=(128, 256, 3)),
  14. tf.keras.layers.Conv2D(16, 5, activation='relu'),
  15. tf.keras.layers.MaxPooling2D((2, 2)),
  16. tf.keras.layers.Conv2D(16, 5, activation='relu'),
  17. tf.keras.layers.MaxPooling2D((2, 2)),
  18. tf.keras.layers.Conv2D(16, 5, activation='relu'),
  19. tf.keras.layers.Flatten(),
  20. tf.keras.layers.Dense(64, activation='relu'),
  21. tf.keras.layers.Dense(len(values_to_ints), activation='softmax'),
  22. ])
  23. model2 = tf.keras.Sequential([
  24. tf.keras.layers.Conv2D(32, 5, activation='relu', input_shape=(128, 256, 3)),
  25. tf.keras.layers.Conv2D(64, 5, activation='relu'),
  26. tf.keras.layers.MaxPooling2D((2, 2)),
  27. tf.keras.layers.Conv2D(64, 5, activation='relu'),
  28. tf.keras.layers.MaxPooling2D((2, 2)),
  29. tf.keras.layers.Conv2D(16, 5, activation='relu'),
  30. tf.keras.layers.Flatten(),
  31. tf.keras.layers.Dense(64, activation='relu'),
  32. tf.keras.layers.Dense(len(values_to_ints), activation='softmax'),
  33. ])
  34. model3 = tf.keras.Sequential([
  35. tf.keras.layers.Conv2D(32, 5, activation='relu', input_shape=(128, 256, 3)),
  36. tf.keras.layers.Conv2D(64, 5, activation='relu'),
  37. tf.keras.layers.BatchNormalization(),
  38. tf.keras.layers.MaxPooling2D((2, 2)),
  39. tf.keras.layers.Conv2D(64, 5, activation='relu'),
  40. tf.keras.layers.MaxPooling2D((2, 2)),
  41. tf.keras.layers.Conv2D(16, 5, activation='relu'),
  42. tf.keras.layers.BatchNormalization(),
  43. tf.keras.layers.Flatten(),
  44. tf.keras.layers.Dense(64, activation='relu'),
  45. tf.keras.layers.Dense(len(values_to_ints), activation='softmax'),
  46. ])
  47. model4 = tf.keras.Sequential([
  48. tf.keras.layers.Conv2D(4, 5, activation='relu', input_shape=(128, 256, 3)),
  49. tf.keras.layers.Conv2D(16, 5, activation='relu'),
  50. tf.keras.layers.MaxPooling2D((2, 2)),
  51. tf.keras.layers.Flatten(),
  52. tf.keras.layers.Dense(64, activation='relu'),
  53. tf.keras.layers.Dense(len(values_to_ints), activation='softmax'),
  54. ])
Advertisement
Add Comment
Please, Sign In to add comment
Advertisement