Advertisement
Not a member of Pastebin yet?
Sign Up,
it unlocks many cool features!
- Рисовать все последовательно по уровням просто квадратами типа []->[]->[]...
- activation - функция активации, в гугле график есть.
- Conv2D(x, y, ...) сверточный двухмерный слой, x - число матриц свертки, все матрицы размером y x y.
- MaxPooling2D((a, b)) - слой макс-пулинга, из каждого участка axb входной матрицы получает запоминает макс. число.
- Flatten() - слой преобразует тензоры любой размерности в одномерный массив.
- Dense(x) - полностью связанный уровень с x нейронами.
- BatchNormalization() - слой батч-нормализации, влияет на распределение градиентов при обратном проходе нейросети.
- len(values_to_ints) у последнего денса в моделях это количество классов.
- model1 = tf.keras.Sequential([
- tf.keras.layers.Conv2D(4, 5, activation='relu', input_shape=(128, 256, 3)),
- tf.keras.layers.Conv2D(16, 5, activation='relu'),
- tf.keras.layers.MaxPooling2D((2, 2)),
- tf.keras.layers.Conv2D(16, 5, activation='relu'),
- tf.keras.layers.MaxPooling2D((2, 2)),
- tf.keras.layers.Conv2D(16, 5, activation='relu'),
- tf.keras.layers.Flatten(),
- tf.keras.layers.Dense(64, activation='relu'),
- tf.keras.layers.Dense(len(values_to_ints), activation='softmax'),
- ])
- model2 = tf.keras.Sequential([
- tf.keras.layers.Conv2D(32, 5, activation='relu', input_shape=(128, 256, 3)),
- tf.keras.layers.Conv2D(64, 5, activation='relu'),
- tf.keras.layers.MaxPooling2D((2, 2)),
- tf.keras.layers.Conv2D(64, 5, activation='relu'),
- tf.keras.layers.MaxPooling2D((2, 2)),
- tf.keras.layers.Conv2D(16, 5, activation='relu'),
- tf.keras.layers.Flatten(),
- tf.keras.layers.Dense(64, activation='relu'),
- tf.keras.layers.Dense(len(values_to_ints), activation='softmax'),
- ])
- model3 = tf.keras.Sequential([
- tf.keras.layers.Conv2D(32, 5, activation='relu', input_shape=(128, 256, 3)),
- tf.keras.layers.Conv2D(64, 5, activation='relu'),
- tf.keras.layers.BatchNormalization(),
- tf.keras.layers.MaxPooling2D((2, 2)),
- tf.keras.layers.Conv2D(64, 5, activation='relu'),
- tf.keras.layers.MaxPooling2D((2, 2)),
- tf.keras.layers.Conv2D(16, 5, activation='relu'),
- tf.keras.layers.BatchNormalization(),
- tf.keras.layers.Flatten(),
- tf.keras.layers.Dense(64, activation='relu'),
- tf.keras.layers.Dense(len(values_to_ints), activation='softmax'),
- ])
- model4 = tf.keras.Sequential([
- tf.keras.layers.Conv2D(4, 5, activation='relu', input_shape=(128, 256, 3)),
- tf.keras.layers.Conv2D(16, 5, activation='relu'),
- tf.keras.layers.MaxPooling2D((2, 2)),
- tf.keras.layers.Flatten(),
- tf.keras.layers.Dense(64, activation='relu'),
- tf.keras.layers.Dense(len(values_to_ints), activation='softmax'),
- ])
Advertisement
Add Comment
Please, Sign In to add comment
Advertisement