Advertisement
kgizdov

Keras.json

Feb 19th, 2018
106
0
Never
Not a member of Pastebin yet? Sign Up, it unlocks many cool features!
JSON 6.57 KB | None | 0 0
  1. {
  2.   "defaults": {},
  3.   "inputs": [
  4.     {
  5.       "name": "y_Reta",
  6.       "offset": 0,
  7.       "scale": 1
  8.     },
  9.     {
  10.       "name": "y_Rphi",
  11.       "offset": 0,
  12.       "scale": 1
  13.     },
  14.     {
  15.       "name": "y_Rhad",
  16.       "offset": 0,
  17.       "scale": 1
  18.     },
  19.     {
  20.       "name": "y_weta1",
  21.       "offset": 0,
  22.       "scale": 1
  23.     },
  24.     {
  25.       "name": "y_fracs1",
  26.       "offset": 0,
  27.       "scale": 1
  28.     },
  29.     {
  30.       "name": "y_Reta1",
  31.       "offset": 0,
  32.       "scale": 1
  33.     },
  34.     {
  35.       "name": "y_Rphi1",
  36.       "offset": 0,
  37.       "scale": 1
  38.     },
  39.     {
  40.       "name": "y_Rhad1",
  41.       "offset": 0,
  42.       "scale": 1
  43.     },
  44.     {
  45.       "name": "y_weta11",
  46.       "offset": 0,
  47.       "scale": 1
  48.     },
  49.     {
  50.       "name": "y_fracs11",
  51.       "offset": 0,
  52.       "scale": 1
  53.     },
  54.     {
  55.       "name": "y_Reta2",
  56.       "offset": 0,
  57.       "scale": 1
  58.     },
  59.     {
  60.       "name": "y_Rphi2",
  61.       "offset": 0,
  62.       "scale": 1
  63.     },
  64.     {
  65.       "name": "y_Rhad2",
  66.       "offset": 0,
  67.       "scale": 1
  68.     },
  69.     {
  70.       "name": "y_weta12",
  71.       "offset": 0,
  72.       "scale": 1
  73.     },
  74.     {
  75.       "name": "y_fracs12",
  76.       "offset": 0,
  77.       "scale": 1
  78.     },
  79.     {
  80.       "name": "y_Reta3",
  81.       "offset": 0,
  82.       "scale": 1
  83.     },
  84.     {
  85.       "name": "y_Rphi3",
  86.       "offset": 0,
  87.       "scale": 1
  88.     },
  89.     {
  90.       "name": "y_Rhad3",
  91.       "offset": 0,
  92.       "scale": 1
  93.     },
  94.     {
  95.       "name": "y_weta13",
  96.       "offset": 0,
  97.       "scale": 1
  98.     },
  99.     {
  100.       "name": "y_fracs13",
  101.       "offset": 0,
  102.       "scale": 1
  103.     },
  104.     {
  105.       "name": "y_fracs14",
  106.       "offset": 0,
  107.       "scale": 1
  108.     }
  109.   ],
  110.   "layers": [
  111.     {
  112.       "activation": "rectified",
  113.       "architecture": "dense",
  114.       "bias": [
  115.         -12.694990021195606,
  116.         8.24315701794296,
  117.         -16.727137090810803,
  118.         7.044254397295396,
  119.         6.498471012735654
  120.       ],
  121.       "weights": [
  122.         18.08450984922298,
  123.         -2.8600139045608626,
  124.         -0.7750907193428738,
  125.         -1.9863567780424118,
  126.         1.6477916812056321,
  127.         -5.116141198105912,
  128.         -3.0988367215970936,
  129.         -2.0294728724575535,
  130.         -4.879643892284672,
  131.         6.923542305192783,
  132.         -5.957033457519751,
  133.         -3.6485277261899514,
  134.         3.921637456915709,
  135.         5.023885971520366,
  136.         -14.568343073168085,
  137.         1.49684938038956,
  138.         -0.59228206676699,
  139.         -1.6052172757330974,
  140.         1.6739102397667835,
  141.         -2.098941768721004,
  142.         8.248726295544857,
  143.         -20.75949660871289,
  144.         4.032093896748746,
  145.         15.741311947332681,
  146.         4.270657713895455,
  147.         -6.055300832729853,
  148.         2.897032074130181,
  149.         1.1605850527803088,
  150.         -3.5018693348254875,
  151.         12.741594757940241,
  152.         -11.129706226590203,
  153.         3.4675209616907057,
  154.         0.7191753748563307,
  155.         4.198920589446874,
  156.         10.178877105757286,
  157.         -3.553037501722763,
  158.         0.9363596677700667,
  159.         8.937653968971011,
  160.         0.9440324376535492,
  161.         -4.0622240349975485,
  162.         -2.8066433969013156,
  163.         -0.5914083489211903,
  164.         64.88324665685325,
  165.         -13.525552806121569,
  166.         -19.317574756186843,
  167.         -10.572783967848409,
  168.         -1.096867981347472,
  169.         -11.453835614110023,
  170.         -11.72508208263776,
  171.         -17.11226790584438,
  172.         -14.942171177700361,
  173.         9.802126028085766,
  174.         -11.288034658358995,
  175.         -12.137056796632104,
  176.         -13.45231261682624,
  177.         -14.924593538742748,
  178.         16.06710318712654,
  179.         1.136074654622555,
  180.         -10.958920857598283,
  181.         0.5739335070759831,
  182.         5.190790354724844,
  183.         -3.5858166753494083,
  184.         0.3054046760523652,
  185.         -1.089108333674108,
  186.         3.312430167925863,
  187.         -4.5415623480417295,
  188.         2.842705530167044,
  189.         0.0012407698376947465,
  190.         2.825223514956339,
  191.         3.922162277328509,
  192.         -5.576939549470957,
  193.         1.9905725485928294,
  194.         3.560441714127252,
  195.         2.917183517040773,
  196.         1.7970144177675802,
  197.         -0.5340083847965263,
  198.         -1.9954829697547607,
  199.         -0.21668743383387337,
  200.         -0.19977950399092953,
  201.         4.061141063179925,
  202.         6.548526319282746,
  203.         4.0271970466818185,
  204.         0.3561693205146665,
  205.         -1.4082052636291555,
  206.         -79.20055027509426,
  207.         0.5034973637776057,
  208.         0.037433200219653656,
  209.         1.8192250990604797,
  210.         0.01715048730158486,
  211.         39.87410365532484,
  212.         0.0514748390658415,
  213.         0.06517904928351861,
  214.         -0.0776340088682851,
  215.         -0.021155404231457536,
  216.         39.50270463500053,
  217.         0.3329675617951649,
  218.         0.09173293329046457,
  219.         -0.06079165243308213,
  220.         0.017535320409649096,
  221.         -0.035314914345657734,
  222.         -1.2271687084811627,
  223.         -0.029449605302285506,
  224.         -0.023462722267684012,
  225.         -1.1247211343988837,
  226.         -0.014678919617616318
  227.       ]
  228.     },
  229.     {
  230.       "activation": "rectified",
  231.       "architecture": "dense",
  232.       "bias": [
  233.         -0.8717635142697044,
  234.         21.821192967580462,
  235.         3.6340795345036296,
  236.         1.2740192416177563,
  237.         -0.6665790970338
  238.       ],
  239.       "weights": [
  240.         -0.698068448429663,
  241.         -5.575853334733501,
  242.         -0.7069222514947693,
  243.         -1.0471009543516063,
  244.         -1.3233254016688432,
  245.         0.005549672475128402,
  246.         0.11800542136685009,
  247.         -0.09835421866819354,
  248.         0.22343666312222266,
  249.         48.99155071755231,
  250.         -5.304005931857405,
  251.         -4.00433482193536,
  252.         -2.2242468321173283,
  253.         -0.4735162324426351,
  254.         -4.3058401428201885,
  255.         -6.268220842241143,
  256.         -3.8612323203829204,
  257.         -0.06115533225280107,
  258.         -2.188851388731076,
  259.         -0.2740144189199657,
  260.         -2.7960708046417406,
  261.         -1.4488362071024286,
  262.         -17.91476343673454,
  263.         -2.502950598763528,
  264.         2.3476002210140434
  265.       ]
  266.     },
  267.     {
  268.       "activation": "sigmoid",
  269.       "architecture": "dense",
  270.       "bias": [
  271.         88.09676020075354
  272.       ],
  273.       "weights": [
  274.         -4.764942926784052,
  275.         -0.2850955649488256,
  276.         3.465552631383004,
  277.         5.458231060581289,
  278.         -0.5423954680090762
  279.       ]
  280.     }
  281.   ],
  282.   "miscellaneous": {
  283.     "scikit-learn": "0.19.1"
  284.   },
  285.   "outputs": [
  286.     "HFT_MVA"
  287.   ]
  288. }
Advertisement
Add Comment
Please, Sign In to add comment
Advertisement