Advertisement
Guest User

Untitled

a guest
Jul 22nd, 2019
83
0
Never
Not a member of Pastebin yet? Sign Up, it unlocks many cool features!
text 18.68 KB | None | 0 0
  1. ../mesa-aco/src/amd/vulkan/radv_descriptor_set.c:487: VK_ERROR_OUT_OF_POOL_MEMORY
  2. SPIR-V WARNING:
  3. In file ../mesa-aco/src/compiler/spirv/spirv_to_nir.c:3535
  4. Unsupported SPIR-V capability: SpvCapabilityFloat64 (10)
  5. 36 bytes into the SPIR-V binary
  6. Unknown NIR ALU instr: vec1 64 ssa_285 = u2f64 ssa_284
  7. Unknown NIR ALU instr: vec1 32 ssa_286 = f2f32 ssa_285
  8. Unknown NIR ALU instr: vec1 64 ssa_323 = u2f64 ssa_322
  9. Unknown NIR ALU instr: vec1 32 ssa_324 = f2f32 ssa_323
  10. BB0
  11. /* logical preds: / linear preds: / kind: top-level, branch, */
  12. s1: %1:s[2], s1: %2:s[3], s1: %3:s[4], v1: %4:v[0], v1: %5:v[1], v1: %6:v[2], s2: %7:exec = p_startpgm
  13. p_logical_start
  14. s1: %11, s1: %10:scc = s_add_i32 0x10, %2
  15. s1: %21, s1: %22:scc = s_lshl_b32 %3, 0x6
  16. v1: %23 = v_add_u32 %21, %4
  17. s2: %25 = p_create_vector %11, 0xffff8000
  18. s4: %26 = s_load_dwordx4 %25, 0x0 reorder
  19. s1: %24 = s_buffer_load_dword %26, 0x0 reorder
  20. s2: %27 = v_cmp_ge_u32 %24, %23
  21. p_logical_end
  22. s2: %750, s1: %749:scc, s2: %748:exec = s_and_saveexec_b64 %27, %7:exec
  23. p_cbranch_z %748:exec BB12, BB1
  24. BB1
  25. /* logical preds: BB0, / linear preds: BB0, / kind: uniform, loop-preheader, */
  26. p_logical_start
  27. s1: %40 = s_mov_b32 0x40490fdb
  28. s1: %42 = s_mov_b32 0x3fc90da4
  29. s1: %43 = s_mov_b32 0xbe593484
  30. s1: %45 = s_mov_b32 0xbc996e30
  31. s1: %54 = s_mov_b32 0x437f0000
  32. s1: %58 = s_mov_b32 0x41800000
  33. s2: %61 = s_buffer_load_dwordx2 %26, 0x4 reorder
  34. s1: %64, s1: %65 = p_split_vector %61
  35. v1: %66 = v_add_u32 %64, %23
  36. v1: %67 = v_cvt_f32_u32 %23
  37. s1: %69 = s_buffer_load_dword %26, 0x94 reorder
  38. v1: %72 = v_mul_f32 %69, %67
  39. s4: %73 = s_buffer_load_dwordx4 %26, 0xc reorder
  40. s1: %76, s1: %77, s1: %78, s1: %79 = p_split_vector %73
  41. v1: %80 = v_add_f32 %77, %72
  42. v1: %81 = v_cvt_u32_f32 %80
  43. s1: %83, s1: %82:scc = s_add_i32 0x40, %2
  44. v1: %86 = v_mul_lo_u32 %81, 0x30
  45. s2: %88 = p_create_vector %83, 0xffff8000
  46. s4: %89 = s_load_dwordx4 %88, 0x0 reorder
  47. v4: %87 = buffer_load_dwordx4 %86, %89, 0x0 offen buffer
  48. v1: %90, v1: %91, v1: %92, v1: %93 = p_split_vector %87
  49. v2: %97 = buffer_load_dwordx2 %86, %89, 0x0 offset:24 offen buffer
  50. v1: %100, v1: %101 = p_split_vector %97
  51. v2: %103 = buffer_load_dwordx2 %86, %89, 0x0 offset:16 offen buffer
  52. v1: %106, v1: %107 = p_split_vector %103
  53. v4: %110 = buffer_load_dwordx4 %86, %89, 0x0 offset:32 offen buffer
  54. v1: %113, v1: %114, v1: %115, v1: %116 = p_split_vector %110
  55. v1: %117 = v_and_b32 0x3ff, %66
  56. s1: %119, s1: %118:scc = s_add_i32 0x20, %2
  57. v1: %121 = v_mul_lo_u32 %117, 0x18
  58. s2: %123 = p_create_vector %119, 0xffff8000
  59. s4: %124 = s_load_dwordx4 %123, 0x0 reorder
  60. v4: %122 = buffer_load_dwordx4 %121, %124, 0x0 offen buffer
  61. v1: %125, v1: %126, v1: %127, v1: %128 = p_split_vector %122
  62. v2: %130 = buffer_load_dwordx2 %121, %124, 0x0 offset:16 offen buffer
  63. v1: %133, v1: %134 = p_split_vector %130
  64. v1: %135 = v_mul_f32 %58, %115
  65. v1: %136 = v_add_f32 0xbf800000, %135
  66. v1: %137 = v_fract_f32 %135
  67. v1: %138 = v_floor_f32 %136
  68. v1: %139 = v_cvt_u32_f32 %138
  69. v1: %140 = v_add_u32 0x1, %139
  70. v1: %141 = v_min_u32 0xf, %140
  71. s1: %143, s1: %142:scc = s_add_i32 0x30, %2
  72. v1: %145 = v_lshlrev_b32 0x2, %117
  73. s2: %147 = p_create_vector %143, 0xffff8000
  74. s4: %148 = s_load_dwordx4 %147, 0x0 reorder
  75. v1: %146 = buffer_load_dword %145, %148, 0x0 offen buffer
  76. v1: %149 = v_mul_f32 0x41a00000, %146
  77. v1: %150 = v_mul_f32 0x43c80000, %146
  78. v1: %151 = v_mul_f32 0x45fa0000, %146
  79. v1: %152 = v_fract_f32 %149
  80. v1: %153 = v_fract_f32 %150
  81. v1: %154 = v_fract_f32 %151
  82. s4: %155 = s_buffer_load_dwordx4 %26, 0x20 reorder
  83. s1: %158, s1: %159, s1: %160, s1: %161 = p_split_vector %155
  84. v1: %163 = v_mov_b32 %158
  85. v1: %165 = v_mov_b32 %159
  86. v1: %167 = v_mov_b32 %160
  87. v1: %169 = v_mov_b32 %161
  88. s4: %171 = s_buffer_load_dwordx4 %26, 0x30 reorder
  89. s1: %174, s1: %175, s1: %176, s1: %177 = p_split_vector %171
  90. v1: %178 = v_sub_f32 %174, %163
  91. v1: %179 = v_sub_f32 %175, %165
  92. v1: %180 = v_sub_f32 %176, %167
  93. v1: %181 = v_sub_f32 %177, %169
  94. v1: %183 = v_mad_f32 %146, %178, %158
  95. v1: %185 = v_mad_f32 %152, %179, %159
  96. v1: %187 = v_mad_f32 %153, %180, %160
  97. v1: %189 = v_mad_f32 %154, %181, %161
  98. v1: %190 = v_add_u32 0xa, %139
  99. v1: %191 = v_lshlrev_b32 0x4, %190
  100. v4: %192 = buffer_load_dwordx4 %191, %26, 0x0 offen reorder
  101. v1: %195, v1: %196, v1: %197, v1: %198 = p_split_vector %192
  102. v1: %203 = v_add_u32 0xa, %141
  103. v1: %204 = v_lshlrev_b32 0x4, %203
  104. v4: %205 = buffer_load_dwordx4 %204, %26, 0x0 offen reorder
  105. v1: %208, v1: %209, v1: %210, v1: %211 = p_split_vector %205
  106. v1: %212 = v_subrev_f32 %195, %208
  107. v1: %213 = v_subrev_f32 %196, %209
  108. v1: %214 = v_subrev_f32 %197, %210
  109. v1: %215 = v_subrev_f32 %198, %211
  110. v1: %217 = v_mad_f32 %137, %212, %195
  111. v1: %219 = v_mad_f32 %137, %213, %196
  112. v1: %221 = v_mad_f32 %137, %214, %197
  113. v1: %223 = v_mad_f32 %137, %215, %198
  114. v1: %228 = v_mul_f32 %183, %217 clamp
  115. v1: %229 = v_mul_f32 %185, %219 clamp
  116. v1: %230 = v_mul_f32 %187, %221 clamp
  117. v1: %231 = v_mul_f32 %189, %223 clamp
  118. v1: %232 = v_mul_f32 %54, %228
  119. v1: %233 = v_mul_f32 %54, %229
  120. v1: %234 = v_mul_f32 %54, %230
  121. v1: %235 = v_mul_f32 %54, %231
  122. v1: %236 = v_cvt_u32_f32 %232
  123. v1: %237 = v_cvt_u32_f32 %233
  124. v1: %238 = v_cvt_u32_f32 %234
  125. v1: %239 = v_cvt_u32_f32 %235
  126. v1: %240 = v_lshlrev_b32 0x8, %237
  127. v1: %241 = v_add_u32 %240, %236
  128. v1: %242 = v_lshlrev_b32 0x10, %238
  129. v1: %243 = v_add_u32 %242, %241
  130. v1: %244 = v_lshlrev_b32 0x18, %239
  131. v1: %245 = v_add_u32 %244, %243
  132. v1: %246 = v_add_u32 0xc8, %66
  133. v1: %248 = v_and_b32 0x3ff, %246
  134. v1: %249 = v_lshlrev_b32 0x2, %248
  135. v1: %250 = buffer_load_dword %249, %148, 0x0 offen buffer
  136. v1: %253 = v_mul_f32 0x41200000, %250
  137. v1: %254 = v_mul_f32 0x42c80000, %250
  138. v1: %255 = v_fract_f32 %253
  139. v1: %256 = v_fract_f32 %254
  140. s4: %260 = s_buffer_load_dwordx4 %26, 0x40 reorder
  141. s1: %261, s1: %262, s1: %263, s1: %264 = p_split_vector %260
  142. v1: %269 = v_mov_b32 %261
  143. v1: %271 = v_mov_b32 %262
  144. v1: %273 = v_mov_b32 %263
  145. s4: %278 = s_buffer_load_dwordx4 %26, 0x50 reorder
  146. s1: %279, s1: %280, s1: %281, s1: %282 = p_split_vector %278
  147. v1: %286 = v_sub_f32 %279, %269
  148. v1: %287 = v_sub_f32 %280, %271
  149. v1: %288 = v_sub_f32 %281, %273
  150. v1: %290 = v_mad_f32 %250, %286, %261
  151. v1: %292 = v_mad_f32 %255, %287, %262
  152. v1: %294 = v_mad_f32 %256, %288, %263
  153. v1: %296 = v_add_u32 0x1a, %139
  154. v1: %297 = v_lshlrev_b32 0x4, %296
  155. v4: %298 = buffer_load_dwordx4 %297, %26, 0x0 offen reorder
  156. v1: %301, v1: %302, v1: %303, v1: %304 = p_split_vector %298
  157. v1: %309 = v_add_u32 0x1a, %141
  158. v1: %310 = v_lshlrev_b32 0x4, %309
  159. v4: %311 = buffer_load_dwordx4 %310, %26, 0x0 offen reorder
  160. v1: %314, v1: %315, v1: %316, v1: %317 = p_split_vector %311
  161. v1: %318 = v_subrev_f32 %301, %314
  162. v1: %319 = v_subrev_f32 %302, %315
  163. v1: %320 = v_subrev_f32 %303, %316
  164. v1: %321 = v_subrev_f32 %304, %317
  165. v1: %323 = v_mad_f32 %137, %318, %301
  166. v1: %325 = v_mad_f32 %137, %319, %302
  167. v1: %327 = v_mad_f32 %137, %320, %303
  168. v1: %329 = v_mad_f32 %137, %321, %304
  169. v1: %330 = v_mul_f32 %290, %323
  170. v1: %331 = v_mul_f32 %292, %325
  171. v1: %332 = v_mul_f32 %294, %327
  172. s2: %335 = p_create_vector %2, 0xffff8000
  173. s4: %336 = s_load_dwordx4 %335, 0x0 reorder
  174. s1: %334 = s_buffer_load_dword %336, 0x20 reorder
  175. v1: %338 = v_cvt_f32_u32 %334
  176. v1: %339 = v_rcp_iflag_f32 %338
  177. v1: %340 = v_mul_f32 0x4f800000, %339
  178. v1: %341 = v_cvt_u32_f32 %340
  179. s1: %337 = p_as_uniform %341
  180. s1: %342 = s_mul_i32 %337, %334
  181. v1: %345 = v_mul_hi_u32 %341, %334
  182. s1: %343 = p_as_uniform %345
  183. s1: %346:scc = s_cmp_lg_i32 %343, 0x0
  184. s1: %347 = s_mul_i32 0xffffffff, %342
  185. s1: %348 = s_cselect_b32 %342, %347, %346:scc
  186. v1: %351 = v_mul_hi_u32 %348, %341
  187. s1: %349 = p_as_uniform %351
  188. s1: %352, s1: %353:scc = s_add_i32 %337, %349
  189. s1: %354, s1: %355:scc = s_sub_i32 %337, %349
  190. s1: %356 = s_cselect_b32 %354, %352, %346:scc
  191. v1: %357 = v_mul_hi_u32 %356, %66
  192. v1: %358 = v_mul_lo_u32 %357, %334
  193. v1: %359 = v_sub_u32 %66, %358
  194. s2: %360 = v_cmp_le_u32 %334, %359
  195. s2: %361 = v_cmp_ge_u32 %66, %358
  196. s2: %362, s1: %363:scc = s_and_b64 %360, %361
  197. v1: %364 = v_subrev_u32 %334, %359
  198. v1: %365 = v_add_u32 %334, %359
  199. v1: %366 = v_cndmask_b32 %359, %364, %362
  200. v1: %367 = v_cndmask_b32 %365, %366, %361
  201. s1: %369, s1: %368:scc = s_add_i32 0x60, %2
  202. v1: %371 = v_mul_lo_u32 %367, 0x18
  203. v4: %372 = p_create_vector %114, %330, 0x0, %245
  204. s2: %373 = p_create_vector %369, 0xffff8000
  205. s4: %374 = s_load_dwordx4 %373, 0x0 reorder
  206. buffer_store_dwordx4 %371, %374, 0x0, %372 offen disable_wqm buffer
  207. v2: %376 = p_create_vector %331, %116
  208. buffer_store_dwordx2 %371, %374, 0x0, %376 offset:16 offen disable_wqm buffer
  209. s1: %379 = s_buffer_load_dword %336, 0x3c reorder
  210. s1: %382, s1: %383:scc = s_and_b32 %379, 0x100000
  211. s1: %384, s1: %385:scc = s_and_b32 %379, 0x2
  212. v1: %386 = v_mul_f32 %100, %100
  213. v1: %387 = v_mul_f32 %101, %101
  214. v1: %388 = v_add_f32 %386, %387
  215. s2: %389 = v_cmp_eq_f32 %388, %388
  216. s2: %391 = v_cmp_neq_f32 %386, -%387
  217. s2: %393, s1: %394:scc = s_and_b64 %391, %389
  218. v1: %395 = v_rsq_f32 %388
  219. v1: %397 = v_mul_f32 -%101, %395
  220. v1: %398 = v_mul_f32 %395, %100
  221. v1: %399 = v_cndmask_b32 0x0, %398, %393
  222. v1: %401 = v_cndmask_b32 0x3f800000, %397, %393
  223. v1: %403 = v_mul_f32 %113, %401
  224. v1: %404 = v_mul_f32 %100, %399
  225. v1: %405 = v_xor_b32 0x80000000, %403
  226. v1: %407 = v_mul_f32 %399, %113
  227. v1: %409 = v_mad_f32 %401, %101, -%404
  228. v1: %411 = v_mul_f32 %126, %100
  229. v1: %412 = v_mad_f32 %125, %401, %411
  230. v1: %414 = v_mad_f32 %127, %407, %412
  231. v1: %416 = v_mul_f32 %126, %101
  232. v1: %417 = v_mad_f32 %125, %399, %416
  233. v1: %420 = v_mad_f32 %403, -%127, %417
  234. v1: %422 = v_mul_f32 %126, %113
  235. v1: %423 = v_mad_f32 %127, %409, %422
  236. s1: %424:scc = s_cmp_lg_i32 %382, 0x0
  237. s2: %426 = s_cselect_b64 0xffffffff, 0x0, %424:scc
  238. v1: %425 = v_cndmask_b32 %401, 0x3f800000, %426
  239. v1: %428 = v_cndmask_b32 %399, 0x0, %426
  240. v1: %431 = v_cndmask_b32 %100, 0x0, %426
  241. v1: %434 = v_cndmask_b32 %101, 0x3f800000, %426
  242. v1: %437 = v_cndmask_b32 %407, 0x0, %426
  243. v1: %440 = v_cndmask_b32 %405, 0x0, %426
  244. v1: %443 = v_cndmask_b32 %409, 0x3f800000, %426
  245. v1: %446 = v_cndmask_b32 %414, %125, %426
  246. v1: %448 = v_cndmask_b32 %420, %126, %426
  247. v1: %450 = v_cndmask_b32 %423, %127, %426
  248. v1: %452 = v_cndmask_b32 %113, 0x0, %426
  249. v1: %466 = v_mul_f32 0x2f800000, %465
  250. s4: %471 = s_buffer_load_dwordx4 %26, 0x88 reorder
  251. s1: %472, s1: %473, s1: %474, s1: %475 = p_split_vector %471
  252. v1: %479 = v_mul_f32 %473, %329
  253. v1: %481 = v_mul_f32 0x3e22f983, %479
  254. v1: %480 = v_cos_f32 %481
  255. v1: %482 = v_add_f32 0xbf800000, %480
  256. v1: %483 = v_mul_f32 %466, %482
  257. v1: %484 = v_add_f32 0x3f800000, %483
  258. v1: %487 = v_sub_f32 0x3f800000, |%484|
  259. v1: %488 = v_sqrt_f32 %487
  260. v1: %489 = v_mul_f32 %45, |%484|
  261. v1: %490 = v_add_f32 0x3d981627, %489
  262. v1: %492 = v_mad_f32 %490, |%484|, %43
  263. v1: %494 = v_mad_f32 %492, |%484|, %42
  264. v1: %495 = v_mul_f32 %488, %494
  265. v1: %497 = v_mad_f32 0xc0000000, %495, %40
  266. s2: %498 = v_cmp_gt_f32 0xbf800000, %483
  267. v1: %500 = v_cndmask_b32 0x0, 0x1, %498
  268. v1: %501 = v_sub_u32 0x0, %500
  269. v1: %502 = v_and_b32 %501, %497
  270. v1: %503 = v_add_f32 %495, %502
  271. v1: %515 = v_mul_f32 0x2f800000, %514
  272. s4: %520 = s_buffer_load_dwordx4 %26, 0x6c reorder
  273. s1: %521, s1: %522, s1: %523, s1: %524 = p_split_vector %520
  274. v1: %529 = v_mov_b32 %521
  275. s4: %531 = s_buffer_load_dwordx4 %26, 0x78 reorder
  276. s1: %534, s1: %535, s1: %536, s1: %537 = p_split_vector %531
  277. v1: %538 = v_sub_f32 %535, %529
  278. v1: %540 = v_mad_f32 %515, %538, %521
  279. v1: %542 = v_add_u32 0x2a, %139
  280. v1: %543 = v_lshlrev_b32 0x4, %542
  281. v1: %544 = buffer_load_dword %543, %26, 0x0 offen reorder
  282. v1: %548 = v_add_u32 0x2a, %141
  283. v1: %549 = v_lshlrev_b32 0x4, %548
  284. v1: %550 = buffer_load_dword %549, %26, 0x0 offen reorder
  285. v1: %553 = v_subrev_f32 %544, %550
  286. v1: %555 = v_mad_f32 %137, %553, %544
  287. v1: %556 = v_mul_f32 %555, %540
  288. v1: %558 = v_mul_f32 0x3e22f983, %503
  289. v1: %557 = v_sin_f32 %558
  290. v1: %559 = v_cos_f32 %558
  291. v1: %562 = v_mul_f32 0x3e22f983, %556
  292. v1: %561 = v_sin_f32 %562
  293. v1: %563 = v_cos_f32 %562
  294. v1: %566 = v_mul_f32 %133, %431
  295. v1: %567 = v_mad_f32 %128, %425, %566
  296. v1: %569 = v_mad_f32 %134, %437, %567
  297. v1: %571 = v_mul_f32 %134, %440
  298. v1: %572 = v_mad_f32 %128, %428, %571
  299. v1: %574 = v_mad_f32 %133, %434, %572
  300. v1: %576 = v_mul_f32 %134, %443
  301. v1: %577 = v_mad_f32 %133, %452, %576
  302. v1: %578 = v_mul_f32 %569, %569
  303. v1: %579 = v_mul_f32 %574, %574
  304. v1: %580 = v_add_f32 %578, %579
  305. s2: %581 = v_cmp_eq_f32 %580, %580
  306. s2: %583 = v_cmp_neq_f32 %578, -%579
  307. s2: %585, s1: %586:scc = s_and_b64 %583, %581
  308. v1: %587 = v_rsq_f32 %580
  309. v1: %589 = v_mul_f32 -%574, %587
  310. v1: %590 = v_mul_f32 %587, %569
  311. v1: %591 = v_cndmask_b32 0x3f800000, %589, %585
  312. v1: %593 = v_cndmask_b32 0x0, %590, %585
  313. v1: %596 = v_mul_f32 %569, %593
  314. v1: %597 = v_mul_f32 -%577, %591
  315. v1: %599 = v_mul_f32 %593, %577
  316. v1: %601 = v_mad_f32 %591, %574, -%596
  317. v1: %602 = v_cndmask_b32 %591, 0x3f800000, %426
  318. v1: %605 = v_cndmask_b32 %593, 0x0, %426
  319. v1: %608 = v_cndmask_b32 %569, 0x0, %426
  320. v1: %611 = v_cndmask_b32 %574, 0x3f800000, %426
  321. v1: %614 = v_cndmask_b32 %577, 0x0, %426
  322. v1: %617 = v_cndmask_b32 %599, 0x0, %426
  323. v1: %620 = v_cndmask_b32 %597, 0x0, %426
  324. v1: %623 = v_cndmask_b32 %601, 0x3f800000, %426
  325. v1: %626 = v_mul_f32 %561, %617
  326. v1: %627 = v_mul_f32 %561, %620
  327. v1: %628 = v_mul_f32 %561, %623
  328. v1: %630 = v_mad_f32 %602, %563, %626
  329. v1: %632 = v_mad_f32 %605, %563, %627
  330. v1: %633 = v_mul_f32 %557, %630
  331. v1: %634 = v_mul_f32 %557, %632
  332. v1: %635 = v_mul_f32 %557, %628
  333. v1: %637 = v_mad_f32 %608, %559, %633
  334. v1: %639 = v_mad_f32 %611, %559, %634
  335. v1: %641 = v_mad_f32 %614, %559, %635
  336. s2: %642 = v_cmp_gt_f32 0x0, %332
  337. v1: %643 = v_xor_b32 0x80000000, %637
  338. v1: %644 = v_xor_b32 0x80000000, %639
  339. v1: %645 = v_xor_b32 0x80000000, %641
  340. v1: %646 = v_xor_b32 0x80000000, %332
  341. v1: %647 = v_cndmask_b32 %637, %643, %642
  342. v1: %648 = v_cndmask_b32 %639, %644, %642
  343. v1: %649 = v_cndmask_b32 %641, %645, %642
  344. v1: %650 = v_cndmask_b32 %332, %646, %642
  345. s2: %651 = v_cmp_lt_f32 0x0, %649
  346. v1: %652 = v_xor_b32 0x80000000, %650
  347. v1: %653 = v_cndmask_b32 %652, %650, %651
  348. v1: %654 = v_mul_f32 %332, %637
  349. v1: %655 = v_mul_f32 %332, %639
  350. v1: %656 = v_mul_f32 %332, %641
  351. v1: %657 = v_mul_f32 0x461c4000, %255
  352. v1: %658 = v_fract_f32 %657
  353. v1: %660 = v_mov_b32 %65
  354. v1: %661 = v_sub_f32 %76, %660
  355. v1: %663 = v_mad_f32 %658, %661, %65
  356. v1: %665 = v_mad_f32 %93, %663, %654
  357. v1: %667 = v_mad_f32 %106, %663, %655
  358. v1: %669 = v_mad_f32 %107, %663, %656
  359. v1: %670 = v_cndmask_b32 %665, %654, %426
  360. v1: %672 = v_cndmask_b32 %667, %655, %426
  361. v1: %674 = v_cndmask_b32 %669, %656, %426
  362. s1: %676:scc = s_cmp_lg_i32 %384, 0x0
  363. s2: %678 = s_cselect_b64 0xffffffff, 0x0, %676:scc
  364. v1: %677 = v_cndmask_b32 %670, %647, %678
  365. v1: %679 = v_cndmask_b32 %672, %648, %678
  366. v1: %681 = v_cndmask_b32 %674, %653, %678
  367. s1: %684 = s_buffer_load_dword %336, 0x15c reorder
  368. v1: %687 = v_mul_f32 %684, %446
  369. v1: %688 = v_mul_f32 %684, %448
  370. v1: %689 = v_mul_f32 %684, %450
  371. v1: %690 = v_add_f32 %687, %90
  372. v1: %691 = v_add_f32 %688, %91
  373. v1: %692 = v_add_f32 %689, %92
  374. v1: %693 = v_cndmask_b32 %690, %687, %426
  375. v1: %695 = v_cndmask_b32 %691, %688, %426
  376. v1: %697 = v_cndmask_b32 %692, %689, %426
  377. s4: %703 = s_buffer_load_dwordx4 %26, 0x60 reorder
  378. s1: %704, s1: %705, s1: %706, s1: %707 = p_split_vector %703
  379. v1: %712 = v_mul_f32 %705, %695
  380. v1: %713 = v_mad_f32 %704, %693, %712
  381. v1: %715 = v_mad_f32 %706, %697, %713
  382. v1: %717 = v_mul_f32 %523, %695
  383. v1: %718 = v_mad_f32 %522, %693, %717
  384. v1: %720 = v_mad_f32 %534, %697, %718
  385. v1: %722 = v_mul_f32 %537, %695
  386. v1: %723 = v_mad_f32 %536, %693, %722
  387. v1: %725 = v_mad_f32 %472, %697, %723
  388. v1: %726 = v_add_f32 %78, %715
  389. v1: %727 = v_add_f32 %79, %720
  390. s1: %728 = s_buffer_load_dword %26, 0x1c reorder
  391. v1: %731 = v_add_f32 %728, %725
  392. v1: %732 = v_mul_lo_u32 %367, %474
  393. v1: %733 = v_add_u32 %474, %732
  394. p_logical_end
  395. p_branch BB2
  396. BB2
  397. /* logical preds: BB1, BB10, / linear preds: BB1, BB10, / kind: loop-header, branch, */
  398. s2: %751 = p_linear_phi %748, %751
  399. s2: %752:exec = p_linear_phi %748, %761
  400. v1: %734 = p_phi %732, %735
  401. p_logical_start
  402. s2: %736 = v_cmp_ge_u32 %734, %733
  403. p_logical_end
  404. s2: %755, s1: %754:scc, s2: %753:exec = s_and_saveexec_b64 %736, %752:exec
  405. p_cbranch_z %753:exec BB6, BB3
  406. BB3
  407. /* logical preds: BB2, / linear preds: BB2, / kind: break, */
  408. p_logical_start
  409. p_logical_end
  410. s2: %757, s1: %756:scc = s_andn2_b64 %755, %753:exec
  411. p_cbranch_nz %756:scc BB5, BB4
  412. BB4
  413. /* logical preds: / linear preds: BB3, / kind: uniform, */
  414. p_branch BB11
  415. BB5
  416. /* logical preds: / linear preds: BB3, / kind: uniform, */
  417. p_logical_start
  418. p_logical_end
  419. p_branch BB7
  420. BB6
  421. /* logical preds: / linear preds: BB2, / kind: uniform, */
  422. p_branch BB7
  423. BB7
  424. /* logical preds: / linear preds: BB5, BB6, / kind: invert, */
  425. s2: %758 = p_linear_phi %757, %755
  426. s2: %760:exec, s1: %759:scc = s_andn2_b64 %758, %753:exec
  427. p_cbranch_z %760:exec BB9, BB8
  428. BB8
  429. /* logical preds: BB2, / linear preds: BB7, / kind: uniform, */
  430. p_logical_start
  431. p_logical_end
  432. p_branch BB10
  433. BB9
  434. /* logical preds: / linear preds: BB7, / kind: uniform, */
  435. p_branch BB10
  436. BB10
  437. /* logical preds: BB8, / linear preds: BB8, BB9, / kind: uniform, continue, merge, */
  438. s2: %761:exec = p_parallelcopy %758
  439. p_logical_start
  440. s1: %738, s1: %737:scc = s_add_i32 0x50, %2
  441. v1: %740 = v_mul_lo_u32 %734, 0x18
  442. v4: %741 = p_create_vector %726, %727, %731, %677
  443. s2: %742 = p_create_vector %738, 0xffff8000
  444. s4: %743 = s_load_dwordx4 %742, 0x0 reorder
  445. buffer_store_dwordx4 %740, %743, 0x0, %741 offen disable_wqm buffer
  446. v2: %745 = p_create_vector %679, %681
  447. buffer_store_dwordx2 %740, %743, 0x0, %745 offset:16 offen disable_wqm buffer
  448. v1: %735 = v_add_u32 0x1, %734
  449. p_logical_end
  450. p_branch BB2
  451. BB11
  452. /* logical preds: BB3, / linear preds: BB4, / kind: uniform, loop-exit, */
  453. s2: %762:exec = p_parallelcopy %751
  454. p_logical_start
  455. p_logical_end
  456. p_branch BB13
  457. BB12
  458. /* logical preds: / linear preds: BB0, / kind: uniform, */
  459. p_branch BB13
  460. BB13
  461. /* logical preds: / linear preds: BB11, BB12, / kind: invert, */
  462. s2: %763:exec = p_linear_phi %762, %748
  463. s2: %765:exec, s1: %764:scc = s_andn2_b64 %750, %763:exec
  464. p_cbranch_z %765:exec BB15, BB14
  465. BB14
  466. /* logical preds: BB0, / linear preds: BB13, / kind: uniform, */
  467. p_logical_start
  468. p_logical_end
  469. p_branch BB16
  470. BB15
  471. /* logical preds: / linear preds: BB13, / kind: uniform, */
  472. p_branch BB16
  473. BB16
  474. /* logical preds: BB11, BB14, / linear preds: BB14, BB15, / kind: uniform, top-level, merge, */
  475. s2: %766:exec = p_parallelcopy %750
  476. p_logical_start
  477. p_logical_end
  478. s_endpgm
  479.  
  480. These temporaries are never defined or are defined after use:
  481. %465
  482. %514
  483. [20:34:57.672] [error] Star Citizen process exited abnormally (code: 2147483905) : Command failed: C:\Program Files\Roberts Space Industries\StarCitizen\LIVE\Bin64\StarCitizen.exe
Advertisement
Add Comment
Please, Sign In to add comment
Advertisement