Advertisement
Not a member of Pastebin yet?
Sign Up,
it unlocks many cool features!
- .LFB12:
- .cfi_startproc
- pushq %rbp
- .LCFI9:
- .cfi_def_cfa_offset 16
- .cfi_offset 6, -16
- movq %rsp, %rbp
- .LCFI10:
- .cfi_def_cfa_register 6
- subq $80, %rsp
- movq %rdi, -72(%rbp)
- movq -72(%rbp), %rax
- movq 8(%rax), %rax
- movq %rax, -56(%rbp)
- .LBB4:
- movl $0, -32(%rbp)
- jmp .L10
- .L11:
- movl -32(%rbp), %eax
- cltq
- salq $5, %rax
- addq -56(%rbp), %rax
- movq %rax, -48(%rbp)
- movq -48(%rbp), %rax
- movss (%rax), %xmm0
- unpcklps %xmm0, %xmm0
- cvtps2pd %xmm0, %xmm0
- movsd .LC1(%rip), %xmm1
- call fmin
- xorpd %xmm1, %xmm1
- call fmax
- unpcklpd %xmm0, %xmm0
- cvtpd2ps %xmm0, %xmm0
- movq -48(%rbp), %rax
- movss %xmm0, (%rax)
- movq -48(%rbp), %rax
- movss 4(%rax), %xmm0
- unpcklps %xmm0, %xmm0
- cvtps2pd %xmm0, %xmm0
- movsd .LC3(%rip), %xmm1
- call fmin
- xorpd %xmm1, %xmm1
- call fmax
- unpcklpd %xmm0, %xmm0
- cvtpd2ps %xmm0, %xmm0
- movq -48(%rbp), %rax
- movss %xmm0, 4(%rax)
- addl $1, -32(%rbp)
- .L10:
- cmpl $4, -32(%rbp)
- jle .L11
- .LBE4:
- .LBB5:
- movl $0, -28(%rbp)
- jmp .L12
- .L18:
- movl -28(%rbp), %eax
- cltq
- salq $5, %rax
- addq -56(%rbp), %rax
- movq %rax, -48(%rbp)
- .LBB6:
- movl -28(%rbp), %eax
- addl $1, %eax
- movl %eax, -24(%rbp)
- jmp .L13
- .L17:
- movl -24(%rbp), %eax
- cltq
- salq $5, %rax
- addq -56(%rbp), %rax
- movq %rax, -40(%rbp)
- movq -48(%rbp), %rax
- movss (%rax), %xmm0
- movq -40(%rbp), %rax
- movss (%rax), %xmm1
- movaps %xmm0, %xmm2
- subss %xmm1, %xmm2
- movaps %xmm2, %xmm1
- movq -48(%rbp), %rax
- movss (%rax), %xmm0
- movq -40(%rbp), %rax
- movss (%rax), %xmm2
- subss %xmm2, %xmm0
- mulss %xmm0, %xmm1
- movq -48(%rbp), %rax
- movss 4(%rax), %xmm0
- movq -40(%rbp), %rax
- movss 4(%rax), %xmm2
- movaps %xmm0, %xmm3
- subss %xmm2, %xmm3
- movaps %xmm3, %xmm2
- movq -48(%rbp), %rax
- movss 4(%rax), %xmm0
- movq -40(%rbp), %rax
- movss 4(%rax), %xmm3
- subss %xmm3, %xmm0
- mulss %xmm2, %xmm0
- addss %xmm1, %xmm0
- unpcklps %xmm0, %xmm0
- cvtps2pd %xmm0, %xmm1
- sqrtsd %xmm1, %xmm0
- ucomisd %xmm0, %xmm0
- jp .L15
- ucomisd %xmm0, %xmm0
- je .L14
- .L15:
- movapd %xmm1, %xmm0
- call sqrt
- .L14:
- movapd %xmm0, %xmm1
- movq -48(%rbp), %rax
- movss 24(%rax), %xmm2
- movq -40(%rbp), %rax
- movss 24(%rax), %xmm0
- addss %xmm2, %xmm0
- unpcklps %xmm0, %xmm0
- cvtps2pd %xmm0, %xmm0
- ucomisd %xmm1, %xmm0
- seta %al
- testb %al, %al
- je .L16
- .LBB7:
- movq -48(%rbp), %rax
- movss (%rax), %xmm0
- movq -40(%rbp), %rax
- movss (%rax), %xmm1
- subss %xmm1, %xmm0
- movss %xmm0, -20(%rbp)
- movq -48(%rbp), %rax
- movss 4(%rax), %xmm0
- movq -40(%rbp), %rax
- movss 4(%rax), %xmm1
- subss %xmm1, %xmm0
- movss %xmm0, -16(%rbp)
- movss -20(%rbp), %xmm0
- movaps %xmm0, %xmm1
- mulss -20(%rbp), %xmm1
- movss -16(%rbp), %xmm0
- mulss -16(%rbp), %xmm0
- addss %xmm1, %xmm0
- unpcklps %xmm0, %xmm0
- cvtps2pd %xmm0, %xmm0
- call sqrt
- unpcklpd %xmm0, %xmm0
- cvtpd2ps %xmm0, %xmm0
- movss %xmm0, -12(%rbp)
- movq -48(%rbp), %rax
- movss 24(%rax), %xmm1
- movq -40(%rbp), %rax
- movss 24(%rax), %xmm0
- addss %xmm1, %xmm0
- movss %xmm0, -8(%rbp)
- movss -12(%rbp), %xmm0
- subss -8(%rbp), %xmm0
- movq -48(%rbp), %rax
- movss 28(%rax), %xmm2
- movq -40(%rbp), %rax
- movss 28(%rax), %xmm1
- addss %xmm2, %xmm1
- mulss -12(%rbp), %xmm1
- divss %xmm1, %xmm0
- movss %xmm0, -4(%rbp)
- movq -48(%rbp), %rax
- movss (%rax), %xmm1
- movq -48(%rbp), %rax
- movss 28(%rax), %xmm0
- mulss -20(%rbp), %xmm0
- mulss -4(%rbp), %xmm0
- movaps %xmm1, %xmm2
- subss %xmm0, %xmm2
- movaps %xmm2, %xmm0
- movq -48(%rbp), %rax
- movss %xmm0, (%rax)
- movq -48(%rbp), %rax
- movss 4(%rax), %xmm1
- movq -48(%rbp), %rax
- movss 28(%rax), %xmm0
- mulss -16(%rbp), %xmm0
- mulss -4(%rbp), %xmm0
- movaps %xmm1, %xmm3
- subss %xmm0, %xmm3
- movaps %xmm3, %xmm0
- movq -48(%rbp), %rax
- movss %xmm0, 4(%rax)
- movq -40(%rbp), %rax
- movss (%rax), %xmm1
- movq -40(%rbp), %rax
- movss 28(%rax), %xmm0
- mulss -20(%rbp), %xmm0
- mulss -4(%rbp), %xmm0
- addss %xmm1, %xmm0
- movq -40(%rbp), %rax
- movss %xmm0, (%rax)
- movq -40(%rbp), %rax
- movss 4(%rax), %xmm1
- movq -40(%rbp), %rax
- movss 28(%rax), %xmm0
- mulss -16(%rbp), %xmm0
- mulss -4(%rbp), %xmm0
- addss %xmm1, %xmm0
- movq -40(%rbp), %rax
- movss %xmm0, 4(%rax)
- .L16:
- .LBE7:
- addl $1, -24(%rbp)
- .L13:
- cmpl $4, -24(%rbp)
- jle .L17
- .LBE6:
- addl $1, -28(%rbp)
- .L12:
- cmpl $4, -28(%rbp)
- jle .L18
Advertisement
Add Comment
Please, Sign In to add comment
Advertisement