| // This file is generated from a similarly-named Perl script in the BoringSSL |
| // source tree. Do not edit by hand. |
| |
| #if !defined(__has_feature) |
| #define __has_feature(x) 0 |
| #endif |
| #if __has_feature(memory_sanitizer) && !defined(OPENSSL_NO_ASM) |
| #define OPENSSL_NO_ASM |
| #endif |
| |
| #if !defined(OPENSSL_NO_ASM) && defined(__AARCH64EL__) && defined(__ELF__) |
| #if defined(BORINGSSL_PREFIX) |
| #include <boringssl_prefix_symbols_asm.h> |
| #endif |
| // Copyright 2014-2020 The OpenSSL Project Authors. All Rights Reserved. |
| // |
| // Licensed under the OpenSSL license (the "License"). You may not use |
| // this file except in compliance with the License. You can obtain a copy |
| // in the file LICENSE in the source distribution or at |
| // https://www.openssl.org/source/license.html |
| |
| // ==================================================================== |
| // Written by Andy Polyakov <appro@openssl.org> for the OpenSSL |
| // project. The module is, however, dual licensed under OpenSSL and |
| // CRYPTOGAMS licenses depending on where you obtain it. For further |
| // details see http://www.openssl.org/~appro/cryptogams/. |
| // |
| // Permission to use under GPLv2 terms is granted. |
| // ==================================================================== |
| // |
| // SHA256/512 for ARMv8. |
| // |
| // Performance in cycles per processed byte and improvement coefficient |
| // over code generated with "default" compiler: |
| // |
| // SHA256-hw SHA256(*) SHA512 |
| // Apple A7 1.97 10.5 (+33%) 6.73 (-1%(**)) |
| // Cortex-A53 2.38 15.5 (+115%) 10.0 (+150%(***)) |
| // Cortex-A57 2.31 11.6 (+86%) 7.51 (+260%(***)) |
| // Denver 2.01 10.5 (+26%) 6.70 (+8%) |
| // X-Gene 20.0 (+100%) 12.8 (+300%(***)) |
| // Mongoose 2.36 13.0 (+50%) 8.36 (+33%) |
| // Kryo 1.92 17.4 (+30%) 11.2 (+8%) |
| // |
| // (*) Software SHA256 results are of lesser relevance, presented |
| // mostly for informational purposes. |
| // (**) The result is a trade-off: it's possible to improve it by |
| // 10% (or by 1 cycle per round), but at the cost of 20% loss |
| // on Cortex-A53 (or by 4 cycles per round). |
| // (***) Super-impressive coefficients over gcc-generated code are |
| // indication of some compiler "pathology", most notably code |
| // generated with -mgeneral-regs-only is significantly faster |
| // and the gap is only 40-90%. |
| |
| #ifndef __KERNEL__ |
| # include <openssl/arm_arch.h> |
| #endif |
| |
| .text |
| |
| |
| .hidden OPENSSL_armcap_P |
| .globl sha256_block_data_order |
| .hidden sha256_block_data_order |
| .type sha256_block_data_order,%function |
| .align 6 |
| sha256_block_data_order: |
| AARCH64_VALID_CALL_TARGET |
| #ifndef __KERNEL__ |
| #if __has_feature(hwaddress_sanitizer) && __clang_major__ >= 10 |
| adrp x16,:pg_hi21_nc:OPENSSL_armcap_P |
| #else |
| adrp x16,OPENSSL_armcap_P |
| #endif |
| ldr w16,[x16,:lo12:OPENSSL_armcap_P] |
| tst w16,#ARMV8_SHA256 |
| b.ne .Lv8_entry |
| #endif |
| AARCH64_SIGN_LINK_REGISTER |
| stp x29,x30,[sp,#-128]! |
| add x29,sp,#0 |
| |
| stp x19,x20,[sp,#16] |
| stp x21,x22,[sp,#32] |
| stp x23,x24,[sp,#48] |
| stp x25,x26,[sp,#64] |
| stp x27,x28,[sp,#80] |
| sub sp,sp,#4*4 |
| |
| ldp w20,w21,[x0] // load context |
| ldp w22,w23,[x0,#2*4] |
| ldp w24,w25,[x0,#4*4] |
| add x2,x1,x2,lsl#6 // end of input |
| ldp w26,w27,[x0,#6*4] |
| adrp x30,.LK256 |
| add x30,x30,:lo12:.LK256 |
| stp x0,x2,[x29,#96] |
| |
| .Loop: |
| ldp w3,w4,[x1],#2*4 |
| ldr w19,[x30],#4 // *K++ |
| eor w28,w21,w22 // magic seed |
| str x1,[x29,#112] |
| #ifndef __AARCH64EB__ |
| rev w3,w3 // 0 |
| #endif |
| ror w16,w24,#6 |
| add w27,w27,w19 // h+=K[i] |
| eor w6,w24,w24,ror#14 |
| and w17,w25,w24 |
| bic w19,w26,w24 |
| add w27,w27,w3 // h+=X[i] |
| orr w17,w17,w19 // Ch(e,f,g) |
| eor w19,w20,w21 // a^b, b^c in next round |
| eor w16,w16,w6,ror#11 // Sigma1(e) |
| ror w6,w20,#2 |
| add w27,w27,w17 // h+=Ch(e,f,g) |
| eor w17,w20,w20,ror#9 |
| add w27,w27,w16 // h+=Sigma1(e) |
| and w28,w28,w19 // (b^c)&=(a^b) |
| add w23,w23,w27 // d+=h |
| eor w28,w28,w21 // Maj(a,b,c) |
| eor w17,w6,w17,ror#13 // Sigma0(a) |
| add w27,w27,w28 // h+=Maj(a,b,c) |
| ldr w28,[x30],#4 // *K++, w19 in next round |
| //add w27,w27,w17 // h+=Sigma0(a) |
| #ifndef __AARCH64EB__ |
| rev w4,w4 // 1 |
| #endif |
| ldp w5,w6,[x1],#2*4 |
| add w27,w27,w17 // h+=Sigma0(a) |
| ror w16,w23,#6 |
| add w26,w26,w28 // h+=K[i] |
| eor w7,w23,w23,ror#14 |
| and w17,w24,w23 |
| bic w28,w25,w23 |
| add w26,w26,w4 // h+=X[i] |
| orr w17,w17,w28 // Ch(e,f,g) |
| eor w28,w27,w20 // a^b, b^c in next round |
| eor w16,w16,w7,ror#11 // Sigma1(e) |
| ror w7,w27,#2 |
| add w26,w26,w17 // h+=Ch(e,f,g) |
| eor w17,w27,w27,ror#9 |
| add w26,w26,w16 // h+=Sigma1(e) |
| and w19,w19,w28 // (b^c)&=(a^b) |
| add w22,w22,w26 // d+=h |
| eor w19,w19,w20 // Maj(a,b,c) |
| eor w17,w7,w17,ror#13 // Sigma0(a) |
| add w26,w26,w19 // h+=Maj(a,b,c) |
| ldr w19,[x30],#4 // *K++, w28 in next round |
| //add w26,w26,w17 // h+=Sigma0(a) |
| #ifndef __AARCH64EB__ |
| rev w5,w5 // 2 |
| #endif |
| add w26,w26,w17 // h+=Sigma0(a) |
| ror w16,w22,#6 |
| add w25,w25,w19 // h+=K[i] |
| eor w8,w22,w22,ror#14 |
| and w17,w23,w22 |
| bic w19,w24,w22 |
| add w25,w25,w5 // h+=X[i] |
| orr w17,w17,w19 // Ch(e,f,g) |
| eor w19,w26,w27 // a^b, b^c in next round |
| eor w16,w16,w8,ror#11 // Sigma1(e) |
| ror w8,w26,#2 |
| add w25,w25,w17 // h+=Ch(e,f,g) |
| eor w17,w26,w26,ror#9 |
| add w25,w25,w16 // h+=Sigma1(e) |
| and w28,w28,w19 // (b^c)&=(a^b) |
| add w21,w21,w25 // d+=h |
| eor w28,w28,w27 // Maj(a,b,c) |
| eor w17,w8,w17,ror#13 // Sigma0(a) |
| add w25,w25,w28 // h+=Maj(a,b,c) |
| ldr w28,[x30],#4 // *K++, w19 in next round |
| //add w25,w25,w17 // h+=Sigma0(a) |
| #ifndef __AARCH64EB__ |
| rev w6,w6 // 3 |
| #endif |
| ldp w7,w8,[x1],#2*4 |
| add w25,w25,w17 // h+=Sigma0(a) |
| ror w16,w21,#6 |
| add w24,w24,w28 // h+=K[i] |
| eor w9,w21,w21,ror#14 |
| and w17,w22,w21 |
| bic w28,w23,w21 |
| add w24,w24,w6 // h+=X[i] |
| orr w17,w17,w28 // Ch(e,f,g) |
| eor w28,w25,w26 // a^b, b^c in next round |
| eor w16,w16,w9,ror#11 // Sigma1(e) |
| ror w9,w25,#2 |
| add w24,w24,w17 // h+=Ch(e,f,g) |
| eor w17,w25,w25,ror#9 |
| add w24,w24,w16 // h+=Sigma1(e) |
| and w19,w19,w28 // (b^c)&=(a^b) |
| add w20,w20,w24 // d+=h |
| eor w19,w19,w26 // Maj(a,b,c) |
| eor w17,w9,w17,ror#13 // Sigma0(a) |
| add w24,w24,w19 // h+=Maj(a,b,c) |
| ldr w19,[x30],#4 // *K++, w28 in next round |
| //add w24,w24,w17 // h+=Sigma0(a) |
| #ifndef __AARCH64EB__ |
| rev w7,w7 // 4 |
| #endif |
| add w24,w24,w17 // h+=Sigma0(a) |
| ror w16,w20,#6 |
| add w23,w23,w19 // h+=K[i] |
| eor w10,w20,w20,ror#14 |
| and w17,w21,w20 |
| bic w19,w22,w20 |
| add w23,w23,w7 // h+=X[i] |
| orr w17,w17,w19 // Ch(e,f,g) |
| eor w19,w24,w25 // a^b, b^c in next round |
| eor w16,w16,w10,ror#11 // Sigma1(e) |
| ror w10,w24,#2 |
| add w23,w23,w17 // h+=Ch(e,f,g) |
| eor w17,w24,w24,ror#9 |
| add w23,w23,w16 // h+=Sigma1(e) |
| and w28,w28,w19 // (b^c)&=(a^b) |
| add w27,w27,w23 // d+=h |
| eor w28,w28,w25 // Maj(a,b,c) |
| eor w17,w10,w17,ror#13 // Sigma0(a) |
| add w23,w23,w28 // h+=Maj(a,b,c) |
| ldr w28,[x30],#4 // *K++, w19 in next round |
| //add w23,w23,w17 // h+=Sigma0(a) |
| #ifndef __AARCH64EB__ |
| rev w8,w8 // 5 |
| #endif |
| ldp w9,w10,[x1],#2*4 |
| add w23,w23,w17 // h+=Sigma0(a) |
| ror w16,w27,#6 |
| add w22,w22,w28 // h+=K[i] |
| eor w11,w27,w27,ror#14 |
| and w17,w20,w27 |
| bic w28,w21,w27 |
| add w22,w22,w8 // h+=X[i] |
| orr w17,w17,w28 // Ch(e,f,g) |
| eor w28,w23,w24 // a^b, b^c in next round |
| eor w16,w16,w11,ror#11 // Sigma1(e) |
| ror w11,w23,#2 |
| add w22,w22,w17 // h+=Ch(e,f,g) |
| eor w17,w23,w23,ror#9 |
| add w22,w22,w16 // h+=Sigma1(e) |
| and w19,w19,w28 // (b^c)&=(a^b) |
| add w26,w26,w22 // d+=h |
| eor w19,w19,w24 // Maj(a,b,c) |
| eor w17,w11,w17,ror#13 // Sigma0(a) |
| add w22,w22,w19 // h+=Maj(a,b,c) |
| ldr w19,[x30],#4 // *K++, w28 in next round |
| //add w22,w22,w17 // h+=Sigma0(a) |
| #ifndef __AARCH64EB__ |
| rev w9,w9 // 6 |
| #endif |
| add w22,w22,w17 // h+=Sigma0(a) |
| ror w16,w26,#6 |
| add w21,w21,w19 // h+=K[i] |
| eor w12,w26,w26,ror#14 |
| and w17,w27,w26 |
| bic w19,w20,w26 |
| add w21,w21,w9 // h+=X[i] |
| orr w17,w17,w19 // Ch(e,f,g) |
| eor w19,w22,w23 // a^b, b^c in next round |
| eor w16,w16,w12,ror#11 // Sigma1(e) |
| ror w12,w22,#2 |
| add w21,w21,w17 // h+=Ch(e,f,g) |
| eor w17,w22,w22,ror#9 |
| add w21,w21,w16 // h+=Sigma1(e) |
| and w28,w28,w19 // (b^c)&=(a^b) |
| add w25,w25,w21 // d+=h |
| eor w28,w28,w23 // Maj(a,b,c) |
| eor w17,w12,w17,ror#13 // Sigma0(a) |
| add w21,w21,w28 // h+=Maj(a,b,c) |
| ldr w28,[x30],#4 // *K++, w19 in next round |
| //add w21,w21,w17 // h+=Sigma0(a) |
| #ifndef __AARCH64EB__ |
| rev w10,w10 // 7 |
| #endif |
| ldp w11,w12,[x1],#2*4 |
| add w21,w21,w17 // h+=Sigma0(a) |
| ror w16,w25,#6 |
| add w20,w20,w28 // h+=K[i] |
| eor w13,w25,w25,ror#14 |
| and w17,w26,w25 |
| bic w28,w27,w25 |
| add w20,w20,w10 // h+=X[i] |
| orr w17,w17,w28 // Ch(e,f,g) |
| eor w28,w21,w22 // a^b, b^c in next round |
| eor w16,w16,w13,ror#11 // Sigma1(e) |
| ror w13,w21,#2 |
| add w20,w20,w17 // h+=Ch(e,f,g) |
| eor w17,w21,w21,ror#9 |
| add w20,w20,w16 // h+=Sigma1(e) |
| and w19,w19,w28 // (b^c)&=(a^b) |
| add w24,w24,w20 // d+=h |
| eor w19,w19,w22 // Maj(a,b,c) |
| eor w17,w13,w17,ror#13 // Sigma0(a) |
| add w20,w20,w19 // h+=Maj(a,b,c) |
| ldr w19,[x30],#4 // *K++, w28 in next round |
| //add w20,w20,w17 // h+=Sigma0(a) |
| #ifndef __AARCH64EB__ |
| rev w11,w11 // 8 |
| #endif |
| add w20,w20,w17 // h+=Sigma0(a) |
| ror w16,w24,#6 |
| add w27,w27,w19 // h+=K[i] |
| eor w14,w24,w24,ror#14 |
| and w17,w25,w24 |
| bic w19,w26,w24 |
| add w27,w27,w11 // h+=X[i] |
| orr w17,w17,w19 // Ch(e,f,g) |
| eor w19,w20,w21 // a^b, b^c in next round |
| eor w16,w16,w14,ror#11 // Sigma1(e) |
| ror w14,w20,#2 |
| add w27,w27,w17 // h+=Ch(e,f,g) |
| eor w17,w20,w20,ror#9 |
| add w27,w27,w16 // h+=Sigma1(e) |
| and w28,w28,w19 // (b^c)&=(a^b) |
| add w23,w23,w27 // d+=h |
| eor w28,w28,w21 // Maj(a,b,c) |
| eor w17,w14,w17,ror#13 // Sigma0(a) |
| add w27,w27,w28 // h+=Maj(a,b,c) |
| ldr w28,[x30],#4 // *K++, w19 in next round |
| //add w27,w27,w17 // h+=Sigma0(a) |
| #ifndef __AARCH64EB__ |
| rev w12,w12 // 9 |
| #endif |
| ldp w13,w14,[x1],#2*4 |
| add w27,w27,w17 // h+=Sigma0(a) |
| ror w16,w23,#6 |
| add w26,w26,w28 // h+=K[i] |
| eor w15,w23,w23,ror#14 |
| and w17,w24,w23 |
| bic w28,w25,w23 |
| add w26,w26,w12 // h+=X[i] |
| orr w17,w17,w28 // Ch(e,f,g) |
| eor w28,w27,w20 // a^b, b^c in next round |
| eor w16,w16,w15,ror#11 // Sigma1(e) |
| ror w15,w27,#2 |
| add w26,w26,w17 // h+=Ch(e,f,g) |
| eor w17,w27,w27,ror#9 |
| add w26,w26,w16 // h+=Sigma1(e) |
| and w19,w19,w28 // (b^c)&=(a^b) |
| add w22,w22,w26 // d+=h |
| eor w19,w19,w20 // Maj(a,b,c) |
| eor w17,w15,w17,ror#13 // Sigma0(a) |
| add w26,w26,w19 // h+=Maj(a,b,c) |
| ldr w19,[x30],#4 // *K++, w28 in next round |
| //add w26,w26,w17 // h+=Sigma0(a) |
| #ifndef __AARCH64EB__ |
| rev w13,w13 // 10 |
| #endif |
| add w26,w26,w17 // h+=Sigma0(a) |
| ror w16,w22,#6 |
| add w25,w25,w19 // h+=K[i] |
| eor w0,w22,w22,ror#14 |
| and w17,w23,w22 |
| bic w19,w24,w22 |
| add w25,w25,w13 // h+=X[i] |
| orr w17,w17,w19 // Ch(e,f,g) |
| eor w19,w26,w27 // a^b, b^c in next round |
| eor w16,w16,w0,ror#11 // Sigma1(e) |
| ror w0,w26,#2 |
| add w25,w25,w17 // h+=Ch(e,f,g) |
| eor w17,w26,w26,ror#9 |
| add w25,w25,w16 // h+=Sigma1(e) |
| and w28,w28,w19 // (b^c)&=(a^b) |
| add w21,w21,w25 // d+=h |
| eor w28,w28,w27 // Maj(a,b,c) |
| eor w17,w0,w17,ror#13 // Sigma0(a) |
| add w25,w25,w28 // h+=Maj(a,b,c) |
| ldr w28,[x30],#4 // *K++, w19 in next round |
| //add w25,w25,w17 // h+=Sigma0(a) |
| #ifndef __AARCH64EB__ |
| rev w14,w14 // 11 |
| #endif |
| ldp w15,w0,[x1],#2*4 |
| add w25,w25,w17 // h+=Sigma0(a) |
| str w6,[sp,#12] |
| ror w16,w21,#6 |
| add w24,w24,w28 // h+=K[i] |
| eor w6,w21,w21,ror#14 |
| and w17,w22,w21 |
| bic w28,w23,w21 |
| add w24,w24,w14 // h+=X[i] |
| orr w17,w17,w28 // Ch(e,f,g) |
| eor w28,w25,w26 // a^b, b^c in next round |
| eor w16,w16,w6,ror#11 // Sigma1(e) |
| ror w6,w25,#2 |
| add w24,w24,w17 // h+=Ch(e,f,g) |
| eor w17,w25,w25,ror#9 |
| add w24,w24,w16 // h+=Sigma1(e) |
| and w19,w19,w28 // (b^c)&=(a^b) |
| add w20,w20,w24 // d+=h |
| eor w19,w19,w26 // Maj(a,b,c) |
| eor w17,w6,w17,ror#13 // Sigma0(a) |
| add w24,w24,w19 // h+=Maj(a,b,c) |
| ldr w19,[x30],#4 // *K++, w28 in next round |
| //add w24,w24,w17 // h+=Sigma0(a) |
| #ifndef __AARCH64EB__ |
| rev w15,w15 // 12 |
| #endif |
| add w24,w24,w17 // h+=Sigma0(a) |
| str w7,[sp,#0] |
| ror w16,w20,#6 |
| add w23,w23,w19 // h+=K[i] |
| eor w7,w20,w20,ror#14 |
| and w17,w21,w20 |
| bic w19,w22,w20 |
| add w23,w23,w15 // h+=X[i] |
| orr w17,w17,w19 // Ch(e,f,g) |
| eor w19,w24,w25 // a^b, b^c in next round |
| eor w16,w16,w7,ror#11 // Sigma1(e) |
| ror w7,w24,#2 |
| add w23,w23,w17 // h+=Ch(e,f,g) |
| eor w17,w24,w24,ror#9 |
| add w23,w23,w16 // h+=Sigma1(e) |
| and w28,w28,w19 // (b^c)&=(a^b) |
| add w27,w27,w23 // d+=h |
| eor w28,w28,w25 // Maj(a,b,c) |
| eor w17,w7,w17,ror#13 // Sigma0(a) |
| add w23,w23,w28 // h+=Maj(a,b,c) |
| ldr w28,[x30],#4 // *K++, w19 in next round |
| //add w23,w23,w17 // h+=Sigma0(a) |
| #ifndef __AARCH64EB__ |
| rev w0,w0 // 13 |
| #endif |
| ldp w1,w2,[x1] |
| add w23,w23,w17 // h+=Sigma0(a) |
| str w8,[sp,#4] |
| ror w16,w27,#6 |
| add w22,w22,w28 // h+=K[i] |
| eor w8,w27,w27,ror#14 |
| and w17,w20,w27 |
| bic w28,w21,w27 |
| add w22,w22,w0 // h+=X[i] |
| orr w17,w17,w28 // Ch(e,f,g) |
| eor w28,w23,w24 // a^b, b^c in next round |
| eor w16,w16,w8,ror#11 // Sigma1(e) |
| ror w8,w23,#2 |
| add w22,w22,w17 // h+=Ch(e,f,g) |
| eor w17,w23,w23,ror#9 |
| add w22,w22,w16 // h+=Sigma1(e) |
| and w19,w19,w28 // (b^c)&=(a^b) |
| add w26,w26,w22 // d+=h |
| eor w19,w19,w24 // Maj(a,b,c) |
| eor w17,w8,w17,ror#13 // Sigma0(a) |
| add w22,w22,w19 // h+=Maj(a,b,c) |
| ldr w19,[x30],#4 // *K++, w28 in next round |
| //add w22,w22,w17 // h+=Sigma0(a) |
| #ifndef __AARCH64EB__ |
| rev w1,w1 // 14 |
| #endif |
| ldr w6,[sp,#12] |
| add w22,w22,w17 // h+=Sigma0(a) |
| str w9,[sp,#8] |
| ror w16,w26,#6 |
| add w21,w21,w19 // h+=K[i] |
| eor w9,w26,w26,ror#14 |
| and w17,w27,w26 |
| bic w19,w20,w26 |
| add w21,w21,w1 // h+=X[i] |
| orr w17,w17,w19 // Ch(e,f,g) |
| eor w19,w22,w23 // a^b, b^c in next round |
| eor w16,w16,w9,ror#11 // Sigma1(e) |
| ror w9,w22,#2 |
| add w21,w21,w17 // h+=Ch(e,f,g) |
| eor w17,w22,w22,ror#9 |
| add w21,w21,w16 // h+=Sigma1(e) |
| and w28,w28,w19 // (b^c)&=(a^b) |
| add w25,w25,w21 // d+=h |
| eor w28,w28,w23 // Maj(a,b,c) |
| eor w17,w9,w17,ror#13 // Sigma0(a) |
| add w21,w21,w28 // h+=Maj(a,b,c) |
| ldr w28,[x30],#4 // *K++, w19 in next round |
| //add w21,w21,w17 // h+=Sigma0(a) |
| #ifndef __AARCH64EB__ |
| rev w2,w2 // 15 |
| #endif |
| ldr w7,[sp,#0] |
| add w21,w21,w17 // h+=Sigma0(a) |
| str w10,[sp,#12] |
| ror w16,w25,#6 |
| add w20,w20,w28 // h+=K[i] |
| ror w9,w4,#7 |
| and w17,w26,w25 |
| ror w8,w1,#17 |
| bic w28,w27,w25 |
| ror w10,w21,#2 |
| add w20,w20,w2 // h+=X[i] |
| eor w16,w16,w25,ror#11 |
| eor w9,w9,w4,ror#18 |
| orr w17,w17,w28 // Ch(e,f,g) |
| eor w28,w21,w22 // a^b, b^c in next round |
| eor w16,w16,w25,ror#25 // Sigma1(e) |
| eor w10,w10,w21,ror#13 |
| add w20,w20,w17 // h+=Ch(e,f,g) |
| and w19,w19,w28 // (b^c)&=(a^b) |
| eor w8,w8,w1,ror#19 |
| eor w9,w9,w4,lsr#3 // sigma0(X[i+1]) |
| add w20,w20,w16 // h+=Sigma1(e) |
| eor w19,w19,w22 // Maj(a,b,c) |
| eor w17,w10,w21,ror#22 // Sigma0(a) |
| eor w8,w8,w1,lsr#10 // sigma1(X[i+14]) |
| add w3,w3,w12 |
| add w24,w24,w20 // d+=h |
| add w20,w20,w19 // h+=Maj(a,b,c) |
| ldr w19,[x30],#4 // *K++, w28 in next round |
| add w3,w3,w9 |
| add w20,w20,w17 // h+=Sigma0(a) |
| add w3,w3,w8 |
| .Loop_16_xx: |
| ldr w8,[sp,#4] |
| str w11,[sp,#0] |
| ror w16,w24,#6 |
| add w27,w27,w19 // h+=K[i] |
| ror w10,w5,#7 |
| and w17,w25,w24 |
| ror w9,w2,#17 |
| bic w19,w26,w24 |
| ror w11,w20,#2 |
| add w27,w27,w3 // h+=X[i] |
| eor w16,w16,w24,ror#11 |
| eor w10,w10,w5,ror#18 |
| orr w17,w17,w19 // Ch(e,f,g) |
| eor w19,w20,w21 // a^b, b^c in next round |
| eor w16,w16,w24,ror#25 // Sigma1(e) |
| eor w11,w11,w20,ror#13 |
| add w27,w27,w17 // h+=Ch(e,f,g) |
| and w28,w28,w19 // (b^c)&=(a^b) |
| eor w9,w9,w2,ror#19 |
| eor w10,w10,w5,lsr#3 // sigma0(X[i+1]) |
| add w27,w27,w16 // h+=Sigma1(e) |
| eor w28,w28,w21 // Maj(a,b,c) |
| eor w17,w11,w20,ror#22 // Sigma0(a) |
| eor w9,w9,w2,lsr#10 // sigma1(X[i+14]) |
| add w4,w4,w13 |
| add w23,w23,w27 // d+=h |
| add w27,w27,w28 // h+=Maj(a,b,c) |
| ldr w28,[x30],#4 // *K++, w19 in next round |
| add w4,w4,w10 |
| add w27,w27,w17 // h+=Sigma0(a) |
| add w4,w4,w9 |
| ldr w9,[sp,#8] |
| str w12,[sp,#4] |
| ror w16,w23,#6 |
| add w26,w26,w28 // h+=K[i] |
| ror w11,w6,#7 |
| and w17,w24,w23 |
| ror w10,w3,#17 |
| bic w28,w25,w23 |
| ror w12,w27,#2 |
| add w26,w26,w4 // h+=X[i] |
| eor w16,w16,w23,ror#11 |
| eor w11,w11,w6,ror#18 |
| orr w17,w17,w28 // Ch(e,f,g) |
| eor w28,w27,w20 // a^b, b^c in next round |
| eor w16,w16,w23,ror#25 // Sigma1(e) |
| eor w12,w12,w27,ror#13 |
| add w26,w26,w17 // h+=Ch(e,f,g) |
| and w19,w19,w28 // (b^c)&=(a^b) |
| eor w10,w10,w3,ror#19 |
| eor w11,w11,w6,lsr#3 // sigma0(X[i+1]) |
| add w26,w26,w16 // h+=Sigma1(e) |
| eor w19,w19,w20 // Maj(a,b,c) |
| eor w17,w12,w27,ror#22 // Sigma0(a) |
| eor w10,w10,w3,lsr#10 // sigma1(X[i+14]) |
| add w5,w5,w14 |
| add w22,w22,w26 // d+=h |
| add w26,w26,w19 // h+=Maj(a,b,c) |
| ldr w19,[x30],#4 // *K++, w28 in next round |
| add w5,w5,w11 |
| add w26,w26,w17 // h+=Sigma0(a) |
| add w5,w5,w10 |
| ldr w10,[sp,#12] |
| str w13,[sp,#8] |
| ror w16,w22,#6 |
| add w25,w25,w19 // h+=K[i] |
| ror w12,w7,#7 |
| and w17,w23,w22 |
| ror w11,w4,#17 |
| bic w19,w24,w22 |
| ror w13,w26,#2 |
| add w25,w25,w5 // h+=X[i] |
| eor w16,w16,w22,ror#11 |
| eor w12,w12,w7,ror#18 |
| orr w17,w17,w19 // Ch(e,f,g) |
| eor w19,w26,w27 // a^b, b^c in next round |
| eor w16,w16,w22,ror#25 // Sigma1(e) |
| eor w13,w13,w26,ror#13 |
| add w25,w25,w17 // h+=Ch(e,f,g) |
| and w28,w28,w19 // (b^c)&=(a^b) |
| eor w11,w11,w4,ror#19 |
| eor w12,w12,w7,lsr#3 // sigma0(X[i+1]) |
| add w25,w25,w16 // h+=Sigma1(e) |
| eor w28,w28,w27 // Maj(a,b,c) |
| eor w17,w13,w26,ror#22 // Sigma0(a) |
| eor w11,w11,w4,lsr#10 // sigma1(X[i+14]) |
| add w6,w6,w15 |
| add w21,w21,w25 // d+=h |
| add w25,w25,w28 // h+=Maj(a,b,c) |
| ldr w28,[x30],#4 // *K++, w19 in next round |
| add w6,w6,w12 |
| add w25,w25,w17 // h+=Sigma0(a) |
| add w6,w6,w11 |
| ldr w11,[sp,#0] |
| str w14,[sp,#12] |
| ror w16,w21,#6 |
| add w24,w24,w28 // h+=K[i] |
| ror w13,w8,#7 |
| and w17,w22,w21 |
| ror w12,w5,#17 |
| bic w28,w23,w21 |
| ror w14,w25,#2 |
| add w24,w24,w6 // h+=X[i] |
| eor w16,w16,w21,ror#11 |
| eor w13,w13,w8,ror#18 |
| orr w17,w17,w28 // Ch(e,f,g) |
| eor w28,w25,w26 // a^b, b^c in next round |
| eor w16,w16,w21,ror#25 // Sigma1(e) |
| eor w14,w14,w25,ror#13 |
| add w24,w24,w17 // h+=Ch(e,f,g) |
| and w19,w19,w28 // (b^c)&=(a^b) |
| eor w12,w12,w5,ror#19 |
| eor w13,w13,w8,lsr#3 // sigma0(X[i+1]) |
| add w24,w24,w16 // h+=Sigma1(e) |
| eor w19,w19,w26 // Maj(a,b,c) |
| eor w17,w14,w25,ror#22 // Sigma0(a) |
| eor w12,w12,w5,lsr#10 // sigma1(X[i+14]) |
| add w7,w7,w0 |
| add w20,w20,w24 // d+=h |
| add w24,w24,w19 // h+=Maj(a,b,c) |
| ldr w19,[x30],#4 // *K++, w28 in next round |
| add w7,w7,w13 |
| add w24,w24,w17 // h+=Sigma0(a) |
| add w7,w7,w12 |
| ldr w12,[sp,#4] |
| str w15,[sp,#0] |
| ror w16,w20,#6 |
| add w23,w23,w19 // h+=K[i] |
| ror w14,w9,#7 |
| and w17,w21,w20 |
| ror w13,w6,#17 |
| bic w19,w22,w20 |
| ror w15,w24,#2 |
| add w23,w23,w7 // h+=X[i] |
| eor w16,w16,w20,ror#11 |
| eor w14,w14,w9,ror#18 |
| orr w17,w17,w19 // Ch(e,f,g) |
| eor w19,w24,w25 // a^b, b^c in next round |
| eor w16,w16,w20,ror#25 // Sigma1(e) |
| eor w15,w15,w24,ror#13 |
| add w23,w23,w17 // h+=Ch(e,f,g) |
| and w28,w28,w19 // (b^c)&=(a^b) |
| eor w13,w13,w6,ror#19 |
| eor w14,w14,w9,lsr#3 // sigma0(X[i+1]) |
| add w23,w23,w16 // h+=Sigma1(e) |
| eor w28,w28,w25 // Maj(a,b,c) |
| eor w17,w15,w24,ror#22 // Sigma0(a) |
| eor w13,w13,w6,lsr#10 // sigma1(X[i+14]) |
| add w8,w8,w1 |
| add w27,w27,w23 // d+=h |
| add w23,w23,w28 // h+=Maj(a,b,c) |
| ldr w28,[x30],#4 // *K++, w19 in next round |
| add w8,w8,w14 |
| add w23,w23,w17 // h+=Sigma0(a) |
| add w8,w8,w13 |
| ldr w13,[sp,#8] |
| str w0,[sp,#4] |
| ror w16,w27,#6 |
| add w22,w22,w28 // h+=K[i] |
| ror w15,w10,#7 |
| and w17,w20,w27 |
| ror w14,w7,#17 |
| bic w28,w21,w27 |
| ror w0,w23,#2 |
| add w22,w22,w8 // h+=X[i] |
| eor w16,w16,w27,ror#11 |
| eor w15,w15,w10,ror#18 |
| orr w17,w17,w28 // Ch(e,f,g) |
| eor w28,w23,w24 // a^b, b^c in next round |
| eor w16,w16,w27,ror#25 // Sigma1(e) |
| eor w0,w0,w23,ror#13 |
| add w22,w22,w17 // h+=Ch(e,f,g) |
| and w19,w19,w28 // (b^c)&=(a^b) |
| eor w14,w14,w7,ror#19 |
| eor w15,w15,w10,lsr#3 // sigma0(X[i+1]) |
| add w22,w22,w16 // h+=Sigma1(e) |
| eor w19,w19,w24 // Maj(a,b,c) |
| eor w17,w0,w23,ror#22 // Sigma0(a) |
| eor w14,w14,w7,lsr#10 // sigma1(X[i+14]) |
| add w9,w9,w2 |
| add w26,w26,w22 // d+=h |
| add w22,w22,w19 // h+=Maj(a,b,c) |
| ldr w19,[x30],#4 // *K++, w28 in next round |
| add w9,w9,w15 |
| add w22,w22,w17 // h+=Sigma0(a) |
| add w9,w9,w14 |
| ldr w14,[sp,#12] |
| str w1,[sp,#8] |
| ror w16,w26,#6 |
| add w21,w21,w19 // h+=K[i] |
| ror w0,w11,#7 |
| and w17,w27,w26 |
| ror w15,w8,#17 |
| bic w19,w20,w26 |
| ror w1,w22,#2 |
| add w21,w21,w9 // h+=X[i] |
| eor w16,w16,w26,ror#11 |
| eor w0,w0,w11,ror#18 |
| orr w17,w17,w19 // Ch(e,f,g) |
| eor w19,w22,w23 // a^b, b^c in next round |
| eor w16,w16,w26,ror#25 // Sigma1(e) |
| eor w1,w1,w22,ror#13 |
| add w21,w21,w17 // h+=Ch(e,f,g) |
| and w28,w28,w19 // (b^c)&=(a^b) |
| eor w15,w15,w8,ror#19 |
| eor w0,w0,w11,lsr#3 // sigma0(X[i+1]) |
| add w21,w21,w16 // h+=Sigma1(e) |
| eor w28,w28,w23 // Maj(a,b,c) |
| eor w17,w1,w22,ror#22 // Sigma0(a) |
| eor w15,w15,w8,lsr#10 // sigma1(X[i+14]) |
| add w10,w10,w3 |
| add w25,w25,w21 // d+=h |
| add w21,w21,w28 // h+=Maj(a,b,c) |
| ldr w28,[x30],#4 // *K++, w19 in next round |
| add w10,w10,w0 |
| add w21,w21,w17 // h+=Sigma0(a) |
| add w10,w10,w15 |
| ldr w15,[sp,#0] |
| str w2,[sp,#12] |
| ror w16,w25,#6 |
| add w20,w20,w28 // h+=K[i] |
| ror w1,w12,#7 |
| and w17,w26,w25 |
| ror w0,w9,#17 |
| bic w28,w27,w25 |
| ror w2,w21,#2 |
| add w20,w20,w10 // h+=X[i] |
| eor w16,w16,w25,ror#11 |
| eor w1,w1,w12,ror#18 |
| orr w17,w17,w28 // Ch(e,f,g) |
| eor w28,w21,w22 // a^b, b^c in next round |
| eor w16,w16,w25,ror#25 // Sigma1(e) |
| eor w2,w2,w21,ror#13 |
| add w20,w20,w17 // h+=Ch(e,f,g) |
| and w19,w19,w28 // (b^c)&=(a^b) |
| eor w0,w0,w9,ror#19 |
| eor w1,w1,w12,lsr#3 // sigma0(X[i+1]) |
| add w20,w20,w16 // h+=Sigma1(e) |
| eor w19,w19,w22 // Maj(a,b,c) |
| eor w17,w2,w21,ror#22 // Sigma0(a) |
| eor w0,w0,w9,lsr#10 // sigma1(X[i+14]) |
| add w11,w11,w4 |
| add w24,w24,w20 // d+=h |
| add w20,w20,w19 // h+=Maj(a,b,c) |
| ldr w19,[x30],#4 // *K++, w28 in next round |
| add w11,w11,w1 |
| add w20,w20,w17 // h+=Sigma0(a) |
| add w11,w11,w0 |
| ldr w0,[sp,#4] |
| str w3,[sp,#0] |
| ror w16,w24,#6 |
| add w27,w27,w19 // h+=K[i] |
| ror w2,w13,#7 |
| and w17,w25,w24 |
| ror w1,w10,#17 |
| bic w19,w26,w24 |
| ror w3,w20,#2 |
| add w27,w27,w11 // h+=X[i] |
| eor w16,w16,w24,ror#11 |
| eor w2,w2,w13,ror#18 |
| orr w17,w17,w19 // Ch(e,f,g) |
| eor w19,w20,w21 // a^b, b^c in next round |
| eor w16,w16,w24,ror#25 // Sigma1(e) |
| eor w3,w3,w20,ror#13 |
| add w27,w27,w17 // h+=Ch(e,f,g) |
| and w28,w28,w19 // (b^c)&=(a^b) |
| eor w1,w1,w10,ror#19 |
| eor w2,w2,w13,lsr#3 // sigma0(X[i+1]) |
| add w27,w27,w16 // h+=Sigma1(e) |
| eor w28,w28,w21 // Maj(a,b,c) |
| eor w17,w3,w20,ror#22 // Sigma0(a) |
| eor w1,w1,w10,lsr#10 // sigma1(X[i+14]) |
| add w12,w12,w5 |
| add w23,w23,w27 // d+=h |
| add w27,w27,w28 // h+=Maj(a,b,c) |
| ldr w28,[x30],#4 // *K++, w19 in next round |
| add w12,w12,w2 |
| add w27,w27,w17 // h+=Sigma0(a) |
| add w12,w12,w1 |
| ldr w1,[sp,#8] |
| str w4,[sp,#4] |
| ror w16,w23,#6 |
| add w26,w26,w28 // h+=K[i] |
| ror w3,w14,#7 |
| and w17,w24,w23 |
| ror w2,w11,#17 |
| bic w28,w25,w23 |
| ror w4,w27,#2 |
| add w26,w26,w12 // h+=X[i] |
| eor w16,w16,w23,ror#11 |
| eor w3,w3,w14,ror#18 |
| orr w17,w17,w28 // Ch(e,f,g) |
| eor w28,w27,w20 // a^b, b^c in next round |
| eor w16,w16,w23,ror#25 // Sigma1(e) |
| eor w4,w4,w27,ror#13 |
| add w26,w26,w17 // h+=Ch(e,f,g) |
| and w19,w19,w28 // (b^c)&=(a^b) |
| eor w2,w2,w11,ror#19 |
| eor w3,w3,w14,lsr#3 // sigma0(X[i+1]) |
| add w26,w26,w16 // h+=Sigma1(e) |
| eor w19,w19,w20 // Maj(a,b,c) |
| eor w17,w4,w27,ror#22 // Sigma0(a) |
| eor w2,w2,w11,lsr#10 // sigma1(X[i+14]) |
| add w13,w13,w6 |
| add w22,w22,w26 // d+=h |
| add w26,w26,w19 // h+=Maj(a,b,c) |
| ldr w19,[x30],#4 // *K++, w28 in next round |
| add w13,w13,w3 |
| add w26,w26,w17 // h+=Sigma0(a) |
| add w13,w13,w2 |
| ldr w2,[sp,#12] |
| str w5,[sp,#8] |
| ror w16,w22,#6 |
| add w25,w25,w19 // h+=K[i] |
| ror w4,w15,#7 |
| and w17,w23,w22 |
| ror w3,w12,#17 |
| bic w19,w24,w22 |
| ror w5,w26,#2 |
| add w25,w25,w13 // h+=X[i] |
| eor w16,w16,w22,ror#11 |
| eor w4,w4,w15,ror#18 |
| orr w17,w17,w19 // Ch(e,f,g) |
| eor w19,w26,w27 // a^b, b^c in next round |
| eor w16,w16,w22,ror#25 // Sigma1(e) |
| eor w5,w5,w26,ror#13 |
| add w25,w25,w17 // h+=Ch(e,f,g) |
| and w28,w28,w19 // (b^c)&=(a^b) |
| eor w3,w3,w12,ror#19 |
| eor w4,w4,w15,lsr#3 // sigma0(X[i+1]) |
| add w25,w25,w16 // h+=Sigma1(e) |
| eor w28,w28,w27 // Maj(a,b,c) |
| eor w17,w5,w26,ror#22 // Sigma0(a) |
| eor w3,w3,w12,lsr#10 // sigma1(X[i+14]) |
| add w14,w14,w7 |
| add w21,w21,w25 // d+=h |
| add w25,w25,w28 // h+=Maj(a,b,c) |
| ldr w28,[x30],#4 // *K++, w19 in next round |
| add w14,w14,w4 |
| add w25,w25,w17 // h+=Sigma0(a) |
| add w14,w14,w3 |
| ldr w3,[sp,#0] |
| str w6,[sp,#12] |
| ror w16,w21,#6 |
| add w24,w24,w28 // h+=K[i] |
| ror w5,w0,#7 |
| and w17,w22,w21 |
| ror w4,w13,#17 |
| bic w28,w23,w21 |
| ror w6,w25,#2 |
| add w24,w24,w14 // h+=X[i] |
| eor w16,w16,w21,ror#11 |
| eor w5,w5,w0,ror#18 |
| orr w17,w17,w28 // Ch(e,f,g) |
| eor w28,w25,w26 // a^b, b^c in next round |
| eor w16,w16,w21,ror#25 // Sigma1(e) |
| eor w6,w6,w25,ror#13 |
| add w24,w24,w17 // h+=Ch(e,f,g) |
| and w19,w19,w28 // (b^c)&=(a^b) |
| eor w4,w4,w13,ror#19 |
| eor w5,w5,w0,lsr#3 // sigma0(X[i+1]) |
| add w24,w24,w16 // h+=Sigma1(e) |
| eor w19,w19,w26 // Maj(a,b,c) |
| eor w17,w6,w25,ror#22 // Sigma0(a) |
| eor w4,w4,w13,lsr#10 // sigma1(X[i+14]) |
| add w15,w15,w8 |
| add w20,w20,w24 // d+=h |
| add w24,w24,w19 // h+=Maj(a,b,c) |
| ldr w19,[x30],#4 // *K++, w28 in next round |
| add w15,w15,w5 |
| add w24,w24,w17 // h+=Sigma0(a) |
| add w15,w15,w4 |
| ldr w4,[sp,#4] |
| str w7,[sp,#0] |
| ror w16,w20,#6 |
| add w23,w23,w19 // h+=K[i] |
| ror w6,w1,#7 |
| and w17,w21,w20 |
| ror w5,w14,#17 |
| bic w19,w22,w20 |
| ror w7,w24,#2 |
| add w23,w23,w15 // h+=X[i] |
| eor w16,w16,w20,ror#11 |
| eor w6,w6,w1,ror#18 |
| orr w17,w17,w19 // Ch(e,f,g) |
| eor w19,w24,w25 // a^b, b^c in next round |
| eor w16,w16,w20,ror#25 // Sigma1(e) |
| eor w7,w7,w24,ror#13 |
| add w23,w23,w17 // h+=Ch(e,f,g) |
| and w28,w28,w19 // (b^c)&=(a^b) |
| eor w5,w5,w14,ror#19 |
| eor w6,w6,w1,lsr#3 // sigma0(X[i+1]) |
| add w23,w23,w16 // h+=Sigma1(e) |
| eor w28,w28,w25 // Maj(a,b,c) |
| eor w17,w7,w24,ror#22 // Sigma0(a) |
| eor w5,w5,w14,lsr#10 // sigma1(X[i+14]) |
| add w0,w0,w9 |
| add w27,w27,w23 // d+=h |
| add w23,w23,w28 // h+=Maj(a,b,c) |
| ldr w28,[x30],#4 // *K++, w19 in next round |
| add w0,w0,w6 |
| add w23,w23,w17 // h+=Sigma0(a) |
| add w0,w0,w5 |
| ldr w5,[sp,#8] |
| str w8,[sp,#4] |
| ror w16,w27,#6 |
| add w22,w22,w28 // h+=K[i] |
| ror w7,w2,#7 |
| and w17,w20,w27 |
| ror w6,w15,#17 |
| bic w28,w21,w27 |
| ror w8,w23,#2 |
| add w22,w22,w0 // h+=X[i] |
| eor w16,w16,w27,ror#11 |
| eor w7,w7,w2,ror#18 |
| orr w17,w17,w28 // Ch(e,f,g) |
| eor w28,w23,w24 // a^b, b^c in next round |
| eor w16,w16,w27,ror#25 // Sigma1(e) |
| eor w8,w8,w23,ror#13 |
| add w22,w22,w17 // h+=Ch(e,f,g) |
| and w19,w19,w28 // (b^c)&=(a^b) |
| eor w6,w6,w15,ror#19 |
| eor w7,w7,w2,lsr#3 // sigma0(X[i+1]) |
| add w22,w22,w16 // h+=Sigma1(e) |
| eor w19,w19,w24 // Maj(a,b,c) |
| eor w17,w8,w23,ror#22 // Sigma0(a) |
| eor w6,w6,w15,lsr#10 // sigma1(X[i+14]) |
| add w1,w1,w10 |
| add w26,w26,w22 // d+=h |
| add w22,w22,w19 // h+=Maj(a,b,c) |
| ldr w19,[x30],#4 // *K++, w28 in next round |
| add w1,w1,w7 |
| add w22,w22,w17 // h+=Sigma0(a) |
| add w1,w1,w6 |
| ldr w6,[sp,#12] |
| str w9,[sp,#8] |
| ror w16,w26,#6 |
| add w21,w21,w19 // h+=K[i] |
| ror w8,w3,#7 |
| and w17,w27,w26 |
| ror w7,w0,#17 |
| bic w19,w20,w26 |
| ror w9,w22,#2 |
| add w21,w21,w1 // h+=X[i] |
| eor w16,w16,w26,ror#11 |
| eor w8,w8,w3,ror#18 |
| orr w17,w17,w19 // Ch(e,f,g) |
| eor w19,w22,w23 // a^b, b^c in next round |
| eor w16,w16,w26,ror#25 // Sigma1(e) |
| eor w9,w9,w22,ror#13 |
| add w21,w21,w17 // h+=Ch(e,f,g) |
| and w28,w28,w19 // (b^c)&=(a^b) |
| eor w7,w7,w0,ror#19 |
| eor w8,w8,w3,lsr#3 // sigma0(X[i+1]) |
| add w21,w21,w16 // h+=Sigma1(e) |
| eor w28,w28,w23 // Maj(a,b,c) |
| eor w17,w9,w22,ror#22 // Sigma0(a) |
| eor w7,w7,w0,lsr#10 // sigma1(X[i+14]) |
| add w2,w2,w11 |
| add w25,w25,w21 // d+=h |
| add w21,w21,w28 // h+=Maj(a,b,c) |
| ldr w28,[x30],#4 // *K++, w19 in next round |
| add w2,w2,w8 |
| add w21,w21,w17 // h+=Sigma0(a) |
| add w2,w2,w7 |
| ldr w7,[sp,#0] |
| str w10,[sp,#12] |
| ror w16,w25,#6 |
| add w20,w20,w28 // h+=K[i] |
| ror w9,w4,#7 |
| and w17,w26,w25 |
| ror w8,w1,#17 |
| bic w28,w27,w25 |
| ror w10,w21,#2 |
| add w20,w20,w2 // h+=X[i] |
| eor w16,w16,w25,ror#11 |
| eor w9,w9,w4,ror#18 |
| orr w17,w17,w28 // Ch(e,f,g) |
| eor w28,w21,w22 // a^b, b^c in next round |
| eor w16,w16,w25,ror#25 // Sigma1(e) |
| eor w10,w10,w21,ror#13 |
| add w20,w20,w17 // h+=Ch(e,f,g) |
| and w19,w19,w28 // (b^c)&=(a^b) |
| eor w8,w8,w1,ror#19 |
| eor w9,w9,w4,lsr#3 // sigma0(X[i+1]) |
| add w20,w20,w16 // h+=Sigma1(e) |
| eor w19,w19,w22 // Maj(a,b,c) |
| eor w17,w10,w21,ror#22 // Sigma0(a) |
| eor w8,w8,w1,lsr#10 // sigma1(X[i+14]) |
| add w3,w3,w12 |
| add w24,w24,w20 // d+=h |
| add w20,w20,w19 // h+=Maj(a,b,c) |
| ldr w19,[x30],#4 // *K++, w28 in next round |
| add w3,w3,w9 |
| add w20,w20,w17 // h+=Sigma0(a) |
| add w3,w3,w8 |
| cbnz w19,.Loop_16_xx |
| |
| ldp x0,x2,[x29,#96] |
| ldr x1,[x29,#112] |
| sub x30,x30,#260 // rewind |
| |
| ldp w3,w4,[x0] |
| ldp w5,w6,[x0,#2*4] |
| add x1,x1,#14*4 // advance input pointer |
| ldp w7,w8,[x0,#4*4] |
| add w20,w20,w3 |
| ldp w9,w10,[x0,#6*4] |
| add w21,w21,w4 |
| add w22,w22,w5 |
| add w23,w23,w6 |
| stp w20,w21,[x0] |
| add w24,w24,w7 |
| add w25,w25,w8 |
| stp w22,w23,[x0,#2*4] |
| add w26,w26,w9 |
| add w27,w27,w10 |
| cmp x1,x2 |
| stp w24,w25,[x0,#4*4] |
| stp w26,w27,[x0,#6*4] |
| b.ne .Loop |
| |
| ldp x19,x20,[x29,#16] |
| add sp,sp,#4*4 |
| ldp x21,x22,[x29,#32] |
| ldp x23,x24,[x29,#48] |
| ldp x25,x26,[x29,#64] |
| ldp x27,x28,[x29,#80] |
| ldp x29,x30,[sp],#128 |
| AARCH64_VALIDATE_LINK_REGISTER |
| ret |
| .size sha256_block_data_order,.-sha256_block_data_order |
| |
| .section .rodata |
| .align 6 |
| .type .LK256,%object |
| .LK256: |
| .long 0x428a2f98,0x71374491,0xb5c0fbcf,0xe9b5dba5 |
| .long 0x3956c25b,0x59f111f1,0x923f82a4,0xab1c5ed5 |
| .long 0xd807aa98,0x12835b01,0x243185be,0x550c7dc3 |
| .long 0x72be5d74,0x80deb1fe,0x9bdc06a7,0xc19bf174 |
| .long 0xe49b69c1,0xefbe4786,0x0fc19dc6,0x240ca1cc |
| .long 0x2de92c6f,0x4a7484aa,0x5cb0a9dc,0x76f988da |
| .long 0x983e5152,0xa831c66d,0xb00327c8,0xbf597fc7 |
| .long 0xc6e00bf3,0xd5a79147,0x06ca6351,0x14292967 |
| .long 0x27b70a85,0x2e1b2138,0x4d2c6dfc,0x53380d13 |
| .long 0x650a7354,0x766a0abb,0x81c2c92e,0x92722c85 |
| .long 0xa2bfe8a1,0xa81a664b,0xc24b8b70,0xc76c51a3 |
| .long 0xd192e819,0xd6990624,0xf40e3585,0x106aa070 |
| .long 0x19a4c116,0x1e376c08,0x2748774c,0x34b0bcb5 |
| .long 0x391c0cb3,0x4ed8aa4a,0x5b9cca4f,0x682e6ff3 |
| .long 0x748f82ee,0x78a5636f,0x84c87814,0x8cc70208 |
| .long 0x90befffa,0xa4506ceb,0xbef9a3f7,0xc67178f2 |
| .long 0 //terminator |
| .size .LK256,.-.LK256 |
| .byte 83,72,65,50,53,54,32,98,108,111,99,107,32,116,114,97,110,115,102,111,114,109,32,102,111,114,32,65,82,77,118,56,44,32,67,82,89,80,84,79,71,65,77,83,32,98,121,32,60,97,112,112,114,111,64,111,112,101,110,115,115,108,46,111,114,103,62,0 |
| .align 2 |
| .align 2 |
| .text |
| #ifndef __KERNEL__ |
| .type sha256_block_armv8,%function |
| .align 6 |
| sha256_block_armv8: |
| .Lv8_entry: |
| // Armv8.3-A PAuth: even though x30 is pushed to stack it is not popped later. |
| stp x29,x30,[sp,#-16]! |
| add x29,sp,#0 |
| |
| ld1 {v0.4s,v1.4s},[x0] |
| adrp x3,.LK256 |
| add x3,x3,:lo12:.LK256 |
| |
| .Loop_hw: |
| ld1 {v4.16b,v5.16b,v6.16b,v7.16b},[x1],#64 |
| sub x2,x2,#1 |
| ld1 {v16.4s},[x3],#16 |
| rev32 v4.16b,v4.16b |
| rev32 v5.16b,v5.16b |
| rev32 v6.16b,v6.16b |
| rev32 v7.16b,v7.16b |
| orr v18.16b,v0.16b,v0.16b // offload |
| orr v19.16b,v1.16b,v1.16b |
| ld1 {v17.4s},[x3],#16 |
| add v16.4s,v16.4s,v4.4s |
| .inst 0x5e2828a4 //sha256su0 v4.16b,v5.16b |
| orr v2.16b,v0.16b,v0.16b |
| .inst 0x5e104020 //sha256h v0.16b,v1.16b,v16.4s |
| .inst 0x5e105041 //sha256h2 v1.16b,v2.16b,v16.4s |
| .inst 0x5e0760c4 //sha256su1 v4.16b,v6.16b,v7.16b |
| ld1 {v16.4s},[x3],#16 |
| add v17.4s,v17.4s,v5.4s |
| .inst 0x5e2828c5 //sha256su0 v5.16b,v6.16b |
| orr v2.16b,v0.16b,v0.16b |
| .inst 0x5e114020 //sha256h v0.16b,v1.16b,v17.4s |
| .inst 0x5e115041 //sha256h2 v1.16b,v2.16b,v17.4s |
| .inst 0x5e0460e5 //sha256su1 v5.16b,v7.16b,v4.16b |
| ld1 {v17.4s},[x3],#16 |
| add v16.4s,v16.4s,v6.4s |
| .inst 0x5e2828e6 //sha256su0 v6.16b,v7.16b |
| orr v2.16b,v0.16b,v0.16b |
| .inst 0x5e104020 //sha256h v0.16b,v1.16b,v16.4s |
| .inst 0x5e105041 //sha256h2 v1.16b,v2.16b,v16.4s |
| .inst 0x5e056086 //sha256su1 v6.16b,v4.16b,v5.16b |
| ld1 {v16.4s},[x3],#16 |
| add v17.4s,v17.4s,v7.4s |
| .inst 0x5e282887 //sha256su0 v7.16b,v4.16b |
| orr v2.16b,v0.16b,v0.16b |
| .inst 0x5e114020 //sha256h v0.16b,v1.16b,v17.4s |
| .inst 0x5e115041 //sha256h2 v1.16b,v2.16b,v17.4s |
| .inst 0x5e0660a7 //sha256su1 v7.16b,v5.16b,v6.16b |
| ld1 {v17.4s},[x3],#16 |
| add v16.4s,v16.4s,v4.4s |
| .inst 0x5e2828a4 //sha256su0 v4.16b,v5.16b |
| orr v2.16b,v0.16b,v0.16b |
| .inst 0x5e104020 //sha256h v0.16b,v1.16b,v16.4s |
| .inst 0x5e105041 //sha256h2 v1.16b,v2.16b,v16.4s |
| .inst 0x5e0760c4 //sha256su1 v4.16b,v6.16b,v7.16b |
| ld1 {v16.4s},[x3],#16 |
| add v17.4s,v17.4s,v5.4s |
| .inst 0x5e2828c5 //sha256su0 v5.16b,v6.16b |
| orr v2.16b,v0.16b,v0.16b |
| .inst 0x5e114020 //sha256h v0.16b,v1.16b,v17.4s |
| .inst 0x5e115041 //sha256h2 v1.16b,v2.16b,v17.4s |
| .inst 0x5e0460e5 //sha256su1 v5.16b,v7.16b,v4.16b |
| ld1 {v17.4s},[x3],#16 |
| add v16.4s,v16.4s,v6.4s |
| .inst 0x5e2828e6 //sha256su0 v6.16b,v7.16b |
| orr v2.16b,v0.16b,v0.16b |
| .inst 0x5e104020 //sha256h v0.16b,v1.16b,v16.4s |
| .inst 0x5e105041 //sha256h2 v1.16b,v2.16b,v16.4s |
| .inst 0x5e056086 //sha256su1 v6.16b,v4.16b,v5.16b |
| ld1 {v16.4s},[x3],#16 |
| add v17.4s,v17.4s,v7.4s |
| .inst 0x5e282887 //sha256su0 v7.16b,v4.16b |
| orr v2.16b,v0.16b,v0.16b |
| .inst 0x5e114020 //sha256h v0.16b,v1.16b,v17.4s |
| .inst 0x5e115041 //sha256h2 v1.16b,v2.16b,v17.4s |
| .inst 0x5e0660a7 //sha256su1 v7.16b,v5.16b,v6.16b |
| ld1 {v17.4s},[x3],#16 |
| add v16.4s,v16.4s,v4.4s |
| .inst 0x5e2828a4 //sha256su0 v4.16b,v5.16b |
| orr v2.16b,v0.16b,v0.16b |
| .inst 0x5e104020 //sha256h v0.16b,v1.16b,v16.4s |
| .inst 0x5e105041 //sha256h2 v1.16b,v2.16b,v16.4s |
| .inst 0x5e0760c4 //sha256su1 v4.16b,v6.16b,v7.16b |
| ld1 {v16.4s},[x3],#16 |
| add v17.4s,v17.4s,v5.4s |
| .inst 0x5e2828c5 //sha256su0 v5.16b,v6.16b |
| orr v2.16b,v0.16b,v0.16b |
| .inst 0x5e114020 //sha256h v0.16b,v1.16b,v17.4s |
| .inst 0x5e115041 //sha256h2 v1.16b,v2.16b,v17.4s |
| .inst 0x5e0460e5 //sha256su1 v5.16b,v7.16b,v4.16b |
| ld1 {v17.4s},[x3],#16 |
| add v16.4s,v16.4s,v6.4s |
| .inst 0x5e2828e6 //sha256su0 v6.16b,v7.16b |
| orr v2.16b,v0.16b,v0.16b |
| .inst 0x5e104020 //sha256h v0.16b,v1.16b,v16.4s |
| .inst 0x5e105041 //sha256h2 v1.16b,v2.16b,v16.4s |
| .inst 0x5e056086 //sha256su1 v6.16b,v4.16b,v5.16b |
| ld1 {v16.4s},[x3],#16 |
| add v17.4s,v17.4s,v7.4s |
| .inst 0x5e282887 //sha256su0 v7.16b,v4.16b |
| orr v2.16b,v0.16b,v0.16b |
| .inst 0x5e114020 //sha256h v0.16b,v1.16b,v17.4s |
| .inst 0x5e115041 //sha256h2 v1.16b,v2.16b,v17.4s |
| .inst 0x5e0660a7 //sha256su1 v7.16b,v5.16b,v6.16b |
| ld1 {v17.4s},[x3],#16 |
| add v16.4s,v16.4s,v4.4s |
| orr v2.16b,v0.16b,v0.16b |
| .inst 0x5e104020 //sha256h v0.16b,v1.16b,v16.4s |
| .inst 0x5e105041 //sha256h2 v1.16b,v2.16b,v16.4s |
| |
| ld1 {v16.4s},[x3],#16 |
| add v17.4s,v17.4s,v5.4s |
| orr v2.16b,v0.16b,v0.16b |
| .inst 0x5e114020 //sha256h v0.16b,v1.16b,v17.4s |
| .inst 0x5e115041 //sha256h2 v1.16b,v2.16b,v17.4s |
| |
| ld1 {v17.4s},[x3] |
| add v16.4s,v16.4s,v6.4s |
| sub x3,x3,#64*4-16 // rewind |
| orr v2.16b,v0.16b,v0.16b |
| .inst 0x5e104020 //sha256h v0.16b,v1.16b,v16.4s |
| .inst 0x5e105041 //sha256h2 v1.16b,v2.16b,v16.4s |
| |
| add v17.4s,v17.4s,v7.4s |
| orr v2.16b,v0.16b,v0.16b |
| .inst 0x5e114020 //sha256h v0.16b,v1.16b,v17.4s |
| .inst 0x5e115041 //sha256h2 v1.16b,v2.16b,v17.4s |
| |
| add v0.4s,v0.4s,v18.4s |
| add v1.4s,v1.4s,v19.4s |
| |
| cbnz x2,.Loop_hw |
| |
| st1 {v0.4s,v1.4s},[x0] |
| |
| ldr x29,[sp],#16 |
| ret |
| .size sha256_block_armv8,.-sha256_block_armv8 |
| #endif |
| #endif // !OPENSSL_NO_ASM && defined(__AARCH64EL__) && defined(__ELF__) |
| #if defined(__ELF__) |
| // See https://www.airs.com/blog/archives/518. |
| .section .note.GNU-stack,"",%progbits |
| #endif |