大数据环境下SHA1的GPU高速实现
发布时间:2024-04-18 18:13
大数据时代,数据安全面临着巨大的挑战。由于网络通信和存储的数据规模急剧增加,大量的密码运算会影响系统的性能,如何快速地对数据进行密码运算是数据安全中的重点问题。SHA1是一种常见的密码杂凑算法,主要用于数字签名、文件的完整性检验等,广泛应用于互联网的各个方面。密码杂凑算法的运行时间是与文件大小成正比的,所以计算大文件的消息摘要十分耗时。为了进一步提升SHA1的性能,文章基于GPU技术,实现对密码杂凑算法SHA1的加速运算,运算速度达到791GB/s,相比于现有的加速方案性能有明显的提升。
【文章页数】:8 页
【部分图文】:
本文编号:3957559
【文章页数】:8 页
【部分图文】:
图1SHA1流程循环示例
计算SHA1过程会用到一些常量,具体如下:Kt=?0x5A827999(0≤t≤19),Kt=?0x6ED9EBA1(20≤t≤39),Kt=0x8F1BBCDC(40≤t≤59),Kt=0xCA62C1D6(60≤t≤79);H0=0x67452301,H1=0xEFCDA....
图2GTX980线程数对GPU性能的影响
因为本文是将整个算法流程放入一个线程中执行,并通过内存优化等手段对算法进行加速。为了充分利用GPU的资源,需要调整线程的数量。如果线程数量过少,会使流处理器处于空转状态,浪费资源;如果线程数量过多,会使一部分线程处于等待状态,可能会造成性能降低,所以将线程数量调整至最优状态是至关....
图3GTX1060线程数对GPU性能的影响
从图2和图3可以看出,两种GPU的性能增长趋势是类似的;当BlockSize和ThreadSize比较小时,性能与BlockSize和ThreadSize分别成线性关系;当BlockSize和ThreadSize较大时,性能增加较缓慢;当BlockSize和Thre....
本文编号:3957559
本文链接:https://www.wllwen.com/kejilunwen/jisuanjikexuelunwen/3957559.html