Ta上传的资源 (0)

本文首先分析了传统体系结构上带随机数MD5的破解算法,对算法中任务进行划分以便映射到主机和GPU上;然后使用OpenCL实现了基于GPU的异构平台上的破解算法;最后针对特定的GPU平台对破解程序进行了优化。

自从NvIDIA公司在1999年发布GeForce 256图形处理芯片时首先提出GPU(Graphic Processing Unit)的概念,GPU 长期以来一直充当着CPU“助手”的角色,大部分的数据处理由 CPU负责计算,而GPU仅仅是根据API指定的函数对这些数据进 行简单的加工,然后送到显
VR 23

1.在综述了当前高性能计算领域热门技术的基础上,选择GPU作为并行支持向量 机的实现工具。在GPU编程方法方面,选择了OpenCL作为具体的代码实现技术,并搭 建了GPU计算的实验平台和基于VisualStudio2010的OpenCL的开发环境。 2.介绍了支持向量机理论的基本原理及其数学模型,引

性能的提高一直是计算机研究人员孜孜不倦追求的目标。随着大规模集成电 路的发展,处理器的计算能力飞速提高。计算机性能提高的瓶颈由计算转变为存 储。存储性能是程序访存特征和特定的存储结构共同作用的结果。程序访存特征 的研究一直伴随着处理器的发展,为存储结构提供发展方向。 针对Cache结构不区分程序数据

随着超大规模集成电路技术的不断进步,单芯片上集成了越来越多的晶体管,目前已达到10亿的量级。然而,受到CMOS工艺特征尺寸的限制,芯片的主频在达到4GHz之后继续提升的空间有限,多核并行逐渐成为提升处理器计算性能,同时也是充分利用丰富的片上资源的主要技术途径。4-8核的通用CPU目前已成为市场主流,

OpenCL(OpenComputionLanguage)是一种全新的针对异构系统进行并行编程的应用程序接口(API),有效利用系统中的所有计算资源。OpenCL采用运行时动态编译的方式来执行程序,灵活高效。

工神经网络训练所包含的运算量随着网络中神经元的数量增多而加大,对于神经元较多的网络训练很耗时。提高人工神经网络训练速度的一个方法是对训练算法优化以减少计算量。由于人工神经网络训练算法包含大量的矩阵和向量运算,如果把优化的算法用运行在GPU上的OpenCLC语言实现,则训练速度相比传统基于CPU计算的

大规模科学计算对科学研究具有及其重要的意义,是计算机学科面临的重大任务。近年来,随着GPU硬件及其编程模型的快速发展,使用GPU来加速大规模科学计算应用己成为必然趋势。GPU擅长进行计算密集型操作,而且具有极高的性价比,非常适合高性能科学计算。然而,如何有效地把科学计算应用移植到GPU上运行仍是一个