HSA的关键技术:hUMA
在过去,即便GPU和CPU已整合到同一个芯片上(GPGPU技术),芯片在运算时要定位存储的位置仍然得经过繁杂的步骤,这是因为CPU和GPU的数据储存区相互独立,当CPU程序需要在GPU上进行部分运算时,CPU必须将存储区上的所有的资料复制到GPU的存储上,而当GPU上的运算完成时,这些资料还要再复制回到CPU存储。这些步骤都会不断耗费时间以及降低程序处理的效率。
为了解决这个问题,HSA联盟公布了hUMA技术,透过hUMA,CPU和GPU能共享同一个存储空间,并且CPU能够直接存取GPU的存储位址,不必像过去得花工夫再将GPU的运算资料复写到CPU上,So easy~
UMA的诞生解决了系统中计算核心访问与读取内存的问题,在一个真正的UMA系统资源内,所有的计算核心都将共享一个单一的内存地址空间,并且CPU或GPU中任意一个处理单元做出的更新,对其他所有处理单元均可见。
除此之外透过hUMA GPU还可以支持分页内存管理,GPU可以产生缺页异常,不再受限于传统上的页表锁定内存,而且内存整体空间得到了有效利用,CPU和GPU进程可以从整个内存空间中动态分配内存,避免了以前硬性分配造成资源浪费的尴尬。
那么, HSA架构体系将为我们的生活带来哪些改变的可能性呢?
HSA的关键技术:hUMA
在过去,即便GPU和CPU已整合到同一个芯片上(GPGPU技术),芯片在运算时要定位存储的位置仍然得经过繁杂的步骤,这是因为CPU和GPU的数据储存区相互独立,当CPU程序需要在GPU上进行部分运算时,CPU必须将存储区上的所有的资料复制到GPU的存储上,而当GPU上的运算完成时,这些资料还要再复制回到CPU存储。这些步骤都会不断耗费时间以及降低程序处理的效率。
为了解决这个问题,HSA联盟公布了hUMA技术,透过hUMA,CPU和GPU能共享同一个存储空间,并且CPU能够直接存取GPU的存储位址,不必像过去得花工夫再将GPU的运算资料复写到CPU上,So easy~
UMA的诞生解决了系统中计算核心访问与读取内存的问题,在一个真正的UMA系统资源内,所有的计算核心都将共享一个单一的内存地址空间,并且CPU或GPU中任意一个处理单元做出的更新,对其他所有处理单元均可见。
除此之外透过hUMA GPU还可以支持分页内存管理,GPU可以产生缺页异常,不再受限于传统上的页表锁定内存,而且内存整体空间得到了有效利用,CPU和GPU进程可以从整个内存空间中动态分配内存,避免了以前硬性分配造成资源浪费的尴尬。
那么, HSA架构体系将为我们的生活带来哪些改变的可能性呢?
举报