专访清华大学邓仰东教授之 从GPU到GPGPU

2024-02-18 07:40

本文主要是介绍专访清华大学邓仰东教授之 从GPU到GPGPU,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

在一个阳光氤氲的周五下午,CSDN记者在清华大学的一间会议室里,见到了邓仰东老师。 邓仰东老师现任清华大学微电子系副教授,是最早开始使用GPU进行通用并行算法设计的研究人员之一。

图片描述

邓老师本科及硕士均毕业于清华大学,并取得卡内基梅隆大学的博士学位,师从Wojciech Maly,进行三维集成电路相关设计的研究。博士毕业后,邓老师加入Magma,一家位于硅谷的集成电路计算机辅助设计公司。2008年,邓老师回清华微电子系任教,作为NVIDIA合作教授,参与其大赛的评审工作,并在全国范围内开展了系列讲座。同年,邓教授在国内率先开设了GPU并行程序设计训练课程。著有《异构处理器OpenCL编程导论》。

为方便您的阅读,笔者将本次访谈内容分成如下几部分:
- 从GPU到GPGPU
- 打破国外对火车控制系统的垄断
- 贝叶斯计算机与三维集成电路

本文为第一篇,采取作者口述、笔者记录的形式。文中详细阐述了GPU的工作原理、将GPU用于通用计算、以及GPU行业的发展历程。


GPU的工作原理


GPU的起源可以追溯到个人电脑开始普及的80年代,此时用户开始有了游戏的需求。为了更好的用户体验,各游戏公司纷纷推出3D游戏。而图形渲染在3D游戏中起到至关重要的作用,因此GPU应运而生。GPU的产生是为了在计算机屏幕上更快地、显示更多的特效效果。

例如,在设计一个游戏人物的时候,我们希望他的肤色、头发能够尽可能的逼真。这样的效果在80年代的时候还做不到,那个时候显示效果还很粗糙。但是在最近的电影《魔幻森林》里面,除了主角小男孩是真实的,其余动物以及布景都是计算机生成的。

图片描述

可以说

这篇关于专访清华大学邓仰东教授之 从GPU到GPGPU的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/720491

相关文章

AI Toolkit + H100 GPU,一小时内微调最新热门文生图模型 FLUX

上个月,FLUX 席卷了互联网,这并非没有原因。他们声称优于 DALLE 3、Ideogram 和 Stable Diffusion 3 等模型,而这一点已被证明是有依据的。随着越来越多的流行图像生成工具(如 Stable Diffusion Web UI Forge 和 ComyUI)开始支持这些模型,FLUX 在 Stable Diffusion 领域的扩展将会持续下去。 自 FLU

如何用GPU算力卡P100玩黑神话悟空?

精力有限,只记录关键信息,希望未来能够有助于其他人。 文章目录 综述背景评估游戏性能需求显卡需求CPU和内存系统需求主机需求显式需求 实操硬件安装安装操作系统Win11安装驱动修改注册表选择程序使用什么GPU 安装黑神话悟空其他 综述 用P100 + PCIe Gen3.0 + Dell720服务器(32C64G),运行黑神话悟空画质中等流畅运行。 背景 假设有一张P100-

GPU 计算 CMPS224 2021 学习笔记 02

并行类型 (1)任务并行 (2)数据并行 CPU & GPU CPU和GPU拥有相互独立的内存空间,需要在两者之间相互传输数据。 (1)分配GPU内存 (2)将CPU上的数据复制到GPU上 (3)在GPU上对数据进行计算操作 (4)将计算结果从GPU复制到CPU上 (5)释放GPU内存 CUDA内存管理API (1)分配内存 cudaErro

PyInstaller问题解决 onnxruntime-gpu 使用GPU和CUDA加速模型推理

前言 在模型推理时,需要使用GPU加速,相关的CUDA和CUDNN安装好后,通过onnxruntime-gpu实现。 直接运行python程序是正常使用GPU的,如果使用PyInstaller将.py文件打包为.exe,发现只能使用CPU推理了。 本文分析这个问题和提供解决方案,供大家参考。 问题分析——找不到ONNX Runtime GPU 动态库 首先直接运行python程序

麒麟系统安装GPU驱动

1.nvidia 1.1显卡驱动 本机显卡型号:nvidia rtx 3090 1.1.1下载驱动 打开 https://www.nvidia.cn/geforce/drivers/ 也可以直接使用下面这个地址下载 https://www.nvidia.com/download/driverResults.aspx/205464/en-us/ 1.1.3安装驱动 右击,

Kubernetes的alpha.kubernetes.io/nvidia-gpu无法限制GPU个数

问题描述: Pod.yaml文件中关于GPU资源的设置如下: 然而在docker中运行GPU程序时,发现宿主机上的两块GPU都在跑。甚至在yaml文件中删除关于GPU的请求,在docker中都可以运行GPU。 原因: 上例说明alpha.kubernetes.io/nvidia-gpu无效。查看yaml文件,发现该docker开启了特权模式(privileged:ture): 而

GPU池化赋能智能制造

2023年3月10日,“第六届智能工厂高峰论坛”在杭州隆重揭幕。本次会议由e-works数字化企业网、浙江制信科技有限公司主办,中国人工智能学会智能制造专业委员会、长三角新能源汽车产业链联盟、长三角(杭州)制造业数字化能力中心、浙江省智能工厂操作系统技术创新中心协办。趋动科技作为钻石合作伙伴出席了本次峰会,与制造业精英企业以及行业专业人士共同分享制造业在智能工厂推进过程中的成功经验,探讨工厂改进中

【linux 常用命令】查看gpu、显卡常用命令

1.查看显卡基本信息 lspci | grep -i nvidia 2.查看显卡驱动版本 nvidia-smi -a 3.查看gpu使用情况 nvidia-smi (spam) [dongli@dt-gpu-1 train]$ nvidia-smi Fri Sep 27 16:42:33 2019 +----------------------------------------

图形API学习工程(12):讨论当前工程里同步CPU与GPU的方式

工程GIT地址:https://gitee.com/yaksue/yaksue-graphics 简单讨论CPU和GPU间的交互 《DX12龙书》在【4.2 CPU与GPU间的交互】章节中讨论了这个问题,简单来说: 为了最佳性能,CPU和GPU这两种处理器应该尽量同时工作,少“同步”。因为“同步”意味着一种处理器以空闲状态等待另一种处理器,即它破坏了“并行”。 但有时,又不得不进行二者的同步

pytorch gpu国内镜像下载,目前最快下载

前言         pytorch的cpu的包可以在国内镜像上下载,但是gpu版的包只能通过国外镜像下载,网上查了很多教程,基本都是手动从先将gpu版whl包下载下来,然后再手动安装,如何最快的通过pip的命令安装呢?下面我细细讲下。 解决办法        目前国内有pytorch的gpu版的whl包只有阿里云上的:https://mirrors.aliyun.com/pytorch-w