sycl专题

编译运行 llama.cpp (vulkan, Intel GPU SYCL)

llama.cpp 是一个运行 AI (神经网络) 语言大模型的推理程序, 支持多种 后端 (backend), 也就是不同的具体的运行方式, 比如 CPU 运行, GPU 运行等. 但是编译运行 llama.cpp 并不是那么容易的, 特别是对于 SYCL 后端 (用于 Intel GPU), 坑那是一大堆. 只有特定版本的 llama.cpp, 特定版本的 Linux 系统和 GPU 驱动程

latex编译 sycl-1.2.1.pdf

想看看sycl文档,发现这个文档是KhronosGroup/SYCL-Docs使用latex写的,说编译好了是一个pdf的文档。 我之前有安装过latex,这个安装教程网上还是很多的,我这里找了一篇Ubuntu18.04安装LaTeX并配置中文环境。 需要注意的是latex好像要下载很多模板,然后就是很大,有2个多G,这里提醒一下安装的时候准备足够大的硬盘。 由于终端原因,编译的时候报了几个