像ChatGPT这种AI助手都挺好用的,不过用户需要联网才能够访问它们。虽然本地部署LLM也是可以的,但是多半比较麻烦。而近日,NVIDIA推出了一种较为方便的本地部署AI助手的方式,名为Chat with RTX。
NVIDIA在官方博客中表示,Chat with RTX是一个技术演示应用,可以让用户以自己的内容定制一个聊天机器人。这个应用结合了检索增强生成、TensorRT-LLM和NVIDIA RTX加速技术。用户可以把PC上的本地文件作为数据集连接到开源的LLM如Mistral或Llama 2上,这样就能询问AI获得答案和相关的文件,而不必自己动手寻找。NVIDIA表示,Chat with RTX支持.txt,.pdf,.doc/docx,.xml等多种文件类型,只需要给出文件夹路径,AI就会在数秒内把它们加载到库中。