NVIDIA发布了能在本机GPU上运行的聊天机器人应用,更换显卡的理由又多了一条

生成式AI确实能极大提升人们的工作效率,特别是在文章编辑或者代码编辑方面,你只需要向AI提出相应的问题,生成式AI就能帮你自动生成所需要的文章内容、图像甚至是编程代码,老wu甚至觉得AI的编程能力比自己还厉害。

但目前AI的应用,主要还是依赖于云端的大模型,因为生成式AI需要强大的算力做支撑,关于生成式 AI,我们可能经常听到两个术语——基础模型(Foundation Model)和大语言模型(Large Language Mode)。基础模型是基于海量结构化和非结构化数据训练的机器学习模型,通过微调即可以用来执行更加具体的任务。大语言模型是基础模型的一个子集,主要用来理解和生成类人文字表达。这些模型更适用于如翻译、回答问题、总结信息、创建或者识别图片等场景。

过去一年,随着生成式AI技术的迅速发展,在AI算力方面,芯片巨头NVIDIA也在发挥着关键性的作用,为了推动生成式AI脱离云端依赖而直接在本机上运行,NVIDIA刚刚发布了一款聊天机器人的免费演示版–NVIDIA Chat with RTX,该聊天机器人可在电脑上本地运行,而无需连接到云端。NVIDIA是四大人工智能巨头中第一个发布专用于本地离线使用的免费聊天机器人的公司。

你可以向”NVIDIA Chat with RTX”提供一些私有数据,让它根据这些信息创建摘要。你还可以向它提问,就像其他聊天机器人一样,它也会从你的数据中寻找答案,这个功能非常实用,因为它能让聊天机器人访问你的文件和文档。”NVIDIA Chat with RTX”的主要卖点是其离线功能和用户可定制性。”NVIDIA Chat with RTX”允许您指定自己的文件,以便聊天机器人可以生成根据您的需求定制的答案。

不过目前”NVIDIA Chat with RTX”的唯一不足是其极高的系统要求和巨大的下载容量,您需要 RTX 30 系列 GPU 或更高版本以及至少 8GB VRAM 和 Windows 10 或 11 才能享用到它,但,老wu看来,这也是优点不是嘛,申请换显卡的理由不是又多了一条嘛。( ̄▽ ̄)”

消息来源:

https://www.nvidia.com/en-us/ai-on-rtx/chat-with-rtx-generative-ai/

吴川斌

吴川斌

Leave a Reply