NVIDIA发布了能在本机GPU上运行的聊天机器人应用,更换显卡的理由又多了一条
但目前AI的应用,主要还是依赖于云端的大模型,因为生成式AI需要强大的算力做支撑,关于生成式 AI,我们可能经常听到两个术语——基础模型(Foundation Model)和大语言模型(Large Language Mode)。基础模型是基于海量结构化和非结构化数据训练的机器学习模型,通过微调即可以用来执行更加具体的任务。大语言模型是基础模型的一个子集,主要用来理解和生成类人文字表达。这些模型更适用于如翻译、回答问题、总结信息、创建或者识别图片等场景。
过去一年,随着生成式AI技术的迅速发展,在AI算力方面,芯片巨头NVIDIA也在发挥着关键性的作用,为了推动生成式AI脱离云端依赖而直接在本机上运行,NVIDIA刚刚发布了一款聊天机器人的免费演示版–NVIDIA Chat with RTX,该聊天机器人可在电脑上本地运行,而无需连接到云端。NVIDIA是四大人工智能巨头中第一个发布专用于本地离线使用的免费聊天机器人的公司。
你可以向”NVIDIA Chat with RTX”提供一些私有数据,让它根据这些信息创建摘要。你还可以向它提问,就像其他聊天机器人一样,它也会从你的数据中寻找答案,这个功能非常实用,因为它能让聊天机器人访问你的文件和文档。”NVIDIA Chat with RTX”的主要卖点是其离线功能和用户可定制性。”NVIDIA Chat with RTX”允许您指定自己的文件,以便聊天机器人可以生成根据您的需求定制的答案。
消息来源:
https://www.nvidia.com/en-us/ai-on-rtx/chat-with-rtx-generative-ai/