就在人们以为大模型已经过了尝鲜期“玩不出什么新花样”来的时候,近来有一家大模型凭借对长文本的处理能力频频出圈,甚至它的官网由于访问过载一度出现宕机的现象,再次刷新了人们对于大模型文本能力的认知印象,也进一步加剧国内大模型的 “自卷”军备竞赛---而它就是由月之暗面(Moonshot AI)推出的智能助手Kimi。
那么这款大模型出圈在何处呢?为何能在短短时间之内就引发热议?业内流传着的“Kimi 10分钟速成定律”是不是又在炒概念呢?
根据目前公布的信息来看,Kimi在长文本的处理上具有无与伦比的优势。作为全球首个支持200万字上下文的中文大模型,它不单能够一口气精读500个甚至更多数量的文件,帮助用户快速分析所有文件的内容,并且支持通过自然语言进行信息查询和筛选。除此之外,它还具备其他常规语言模型处理能力如数据处理、编码辅助、模拟对话、多语言翻译等等。
这也就意味着我们不需要再花费大量的时间去阅读艰涩长难文献,有了Kimi,无论涉及什么领域,也无关内容或多或少,只要把资料扔给模型,它都能在10分钟以内整合提取关键知识点,这可以是一本近80W字的《红楼梦》,可以是一本专业大部头的《中医诊断学》,也可以是《甄嬛传》的原剧本,更可以是500份求职者简历等等。
在内测中,测试者曾将一份长达187页的上市公司年报全文输入到Kimi,1分钟之内,仅为1页的核心内容被提取出来,其中包括上市公司的基本信息、财务概览(营业收入、净利润等)、利润分配、公司治理等十项核心内容,帮助投资者迅速了解上市公司的简要财务情况。
随着大批玩家涌入,Kimi官方网站数度被挤崩,不得不紧急扩容5次。kimi火到宕机的背后仍然能够反映出大模型所引发的算力供不应求的现象还在持续,Gooxi作为中国领先服务器解决方案提供商正在以高性能的智能算力为人工智能的发展筑基。
其中Gooxi推出的 Intel Eagle Stream 双路4U10卡AI服务器,具有强大计算能力和超高弹性扩展能力。它支持1/2颗第四代或第五代英特尔®至强®可扩展处理器,采用CXL和PCIe5.0最新技术支撑,加快数据传输速率,在4U空间内搭载10张业界先进的GPU卡,并且支持国内外品牌AI加速卡,整机最多可支持19个PCIe扩展插槽。采用CPU-GPUswitch扩展模式,灵活应对不同应用场景需求,能够帮助大模型在训练和推理场景中快速执行复杂的计算任务,包括自然语言处理、数据分析和机器学习模型的推理等。
除了计算之外,存储性能对于AI的训练和推理场景也至关重要,一个大模型训练过程所需处理的数据量轻松就能达到PB级。面对如此庞杂的数据存储与管理的挑战,过去单一的数据存储方式显然已经无法满足需求。
Gooxi FS(分布式存储软件)可以轻松构建PB或者EB级规模的分布式存储服务,各模块可水平扩展,有多副本及EC技术以实现数据安全,采用高速元数据、强一致性、多级缓存技术实现高性能,能够有效解决模型训练过程中文本、图片、音频、视频等多类型数据存储,一套存储实现大模型训练中多场景存储应用。
根据Open AI公布的数据:世界500强中,已经有80%的公司被ChatGPT工具“渗透”,由此而推知大模型的商业化应用有着广阔的想象空间。
目前AIGC技术还在不断进化,自ChatGPT引爆AI浪潮以来,谁是中国版ChatGPT的讨论从未消失,而Kimi这把火彻底将在国内大模型走向商业化的道路点燃了。基于此,Gooxi将积极发挥自身的行业优势,推动生成式人工智能技术的进一步发展,快速走进AIGC时代。