AI瘦身风暴:Multiverse融资2.15亿,LLM压缩95%挑战树莓派极限 | AIGC.Bar AI资讯
type
status
date
slug
summary
tags
category
icon
password
网址
在人工智能(AI)飞速发展的今天,大型语言模型(LLM)如雨后春笋般涌现,它们强大的能力令人惊叹,但其庞大的体积和高昂的运算成本也成为了普及应用的巨大障碍。然而,一场针对AI的“瘦身革命”正在悄然兴起。近日,西班牙初创公司Multiverse Computing宣布获得2.15亿美元B轮融资,其核心技术CompactifAI能够将LLM的尺寸极致压缩95%,甚至让强大的Llama模型在小巧的树莓派上流畅运行。这一突破性进展无疑为AI的未来发展注入了新的活力。更多AI前沿动态,欢迎访问AI综合资讯门户 AIGC.Bar。
2.15亿美元的豪赌:Multiverse Computing凭何吸引巨头注资?
Multiverse Computing此次高达1.89亿欧元(约2.15亿美元)的B轮融资由知名投资机构Bullhound Capital领投,该机构曾成功投资Spotify、Discord等科技巨头。惠普科技风投(HP Tech Ventures)、东芝(Toshiba)等重量级企业的加入,也充分证明了市场对Multiverse技术前景的高度认可。
这家成立于西班牙的初创公司并非无名之辈。手握160项专利,服务全球100家客户,包括西班牙电力公司Iberdrola、博世集团(Bosch)和加拿大银行(Bank of Canada)等行业领导者,Multiverse Computing在AI模型优化领域已积累了深厚的技术实力和市场口碑。此轮融资使其总融资额达到约2.5亿美元,为公司进一步研发和推广其AI“瘦身术”提供了充足的弹药。这不仅是对Multiverse团队的肯定,更是资本市场对LLM轻量化赛道前景的积极看好。想要了解更多AI领域的投融资新闻和深度分析,AIGC.Bar是您的不二之选。
CompactifAI揭秘:不止于小,更是快与省
Multiverse Computing的杀手锏是其名为“CompactifAI”的压缩技术。这项技术受到量子计算的启发,其联合创始人兼首席技术官Román Orús是张量网络领域的顶尖学者。张量网络作为一种强大的数学工具,最初用于模拟量子多体系统,如今在深度学习模型压缩方面展现出巨大潜力,它能够在不显著牺牲模型性能的前提下,大幅减少模型的参数量和计算复杂度。
CompactifAI的核心优势在于其惊人的压缩效果和综合性能提升:
* 极致压缩:可将LLM的尺寸缩减高达95%,这意味着原本臃肿的大模型可以变得异常轻巧。
* 性能保持:Multiverse声称,在大幅压缩的同时,模型的性能几乎不受影响。
* 速度提升:压缩后的模型运行速度比未压缩版本快4到12倍。
* 成本降低:推理成本可降低50%至80%。例如,其Llama 4 Scout Slim版在AWS上每百万token的成本仅为10美分,远低于原版的14美分。
目前,Multiverse主要提供知名开源LLM的压缩版本,如Llama 4 Scout、Llama 3.3 70B、Llama 3.1 8B和Mistral Small 3.1等,并计划很快发布DeepSeek R1的压缩版本。这些“瘦身版”模型可通过亚马逊云服务获取,或授权用于本地部署,为企业和开发者提供了灵活高效的AI解决方案。对于希望降低大模型API使用成本的开发者,可以关注AIGC.Bar提供的国内中转API和低价API服务信息。
AI普惠新篇章:当Llama遇见树莓派
LLM模型尺寸的大幅压缩,最直接的影响就是极大地拓展了AI的应用边界。过去,强大的AI模型往往被束缚在昂贵的云服务器或高性能计算集群中。而现在,经过CompactifAI“瘦身”的LLM,不仅可以在个人电脑、智能手机、汽车和无人机上流畅运行,甚至连DIY爱好者钟爱的微型电脑——树莓派(Raspberry Pi)也能轻松驾驭。
想象一下,一个搭载了LLM的树莓派,可以驱动一个能与你深度对话的智能家居中枢,或是一个能够理解复杂指令的机器人助手。正如Multiverse所畅想的,充满创意的树莓派圣诞灯饰屋,未来可能升级为由LLM驱动、能与孩子们互动的“会说话的圣诞老人”。这不仅仅是技术的炫技,更标志着AI技术门槛的显著降低,AI普惠化迈出了坚实的一大步。边缘计算AI将因此迎来爆发式增长,无数创新的AI应用将在我们生活的各个角落生根发芽。在AIGC.Bar,您可以找到大量关于人工智能应用场景和提示词(Prompt)工程的优质内容。
轻量化浪潮:AI模型压缩的挑战与未来机遇
尽管Multiverse Computing的技术突破令人振奋,但AI模型压缩的道路依然充满挑战与机遇。
挑战主要包括:
* 性能与压缩的极致权衡:如何在追求更高压缩比的同时,确保模型在各类复杂任务中的性能表现真正“无损”或“可接受的损失”,仍需持续探索和验证。
* 技术的泛化能力:CompactifAI对不同架构、不同参数规模的LLM(例如OpenAI的GPT系列或Claude系列)的普适性和压缩效果如何,尚待进一步观察。目前其主要针对开源模型,专有模型的壁垒仍未打破。
* 生态系统的构建:围绕压缩后的轻量化模型,如何建立完善的开发工具链、社区支持和应用生态,是技术能否广泛落地的关键。
同时,机遇也前所未有:
* 赋能万千行业:轻量化AI模型将使得AI技术能够渗透到更多资源受限、对实时性要求高的场景,如工业制造、医疗健康、自动驾驶等。
* 推动绿色AI发展:大幅降低模型的计算和存储需求,意味着显著减少AI的能源消耗和碳足迹,助力实现可持续发展目标。
* 激发AGI创新潜力:更易于部署和实验的AI模型,将加速AI研究和应用创新的迭代速度,为探索通用人工智能(AGI)和AI变现带来更多可能性。
结论:AI瘦身术开启智能新纪元
Multiverse Computing凭借其革命性的CompactifAI技术和巨额融资,无疑在AI模型轻量化赛道上投下了一颗重磅炸弹。将LLM尺寸压缩95%并使其能在树莓派上运行,这不仅仅是一项技术指标的突破,更预示着AI技术将以前所未有的速度走向普及化和民主化。
未来,我们可以期待更多类似的高效模型压缩技术涌现,让强大的AI不再是少数巨头和科研机构的专属。轻量化、高效能的AI模型将如空气和水一般,融入我们生产生活的方方面面,开启一个更加智能、便捷的新纪元。想要紧跟AI发展的最新趋势,获取全面的AI资讯、新闻和深度解读,请持续关注AIGC.Bar——您的AI智能门户。
Loading...