会员登录 - 用户注册 - 设为首页 - 加入收藏 - 网站地图 奔腾2 CPU+128MB内存成功运行Llama大模型:速度还挺快!

奔腾2 CPU+128MB内存成功运行Llama大模型:速度还挺快

时间:2025-01-07 19:08:32 来源:声情并茂网 作者:时尚 阅读:669次

12月30日消息,奔腾据媒体报道,存成EXO Labs最近发布了一段视频,功运展示了在一台26年历史的行L型速Windows 98奔腾2 PC上运行大模型(LLM)。

这台主频350MHz电脑成功启动进入Windows 98系统,大模度还随后EXO启动了基于Andrej Karpathy的挺快Llama2.c定制的纯C推理引擎,并要求LLM生成关于“Sleepy Joe”的奔腾故事,令人惊讶的存成是生成速度相当可观。

奔腾2 CPU+128MB内存成功运行Llama大模型:速度还挺快

EXO Labs的功运这一壮举并非偶然,该组织自称为“民主化AI”而生,行L型速由牛津大学的大模度还研究人员和工程师组成,他们认为,挺快少数大型企业控制AI对文化、奔腾真理和社会的存成其他基本方面是不利的。

因此,功运EXO希望建立开放的基础设施,训练前沿模型,并使任何人在任何地方都能运行它们,这项在Windows 98上的AI演示,展示了即使在资源极其有限的情况下也能完成的事情。

EXO Labs在文章中详细描述了在Windows 98上运行Llama的过程,他们购买一台旧的Windows 98 PC作为项目基础,但面临了许多挑战。

将数据传输到老设备上就是一个不小的挑战,他们不得不使用“老式的FTP”通过古老机器的以太网端口进行文件传输。

编译现代代码以适应Windows 98可能是一个更大的挑战,EXO找到了Andrej Karpathy的llama2.c,可以总结为“700行纯C代码,可以运行Llama 2架构模型的推理”,Karpathy曾是特斯拉的AI主管,也是OpenAI的创始团队成员。

利用这个资源和旧的Borland C++ 5.02 IDE和编译器(以及一些轻微的调整),代码可以被制作成Windows 98兼容的可执行文件并运行,GitHub上有完成代码的链接。

使用260K LLM和Llama架构在Windows 98上实现了“35.9 tok/s”的速度,根据EXO的博客,升级到15M LLM后,生成速度略高于1 tok/s,Llama 3.2 1B的速度则慢得多,为0.0093 tok/s。

(责任编辑:百科)

相关内容
  • [流言板]米尔顿命中半场三分可惜不算,篮网三节落后魔术25分
  • [流言板]沃西谈詹姆斯:你不能要求一个40岁的球员每晚都发挥出色
  • 亚马尔:梅西独一无二没人能和他相比 踢球最重要是开心和享受
  • 米体:红鸟老板希望丰塞卡率米兰重返巅峰,获欧冠资格是最低要求
  • 回暖!76人取得4连胜&近7战赢下6场 战绩来到13胜17负
  • [流言板]美媒发问:约基奇和字母哥,谁是你心中的mvp
  • 有咚咚和wyy的训练赛成绩比较吗
  • 986g极致轻薄!联想ThinkPad X1 Carbon Aura AI 2025图赏
推荐内容
  • 京多安:输掉比赛很失望,我们踢得太复杂错过正确的传球时机,
  • 马卡:南美足协寻求让美职联加入解放者杯赛事
  • 行业顶级1.5K直屏!一加Ace 5图赏
  • 鹿鸣这个月看来吃挺好的,雷都变大了
  • 掘金记者:威少本季表现超出了我对他的预期 他值得极高的赞誉
  • 前体操冠军成网红!吴柳芳再次被禁600万粉丝清空 抖音回应