Source: Slashdot
Meta首席执行官马克·扎克伯格在周三表示,公司最新的Llama模型正在一个规模前所未有的GPU集群上进行训练。扎克伯格在财报电话会议上透露,Llama 4的开发正在顺利进行,预计将于明年初首次发布。
他表示:“我们正在一个超过100,000个H100的集群上训练Llama 4模型,这个规模是我见过的其他机构所做的最大。他补充道:“我预计较小的Llama 4模型会首先准备好。
随着计算能力和数据规模的增加,众多专家认为这是开发更强大AI模型的关键。尽管Meta目前似乎领先,但业内大多数主要参与者正朝着使用超过100,000个先进芯片的计算集群工作。
早在三月份,Meta和Nvidia就分享了约25,000个H100的集群,用于开发Llama 3的相关细节。
在科技飞速发展的今天,谁能最终掌握强大的AI技术,将影响未来的每一个角落。
特别声明:本文及配图均为用户上传或者转载,本文仅代表作者个人观点和立场,不代表平台观点。其原创性以及文中陈述文字和内容未经本站证实,
对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本平台不作任何保证或承诺,请读者仅作参考,
并请自行核实相关内容。如发现稿件侵权,或作者不愿在本平台发布文章,请版权拥有者通知本平台处理。
Copyright Disclaimer: The copyright of contents (including texts, images, videos and audios)
posted above belong to the User who shared or the third-party website which the User shared from.
If you found your copyright have been infringed, please send a DMCA takedown notice to
info@microheadline.com
来源:https://tech.slashdot.org/story/24/10/31/1319259/metas-next-llama-ai-models-are-training-on-a-gpu-cluster-bigger-than-anything-else?utm_source=rss1.0mainlinkanon&utm_medium=feed
https://www.newsbytesapp.com/news/science/meta-trains-llama-4-models-on-largest-nvidia-gpu-cluster/story
https://www.threads.net/%40mattnavarra/post/DByAuA1IWgL