Source: Slashdot
中国电信近日宣布,成功开发出两种大型语言模型(LLM),并完全依赖国产人工智能芯片。这一成就标志着中国在半导体自主研发方面的重要进展,尤其是在当前中美芯片战争中,美国逐步收紧对中国最新高端芯片的供应。
华为作为中国本土芯片产业的领军企业,如果中国电信的LLM确实完全使用华为芯片训练,将是华为和中国政府的重大成功。根据报道,这些模型的GitHub页面提到与华为‘Ascend Atlas 800T A2训练服务器’的兼容性,暗示该项目背后有华为的支持。
中国电信表示,该模型的参数达到了1万亿,而TeleChat2t-115B模型则拥有超过1000亿参数。
。
在全球技术争霸的今天,自主创新是否能成为国家增强实力的重要支撑?
特别声明:本文及配图均为用户上传或者转载,本文仅代表作者个人观点和立场,不代表平台观点。其原创性以及文中陈述文字和内容未经本站证实,
对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本平台不作任何保证或承诺,请读者仅作参考,
并请自行核实相关内容。如发现稿件侵权,或作者不愿在本平台发布文章,请版权拥有者通知本平台处理。
Copyright Disclaimer: The copyright of contents (including texts, images, videos and audios)
posted above belong to the User who shared or the third-party website which the User shared from.
If you found your copyright have been infringed, please send a DMCA takedown notice to
info@microheadline.com
来源:https://hardware.slashdot.org/story/24/10/06/036220/china-trained-a-1-trillion-parameter-llm-using-only-domestic-chips?utm_source=rss1.0mainlinkanon&utm_medium=feed
https://www.theregister.com/2024/10/02/china_telecom_model_trained_local_tech/
https://www.techradar.com/pro/one-of-the-worlds-largest-mobile-networks-will-train-its-trillion-parameter-strong-llm-on-huaweis-ai-chips-as-nvidia-amd-are-sidelined