Source: Slashdot
法国私人AI实验室PleIAs在Mozilla.org的博客中宣布,他们致力于公开训练大语言模型(LLMs),不仅发布模型,还确保训练数据和代码的透明性。近日,PleIAs发布了全球最大的开放多语种预训练数据集Common Corpus,包含超过2万亿个符号,并设有清晰的数据来源。
该数据集具有多语言、多样化和经过严格审核的特点,支持开放AI的发展。此举在面对欧盟AI法案等新法规时,为高质量大模型的训练提供了可能性。
与此同时,AMD也发布了首个完全开放的10亿参数语言模型OLMo。
非营利组织艾伦人工智能研究所在上个月推出了Molmo,一个开源的多模态AI模型系列,性能超越OpenAI的GPT-4o等多个商业对手。
在开放与性能之间,我们是否能找到一道完美的平衡?
特别声明:本文及配图均为用户上传或者转载,本文仅代表作者个人观点和立场,不代表平台观点。其原创性以及文中陈述文字和内容未经本站证实,
对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本平台不作任何保证或承诺,请读者仅作参考,
并请自行核实相关内容。如发现稿件侵权,或作者不愿在本平台发布文章,请版权拥有者通知本平台处理。
Copyright Disclaimer: The copyright of contents (including texts, images, videos and audios)
posted above belong to the User who shared or the third-party website which the User shared from.
If you found your copyright have been infringed, please send a DMCA takedown notice to
info@microheadline.com
来源:https://news.slashdot.org/story/24/11/16/0326222/ai-lab-pleias-releases-fully-open-dataset-as-amd-ai2-release-open-ai-models?utm_source=rss1.0mainlinkanon&utm_medium=feed
https://news.co.za/sport/
https://www.axios.com/2024/02/01/allen-institute-for-ai-fully-open-source-large-language-model-olmo-7b