近日,针对盘古大模型开源代码的争议受到关注。今日,在华为诺亚方舟实验室公众号上, 盘古Pro MoE技术开发团队发布声明。
声明指出,盘古Pro MoE开源模型并非基于其他厂商模型进行增量训练,而是基于昇腾硬件平台开发、训练的基础大模型,在架构设计、技术特性等方面做了关键创新。这是全球首个面向昇腾硬件平台设计的同规格混合专家模型,创新性地提出了分组混合专家模型(MoGE)架构,有效解决了大规模分布式训练的负载均衡难题,提升训练效率。
针对部分代码是否借鉴了其他开源项目,声明表示:“盘古Pro MoE开源模型部分基础组件的代码实现参考了业界开源实践,涉及其他开源大模型的部分开源代码。我们严格遵循开源许可证的要求,在开源代码文件中清晰标注开源代码的版权声明。这不仅是开源社区的通行做法,也符合业界倡导的开源协作精神。”(21世纪经济报道)
驰盈策略-配资杠杆炒股-股票配资-股票短线平台提示:文章来自网络,不代表本站观点。